JP2015222870A - Image processing method, image processing apparatus, imaging apparatus, image processing program and storage medium - Google Patents
Image processing method, image processing apparatus, imaging apparatus, image processing program and storage medium Download PDFInfo
- Publication number
- JP2015222870A JP2015222870A JP2014106400A JP2014106400A JP2015222870A JP 2015222870 A JP2015222870 A JP 2015222870A JP 2014106400 A JP2014106400 A JP 2014106400A JP 2014106400 A JP2014106400 A JP 2014106400A JP 2015222870 A JP2015222870 A JP 2015222870A
- Authority
- JP
- Japan
- Prior art keywords
- chromatic aberration
- color
- image
- image processing
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 title claims description 96
- 238000003384 imaging method Methods 0.000 title abstract description 48
- 230000004075 alteration Effects 0.000 claims abstract description 210
- 230000003287 optical effect Effects 0.000 claims abstract description 175
- 230000007423 decrease Effects 0.000 claims abstract description 95
- 238000012937 correction Methods 0.000 claims description 210
- 238000000034 method Methods 0.000 claims description 93
- 238000013461 design Methods 0.000 claims description 17
- 230000003247 decreasing effect Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 description 54
- 238000001514 detection method Methods 0.000 description 36
- 230000008859 change Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 26
- 230000000740 bleeding effect Effects 0.000 description 17
- 230000014509 gene expression Effects 0.000 description 16
- 206010010071 Coma Diseases 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 7
- 230000002829 reductive effect Effects 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 229920006395 saturated elastomer Polymers 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 229920013655 poly(bisphenol-A sulfone) Polymers 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004033 diameter control Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、カラー画像における色にじみを低減する画像処理方法に関する。 The present invention relates to an image processing method for reducing color bleeding in a color image.
従来から、撮影光学系の色収差により、カラー画像の明るい部分の周囲に本来存在しない色が色にじみとして生じる場合がある。撮影光学系の色収差は、異なる分散を有する材料からなる複数のレンズを組み合わせることにより、ある程度光学的に低減することができる。しかし近年では、撮像装置の小型化が進み、撮像素子に用いられるセンサの高解像度化および撮影光学系の小型化が要求され、撮影光学系の構成により色収差を十分に抑制することは困難である。 Conventionally, a color that does not originally exist around a bright portion of a color image may occur as a color blur due to chromatic aberration of the photographing optical system. The chromatic aberration of the photographing optical system can be optically reduced to some extent by combining a plurality of lenses made of materials having different dispersions. However, in recent years, the size of image pickup apparatuses has been reduced, and it has been required to increase the resolution of sensors used in image pickup elements and to reduce the size of imaging optical systems. It is difficult to sufficiently suppress chromatic aberration by the configuration of the imaging optical system. .
色収差は、横色収差(倍率色収差)と縦色収差(軸上色収差)に大別される。横色収差は、結像位置が波長により像面に沿う方向にずれる現象である。縦色収差は、結像位置が波長により光軸に沿う方向にずれる現象である。特許文献1に開示されているように、横色収差は、R(赤)、G(緑)、B(青)の各色プレーンに対して異なる歪曲を加える幾何変換により補正することができる。一方、縦色収差は、上記幾何変換では補正できない。 Chromatic aberration is roughly classified into lateral chromatic aberration (magnification chromatic aberration) and longitudinal chromatic aberration (axial chromatic aberration). Lateral chromatic aberration is a phenomenon in which the image formation position shifts in the direction along the image plane depending on the wavelength. Longitudinal chromatic aberration is a phenomenon in which the imaging position shifts in the direction along the optical axis depending on the wavelength. As disclosed in Patent Document 1, lateral chromatic aberration can be corrected by geometric transformation that adds different distortions to each of the R (red), G (green), and B (blue) color planes. On the other hand, longitudinal chromatic aberration cannot be corrected by the geometric transformation.
特許文献2には、色にじみが主に白とび(予め設定した信号の飽和領域)周辺に生じる特性を利用して、G(緑)プレーンの飽和している領域を探索し、その周辺の領域の画素を積分して補正量を算出する方法が開示されている。特許文献3には、カラー画像における色プレーンの画素値が単調増加または単調減少している領域を色にじみ発生領域と判定し、色にじみを除去する方法が開示されている。 In Patent Document 2, a region in which a G (green) plane is saturated is searched using a characteristic in which color blur is mainly generated in the vicinity of a whiteout (a saturated region of a preset signal), and a region around the region is searched. A method of calculating a correction amount by integrating the pixels is disclosed. Patent Document 3 discloses a method of determining a region where a color plane pixel value in a color image monotonously increases or decreases as a color blur generation region and removing the color blur.
しかしながら、特許文献2に開示されている方法では、白とびしていない領域にも観察者にとって違和感のある色にじみが生じるため、色にじみの補正は不十分である。また特許文献3に開示されている方法によれば、白とびしていない領域の色にじみも補正が可能である。しかしながら、色にじみは、撮影光学系の収差により発生するため、コマ収差などの非対称な収差を有する撮影光学系では、被写体に対して色にじみが発生する方向や発生しない方向が存在する。被写体の色が色にじみと同系色の場合、本来は色にじみが発生しない方向でも被写体の色を色にじみとして誤判定し、被写体の本来の色を除去してしまう可能性がある。 However, in the method disclosed in Patent Document 2, color blur that causes discomfort to the observer also occurs in a region that is not overexposed, and thus correction of color blur is insufficient. Further, according to the method disclosed in Patent Document 3, it is possible to correct the color blur of the region that is not overexposed. However, since color blur occurs due to aberrations in the photographing optical system, there are directions in which color blur occurs and does not occur in a subject in a photographing optical system having asymmetric aberrations such as coma aberration. When the color of the subject is similar to the color blur, there is a possibility that the subject color is erroneously determined as a color blur even in a direction where the color blur does not occur, and the original color of the subject is removed.
また、色にじみをより効果的に低減させるには、光学系の製造ばらつきや偏芯調整などの影響による倍率色収差を考慮する必要がある。 In order to reduce color blur more effectively, it is necessary to consider lateral chromatic aberration due to the influence of manufacturing variations of the optical system and eccentricity adjustment.
そこで本発明は、カラー画像における色にじみを効果的に低減可能な画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体を提供する。 Accordingly, the present invention provides an image processing method, an image processing apparatus, an imaging apparatus, an image processing program, and a storage medium that can effectively reduce color bleeding in a color image.
本発明の一側面としての画像処理方法は、撮影画像の倍率色収差を補正するステップと、前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出するステップと、撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定するステップと、前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正するステップとを有する。 An image processing method according to one aspect of the present invention includes a step of correcting a magnification chromatic aberration of a captured image, and a level of a color signal or a luminance signal of the captured image in which the magnification chromatic aberration is corrected monotonously in a first direction in a predetermined section. A step of detecting a first area increasing or monotonously decreasing, and a second area in which the color blur is generated based on the optical information on the color blur of the photographing optical system and the information on the first area And a step of correcting the captured image in which the lateral chromatic aberration is corrected so as to reduce the color blur.
本発明の他の側面としての画像処理装置は、撮影画像の倍率色収差を補正する補正手段と、前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出する検出手段と、撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定する判定手段と、前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正する修正手段とを有する。 An image processing apparatus according to another aspect of the present invention includes a correction unit that corrects magnification chromatic aberration of a captured image, and a first direction in which a level of a color signal or a luminance signal of the captured image in which the magnification chromatic aberration is corrected is a predetermined interval. Based on the detection means for detecting the first area monotonically increasing or decreasing monotonically, the optical information regarding the color blur of the photographing optical system, and the information regarding the first area, the color blur is generated. Determination means for determining the second area, and correction means for correcting the captured image in which the lateral chromatic aberration is corrected so as to reduce the color blur.
本発明の他の側面としての撮像装置は、光学像を光電変換して撮影画像を出力する撮像素子と、前記撮影画像の倍率色収差を補正する補正手段と、前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出する検出手段と、撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定する判定手段と、前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正する修正手段と、を有する。 An imaging apparatus according to another aspect of the present invention includes an imaging device that photoelectrically converts an optical image and outputs a captured image, a correction unit that corrects lateral chromatic aberration of the captured image, and a captured image that has corrected the lateral chromatic aberration. Detecting means for detecting a first region in which the level of the color signal or the luminance signal monotonously increases or decreases monotonously in the first direction in a predetermined section; optical information relating to color blur of the photographing optical system; and the first information A determination unit that determines a second region in which the color blur occurs based on information about the region; a correction unit that corrects the captured image in which the lateral chromatic aberration is corrected so as to reduce the color blur; and Have
本発明の他の側面としての画像処理プログラムは、撮影画像の倍率色収差を補正するステップと、前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出するステップと、撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定するステップと、前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正するステップと、をコンピュータに実行させるように構成されている。 An image processing program according to another aspect of the present invention includes a step of correcting magnification chromatic aberration of a photographed image, and a level of a color signal or a luminance signal of the photographed image corrected for the magnification chromatic aberration in a first direction in a predetermined section. Detecting a first region that is monotonously increasing or monotonically decreasing; and second information in which the color blur is generated based on optical information relating to color blur of the photographing optical system and information relating to the first region. The computer is configured to execute a step of determining an area and a step of correcting a captured image in which the magnification chromatic aberration is corrected so as to reduce the color blur.
本発明の他の側面としての記憶媒体は、前記画像処理プログラムを記憶している。 A storage medium according to another aspect of the present invention stores the image processing program.
本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the invention are described in the following embodiments.
本発明によれば、カラー画像における色にじみを効果的に低減可能な画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体を提供することができる。 According to the present invention, it is possible to provide an image processing method, an image processing apparatus, an imaging apparatus, an image processing program, and a storage medium that can effectively reduce color bleeding in a color image.
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
まず、図1Aおよび図1Bを参照して、本実施形態における画像処理装置および画像処理方法について説明する。図1Aは、本実施形態における画像処理装置100のブロック図である。図1Bは、本実施形態における画像処理方法(画像処理プログラム)のフローチャートである。図1Bの各ステップは、画像処理装置100の指令に基づいて、すなわち画像処理装置100の各手段により実行される。 First, an image processing apparatus and an image processing method in this embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a block diagram of an image processing apparatus 100 in the present embodiment. FIG. 1B is a flowchart of an image processing method (image processing program) in the present embodiment. Each step in FIG. 1B is executed based on a command from the image processing apparatus 100, that is, by each unit of the image processing apparatus 100.
図1Aに示されるように、画像処理装置100は、入力手段101、補正手段102(倍率色収差補正部)、検出手段103、判定手段104、修正手段105(色にじみ補正部)、出力手段106、および、記憶手段107を備えて構成される。まず、図1BのステップS1において、画像処理装置100(入力手段101)は、撮影画像を入力画像として取得する。入力画像は、撮影光学系を介して撮像素子で受光することにより得られたデジタル画像(撮影画像)であり、レンズと各種の光学フィルタ類を含む撮影光学系の収差により劣化している。撮影光学系は、レンズだけでなく曲率を有するミラー(反射面)を用いて構成することもできる。 As shown in FIG. 1A, an image processing apparatus 100 includes an input unit 101, a correction unit 102 (magnification chromatic aberration correction unit), a detection unit 103, a determination unit 104, a correction unit 105 (color blur correction unit), an output unit 106, The storage unit 107 is provided. First, in step S1 of FIG. 1B, the image processing apparatus 100 (input unit 101) acquires a captured image as an input image. The input image is a digital image (captured image) obtained by receiving light with an image sensor via a photographic optical system, and is deteriorated due to aberration of the photographic optical system including a lens and various optical filters. The photographing optical system can be configured using not only a lens but also a mirror (reflection surface) having a curvature.
入力画像の色成分は、例えばRGB色成分の情報を有する。色成分としては、これ以外にもLCHで表現される明度、色相、彩度や、YCbCrで表現される輝度、色差信号など一般に用いられている色空間を選択して用いることができる。その他の色空間として、XYZ、Lab、Yuv、JChを用いることが可能である。また、色温度を用いてもよい。撮影画像は、撮像装置と画像処理装置とを有線または無線で接続して取得することができる。また撮影画像は、記憶媒体を介して取得することもできる。 The color component of the input image has information on RGB color components, for example. As the color component, other commonly used color spaces such as brightness, hue, and saturation expressed in LCH, luminance expressed in YCbCr, and color difference signals can be selected and used. As other color spaces, XYZ, Lab, Yuv, and JCh can be used. Color temperature may also be used. The captured image can be acquired by connecting the imaging device and the image processing device by wire or wirelessly. The captured image can also be acquired via a storage medium.
続いてステップS2において、画像処理装置100(補正手段102)は、入力手段101を介して取得した入力画像(撮影画像)の倍率色収差(色ずれ)を補正する(倍率色収差補正工程)。本実施形態において、補正手段102は、倍率色収差の補正処理として、2つの処理(第1の補正処理および第2の補正処理)を実行する。第1の補正処理は、撮影光学系の色ごとの倍率(像の大きさ)の違いを補正する処理であり、設計値上で残存している倍率色収差(第1の倍率色収差)の補正処理である。本実施形態において単に倍率色収差という場合、第1の倍率色収差を意味する。第2の補正処理は、撮影光学系の製造工程で生じる設計値からのずれ分に相当する収差(第2の倍率色収差)を補正する処理である。本実施形態において、第2の倍率色収差を、便宜上、非対称な倍率色収差という。 Subsequently, in step S2, the image processing apparatus 100 (correction unit 102) corrects the lateral chromatic aberration (color shift) of the input image (captured image) acquired via the input unit 101 (a lateral chromatic aberration correction step). In the present embodiment, the correction unit 102 executes two processes (a first correction process and a second correction process) as the correction process for the lateral chromatic aberration. The first correction process is a process for correcting a difference in magnification (image size) for each color of the photographing optical system, and a process for correcting the lateral chromatic aberration (first lateral chromatic aberration) remaining on the design value. It is. In the present embodiment, when simply referred to as lateral chromatic aberration, it means the first lateral chromatic aberration. The second correction process is a process for correcting an aberration (second lateral chromatic aberration) corresponding to a deviation from a design value generated in the manufacturing process of the photographing optical system. In the present embodiment, the second lateral chromatic aberration is referred to as asymmetric lateral chromatic aberration for convenience.
(倍率色収差の検出と補正)
まず、図27を参照して、設計値上で残存している倍率色収差(第1の倍率色収差)の補正について説明する。図27は、第1の倍率色収差の説明図である。図27(a)は倍率色収差が残存した入力画像の模擬図であり、図27(b)は図27(a)の水平方向(x方向)に沿った断面図である。図27(a)において、x軸は水平方向の位置、y軸は垂直方向の位置、x軸とy軸との交点は画像(入力画像)の中心をそれぞれ示している。図27(a)、(b)中の実線はGプレーン、点線はRプレーン、一点鎖線はBプレーンをそれぞれ表している。
(Detection and correction of lateral chromatic aberration)
First, correction of lateral chromatic aberration (first lateral chromatic aberration) remaining on the design value will be described with reference to FIG. FIG. 27 is an explanatory diagram of the first lateral chromatic aberration. FIG. 27A is a simulated view of an input image in which lateral chromatic aberration remains, and FIG. 27B is a cross-sectional view along the horizontal direction (x direction) of FIG. In FIG. 27A, the x-axis indicates the horizontal position, the y-axis indicates the vertical position, and the intersection of the x-axis and the y-axis indicates the center of the image (input image). In FIGS. 27A and 27B, the solid line represents the G plane, the dotted line represents the R plane, and the alternate long and short dash line represents the B plane.
図27(a)、(b)において、光学系は共軸系で倍率色収差以外の収差は補正されており、元の像の強度の形状はRGBで一致して倍率色収差の分だけずれているとする。この場合、図27(b)に示されるように低像高側(x軸とy軸との交点側)では、RプレーンやGプレーンよりもBプレーンの画素値が高い。このため、低像高側の領域では、画像が青くにじんで見える(色にじみが発生しているように見える)。一方、高像高側(x軸とy軸との交点の反対側)では、GプレーンやBプレーンよりもRプレーンの画素値が高い。このため、高像高側の領域では、画像が赤くにじんで見える(色にじみが発生しているように見える)。 In FIGS. 27A and 27B, the optical system is a coaxial system, and aberrations other than lateral chromatic aberration are corrected, and the shape of the intensity of the original image matches in RGB and is shifted by the amount of lateral chromatic aberration. And In this case, as shown in FIG. 27B, the pixel value of the B plane is higher than that of the R plane and the G plane on the low image height side (the intersection side of the x axis and the y axis). For this reason, in the region on the low image height side, the image appears to blur blue (color blur appears to occur). On the other hand, on the high image height side (on the opposite side of the intersection of the x axis and the y axis), the pixel value of the R plane is higher than that of the G plane or B plane. For this reason, in the region on the high image height side, the image appears to blur in red (color blur appears to occur).
このような状態で色にじみ補正を行うと、図27(a)、(b)に示されるように倍率色収差の影響により各色のプレーンがずれている状態であっても色にじみが発生しているものとして処理されてしまう。このため、色にじみ補正を正しく行うことができず、入力画像の色を本来の色に戻す(補正する)ことができない可能性がある。例えば、図27(a)、(b)の場合、RGBの形状がそろうまで色にじみ補正を行おうとすると、RGBが重なっている部分は内側の一部であるため、元の像の形状よりもエッジ部が削られてしまう場合がある。または、エッジ部が削れないようにRGBの形状をGプレーンに合わせようとすると、低像高側ではRプレーンの画素値が低くなり、一方、高像高側ではBプレーンの画素値が低くなる。この結果、色抜けが発生するなどの問題が生じうる。そこで本実施形態では、倍率色収差の補正処理後に、後述の色にじみ補正処理を行う。これにより、光学系により生じる被写体の色にじみを高精度かつ適切に補正することが可能となる。 When color blur correction is performed in such a state, color blur occurs even when the planes of the respective colors are shifted due to the influence of lateral chromatic aberration as shown in FIGS. 27 (a) and 27 (b). It will be processed as a thing. For this reason, color blur correction cannot be performed correctly, and there is a possibility that the color of the input image cannot be restored (corrected) to the original color. For example, in the case of FIGS. 27A and 27B, if the color blur correction is performed until the RGB shapes match, the portion where RGB overlaps is a part of the inner side, so that it is more than the shape of the original image. The edge part may be cut off. Alternatively, when trying to match the RGB shape to the G plane so that the edge portion is not scraped, the pixel value of the R plane is low on the low image height side, while the pixel value of the B plane is low on the high image height side. . As a result, problems such as color loss may occur. Therefore, in the present embodiment, a color blur correction process described later is performed after the correction process of the lateral chromatic aberration. Thereby, it is possible to correct the color blur of the subject generated by the optical system with high accuracy and appropriately.
次に、図23および図24を参照して、入力画像から倍率色収差を検出して補正する方法について説明する。図23は、倍率色収差(第1の倍率色収差)の補正処理(第1の補正処理)を示すフローチャートである。図23の各ステップは、図1BのステップS2の一部を構成する。図24は、倍率色収差の補正処理の説明図である。 Next, a method for detecting and correcting lateral chromatic aberration from an input image will be described with reference to FIGS. FIG. 23 is a flowchart showing a correction process (first correction process) of lateral chromatic aberration (first lateral chromatic aberration). Each step in FIG. 23 constitutes part of step S2 in FIG. 1B. FIG. 24 is an explanatory diagram of magnification chromatic aberration correction processing.
まず図23のステップS11において、画像処理装置100(補正手段102)は、入力画像から、倍率色収差による色ずれが顕著に現れるエッジ(エッジ領域)を検出する。本実施形態において、補正手段102は、Y(輝度)プレーンを用いてエッジを検出する。好ましくは、検出対象のエッジは、光学中心からの動径方向に大きく画素値の変化するエッジに限定される。これにより、高精度の色ずれ量を取得することができる。また、Yプレーンにおいて、倍率色収差による色ずれは、一つに混じり合って現れる。このため、画素値が単調増加または単調減少が複数画素続くような、ある程度の幅のあるエッジを検出対象とすることが好ましい。 First, in step S <b> 11 of FIG. 23, the image processing apparatus 100 (correction unit 102) detects an edge (edge region) in which a color shift due to lateral chromatic aberration appears significantly from the input image. In the present embodiment, the correction unit 102 detects an edge using a Y (luminance) plane. Preferably, the detection target edge is limited to an edge whose pixel value changes greatly in the radial direction from the optical center. Thereby, it is possible to acquire a highly accurate color misregistration amount. In the Y plane, the color shift due to the chromatic aberration of magnification appears mixed together. For this reason, it is preferable to select an edge having a certain width such that the pixel value monotonously increases or monotonously decreases for a plurality of pixels.
続いてステップS12において、補正手段102は、ステップS11にて検出された各エッジ(エッジ領域)における色ずれ量を取得する。ここで、色ずれの方向として、光学中心と各エッジとの位置関係により、上/下方向、左/右方向、右斜め上/左斜め下方向、左斜め上/右斜め下方向のいずれかを適用することで、処理の簡略化を図ることができる。 Subsequently, in step S12, the correction unit 102 acquires the color misregistration amount at each edge (edge region) detected in step S11. Here, depending on the positional relationship between the optical center and each edge, the color misregistration direction is any one of up / down direction, left / right direction, upper right / lower left direction, upper left / lower right direction. By applying, the processing can be simplified.
各エッジにおける色ずれ量の取得には、色成分間の相関が用いられる。例えば、色成分間の差分絶対値の和を判定して色ずれ量を取得することができる。Gプレーンに対してRプレーン(またはBプレーン)を色ずれ方向に移動させながら、検出されたエッジ付近の画素において、色成分間の差分絶対値和が最小となる場所を探索する。ここで検出された差分絶対値和が最小となった位置から、Gプレーンに対するRプレーン(またはBプレーン)の色ずれ量を求めることが可能である。ステップS12により求められる色ずれ量の符号は、Gプレーンに対してRプレーン(またはBプレーン)が光学中心方向へずれている場合には負とし、Gプレーンに対してRプレーン(またはBプレーン)が光学中心とは逆方向へずれている場合には正とする。 Correlation between color components is used to obtain the amount of color shift at each edge. For example, the amount of color misregistration can be acquired by determining the sum of absolute differences between color components. While the R plane (or B plane) is moved in the color shift direction with respect to the G plane, a search is made for a place where the sum of absolute differences between color components is minimized in pixels near the detected edge. From the position where the sum of absolute differences detected here is minimized, it is possible to obtain the color shift amount of the R plane (or B plane) with respect to the G plane. The sign of the amount of color shift obtained in step S12 is negative when the R plane (or B plane) is shifted toward the optical center with respect to the G plane, and the R plane (or B plane) with respect to the G plane. Is positive if it is displaced in the direction opposite to the optical center.
続いてステップS13において、補正手段102は、ステップS11にて検出された各エッジの像高、および、ステップS12にて取得された各エッジの色ずれ量に基づいて、像高と色ずれ量との関係を求め、補正データを作成する。ここで、像高とは、光学中心に相当する画素(光学中心)からの距離である。補正データは、以下の手順により作成される。 Subsequently, in step S13, the correction unit 102 determines the image height and the color shift amount based on the image height of each edge detected in step S11 and the color shift amount of each edge acquired in step S12. The correction data is created. Here, the image height is a distance from a pixel (optical center) corresponding to the optical center. The correction data is created by the following procedure.
まず、ステップS11にて検出されたエッジの像高をL、ステップS13にて取得された色ずれ量をDとすると、以下の式(1)で表されるように、像高Lに対する色ずれ率Mが求められる。 First, assuming that the image height of the edge detected in step S11 is L and the color shift amount acquired in step S13 is D, the color shift with respect to the image height L is expressed by the following equation (1). A rate M is determined.
M=L/(L+D) … (1)
続いて図24(a)に示されるように、補正手段102は、入力画像を像高ごとに8つの領域(h1〜h8)に分割し、検出されたエッジが属する領域を判定する。そして補正手段102は、入力画像内で検出された複数のエッジついて、前述の色ずれ率Mの算出、および、エッジが属する領域の判定を行う。また補正手段102は、像高ごとに分割した8つの領域ごとに色ずれ率Mを集計し、領域ごとに色ずれ率Mの平均値を求め、各領域の色ずれ率を決定する。
M = L / (L + D) (1)
Subsequently, as illustrated in FIG. 24A, the correcting unit 102 divides the input image into eight regions (h1 to h8) for each image height, and determines a region to which the detected edge belongs. Then, the correction unit 102 calculates the color misregistration rate M and determines a region to which the edge belongs for a plurality of edges detected in the input image. Further, the correction unit 102 totals the color misregistration rates M for each of the eight regions divided for each image height, obtains an average value of the color misregistration rates M for each region, and determines the color misregistration rate for each region.
続いて図26(b)に示されるように、補正手段102は、像高、および求めた色ずれ率に基づいて、像高と色ずれ率との関係を表す高次の多項近似式F(L)を求め、これを補正データとする。図26(b)は、三次の多項式により補正データを算出した例を示している。 Subsequently, as shown in FIG. 26B, the correcting means 102 is based on the image height and the obtained color misregistration rate, and a higher-order polynomial approximate expression F () representing the relationship between the image height and the color misregistration rate. L) is obtained and used as correction data. FIG. 26B shows an example in which correction data is calculated using a cubic polynomial.
なお、エッジの検出および色ずれ量の取得は、画面内の全てのエッジに対して行ってもよい。ただし、像高ごとに分割した8つの領域で、所定の閾値以上の数の色ずれ率が集計された段階で、エッジの検出および色ずれ量の取得を終了することにより、信頼度を保ちつつ処理の効率化を図ることができる。また、像高ごとに分割した8つの領域のうち、該当するエッジが見つかった領域のみを高次の多項近似式の算出に使用することで、該当するエッジが見つからない領域があった場合でも補正データの作成が可能となる。 Note that edge detection and color misregistration amount acquisition may be performed for all edges in the screen. However, in the eight regions divided for each image height, the detection of edges and the acquisition of the color misregistration amount are completed at the stage where the number of color misregistration ratios equal to or greater than a predetermined threshold is aggregated, thereby maintaining reliability. Processing efficiency can be improved. In addition, among the eight regions divided for each image height, only the region where the corresponding edge is found is used for calculation of the higher-order polynomial approximation, so that even if there is a region where the corresponding edge is not found, correction is performed. Data can be created.
続いて、図23のステップS14において、補正手段102は、ステップS13にて作成された補正データを用いて色ずれ(倍率色収差)を補正する。まず補正手段102は、補正対象のプレーン(Rプレーン、Bプレーン)の画素(X,Y)において、以下の式(2)で表されるように、画素(X,Y)の像高Lから色ずれ率Mを求める。ここで、光学中心が(0,0)の座標系であるとする。 Subsequently, in step S14 of FIG. 23, the correcting unit 102 corrects the color shift (magnification chromatic aberration) using the correction data created in step S13. First, the correction unit 102 calculates the pixel height (X, Y) from the image height L of the pixel (X, Y) in the pixel (X, Y) of the correction target plane (R plane, B plane) as represented by the following expression (2). A color misregistration rate M is obtained. Here, it is assumed that the optical center is a coordinate system of (0, 0).
M=F(L) … (2)
続いて補正手段102は、以下の式(3−1)、(3−2)で表されるように、色ずれ補正により生成する画素の座標(X1,Y1)を求める。
M = F (L) (2)
Subsequently, the correcting unit 102 obtains the coordinates (X1, Y1) of the pixel generated by the color misregistration correction as represented by the following equations (3-1) and (3-2).
X1=M×X … (3−1)
Y1=M×Y … (3−2)
補正手段102は、補正対象のプレーンにおいて、座標(X1,Y1)に相当する画素値を、一般的な補間処理により生成し、画素(X,Y)の画素値として設定する。これらの処理を全画素について行うことで、色ずれ補正が行われる。そしてステップS15において、補正手段102は、補正画像を出力する。
X1 = M × X (3-1)
Y1 = M × Y (3-2)
The correction unit 102 generates a pixel value corresponding to the coordinates (X1, Y1) in the correction target plane by a general interpolation process, and sets it as the pixel value of the pixel (X, Y). By performing these processes for all pixels, color misregistration correction is performed. In step S15, the correction unit 102 outputs a corrected image.
(非対称な倍率色収差の検出と補正)
次に、図28を参照して、撮影光学系の製造工程で生じる非対称な倍率色収差(第2の倍率色収差)の補正について説明する。図28は、本実施形態における非対称な倍率色収差(第2の倍率色収差)の説明図である。図28(a)は非対称な倍率色収差が残存した入力画像の模擬図、図28(b)は図28(a)の水平方向(x方向)に沿った断面図である。図28(a)において、x軸は水平方向の位置、y軸は垂直方向の位置、x軸とy軸との交点は画像(入力画像)の中心をそれぞれ示している。図28(a)、(b)中の実線はGプレーン、点線はRプレーン、一点鎖線はBプレーンをそれぞれ表している。
(Detection and correction of asymmetric lateral chromatic aberration)
Next, with reference to FIG. 28, correction of asymmetric lateral chromatic aberration (second lateral chromatic aberration) that occurs in the manufacturing process of the photographing optical system will be described. FIG. 28 is an explanatory diagram of asymmetric lateral chromatic aberration (second lateral chromatic aberration) in the present embodiment. FIG. 28A is a simulated view of an input image in which asymmetric lateral chromatic aberration remains, and FIG. 28B is a cross-sectional view along the horizontal direction (x direction) of FIG. In FIG. 28A, the x-axis indicates the horizontal position, the y-axis indicates the vertical position, and the intersection of the x-axis and the y-axis indicates the center of the image (input image). In FIGS. 28A and 28B, the solid line represents the G plane, the dotted line represents the R plane, and the alternate long and short dash line represents the B plane.
図28(a)、(b)において、光学系は、製造時の形状誤差、または、レンズのチルトやシフトの影響により、完全な回転対称系から崩れた状態であると想定されている。また、図27(a)、(b)の場合と同様に、倍率色収差以外の収差が補正されており、元の像の強度の形状はRGBの間で互いに一致し、倍率色収差の分だけずれているものとする。図28のように非対称な倍率色収差の影響を受けた場合、色のにじみ方が画像の中心に対して対称である図27の場合とは異なり、画像の中心に対して対称な位置に同じ強度および同じ色の物体があっても色のにじみ方は異なる。 In FIGS. 28A and 28B, it is assumed that the optical system is broken from a completely rotationally symmetric system due to a shape error at the time of manufacture or an influence of a tilt or shift of the lens. As in FIGS. 27 (a) and 27 (b), aberrations other than lateral chromatic aberration have been corrected, and the shape of the intensity of the original image is the same between RGB and shifted by the amount of lateral chromatic aberration. It shall be. When affected by asymmetric chromatic aberration of magnification as shown in FIG. 28, the color intensity is symmetric with respect to the center of the image, unlike the case of FIG. And even if there is an object of the same color, the color bleeding is different.
図28(a)、(b)において、y軸に対して左側の物体は、低像高側ではRプレーンやGプレーンもよりBプレーンの画素値が高く、高像高側ではGプレーンやBプレーンよりもRプレーンの画素値が高い。逆に、y軸に対して右側の物体は、低像高側ではGプレーンやBプレーンよりもRプレーンの画素値が高く、高像高側ではRプレーンやGプレーンよりもBプレーンの画素値が高い。このように、非対称な倍率色収差により画像の中心に対して非対称に色にじみが発生する場合、図27を参照して説明した前述の補正処理(第1の補正処理)のみでは、このような非対称な色にじみを補正することはできない。また、このような状態で後述の色にじみ補正を行うと、非対称な倍率色収差による色ずれを色にじみが発生しているとして処理され、正しく補正することができず、本来の色に戻すことができないということが生じ得る。 In FIGS. 28A and 28B, the object on the left side with respect to the y-axis has a higher pixel value of the B plane than the R plane and the G plane on the low image height side, and the G plane and B on the high image height side. The pixel value of the R plane is higher than that of the plane. Conversely, the object on the right side of the y-axis has a higher pixel value of the R plane than the G plane or B plane on the low image height side, and a pixel value of the B plane higher than the R plane or G plane on the high image height side. Is expensive. In this way, when color blur occurs asymmetrically with respect to the center of the image due to asymmetric chromatic aberration of magnification, only the above-described correction processing (first correction processing) described with reference to FIG. It is not possible to correct the color blur. In addition, if color blur correction described later is performed in such a state, a color shift due to asymmetric lateral chromatic aberration is processed as a color blur occurring, and correction cannot be performed correctly, and the original color can be restored. It can happen that you can't.
図28のような場合、RGBの形状がそろうまで補正しようとすると、RGBが重なっている部分は内側の一部であるため、元の像の形状よりもエッジ部が削られてしまう。または、図28の場合においてエッジ部が削れないようにGプレーンに合わせようとすると、y軸に対して左側の物体では低像高側でRプレーン、高像高側でBプレーンの画素値がGプレーンの画素値よりも低くなり、色抜けなどが生じ得る。一方、図28の場合において、右側の物体では低像高側でBプレーン、高像高側ではRプレーンの画素値がGプレーンの画素値よりも低くなる。このため、前述のようにy軸に対して左側と対称な位置に同じ強度、同じ色の物体があったとしても、左側とは色のにじみ方や色抜けする色も異なる。また、非対称な倍率色収差の出方によっては、y軸に対して片側が適切な補正ができていても、反対側が補正不足または補正過剰となることもある。 In the case as shown in FIG. 28, if correction is made until the RGB shapes match, the portion where RGB overlaps is a part of the inner side, and therefore the edge portion is cut away from the shape of the original image. Or, in the case of FIG. 28, when trying to align with the G plane so that the edge portion is not scraped, the pixel value of the R plane on the low image height side and the B plane pixel on the high image height side of the object on the left side with respect to the y axis. It becomes lower than the pixel value of the G plane, and color loss may occur. On the other hand, in the case of FIG. 28, the pixel value of the B plane is lower on the low image height side and the pixel value of the R plane is lower than the pixel value of the G plane on the high image height side. For this reason, even if there is an object of the same intensity and the same color at a position symmetrical to the left side with respect to the y-axis as described above, the color bleeding and color loss are different from the left side. Also, depending on how asymmetric chromatic aberration of magnification occurs, even if one side is properly corrected with respect to the y-axis, the opposite side may be undercorrected or overcorrected.
そこで本実施形態では、設計値上で残存している倍率色収差(第1の倍率色収差)、および、非対称な倍率色収差(第2の倍率色収差)を補正した後に、後述の色にじみ補正処理を行う。これにより、光学系により生じる被写体の色にじみを高精度かつ適切に補正することができる。 Therefore, in the present embodiment, after correcting the lateral chromatic aberration (first lateral chromatic aberration) and the asymmetric lateral chromatic aberration (second lateral chromatic aberration) remaining on the design value, a color blur correction process described later is performed. . Accordingly, it is possible to correct the color blur of the subject generated by the optical system with high accuracy and appropriately.
次に、図25および図26を参照して、入力画像から非対称な倍率色収差を検出して補正する方法について説明する。図25は、非対称な倍率色収差(第2の倍率色収差)の補正処理(第2の補正処理)を示すフローチャートである。図25の各ステップは、図1BのステップS2の一部を構成する。図26は、非対称な倍率色収差の補正処理の説明図である。 Next, a method for detecting and correcting asymmetric chromatic aberration of magnification from an input image will be described with reference to FIGS. FIG. 25 is a flowchart showing a correction process (second correction process) for asymmetric lateral chromatic aberration (second lateral chromatic aberration). Each step in FIG. 25 constitutes part of step S2 in FIG. 1B. FIG. 26 is an explanatory diagram of an asymmetric magnification chromatic aberration correction process.
まず図25のステップS21において、画像処理装置100(補正手段102)は、入力画像から、倍率色収差による色ずれが顕著に現れるエッジ(エッジ領域)を検出する。エッジの検出には、Y(輝度)プレーンが用いられる。 First, in step S21 of FIG. 25, the image processing apparatus 100 (correction unit 102) detects an edge (edge region) in which a color shift due to lateral chromatic aberration appears significantly from the input image. A Y (luminance) plane is used for edge detection.
続いてステップS22において、補正手段102は、ステップS21にて検出された各エッジ(エッジ領域)に関して色ずれ量を取得し、補正量(撮影画像の複数の分割領域のそれぞれに対する補正量)を算出する。ここで、色ずれの方向として、光学中心と各エッジとの位置関係により、上/下方向、左/右方向、右斜め上/左斜め下方向、左斜め上/右斜め下方向のいずれかを適用して処理を簡略化する。各エッジにおける色ずれ量の取得については前述のとおりであるため、その説明は省略する。そしてステップS23において、補正手段102は、ステップS22にて算出した補正量を用いて、非対称な倍率色収差(倍率色収差の非対称性)を補正する。以下、ステップS22、S23の補正データの作成手順および補正の流れについて具体的に説明する。 Subsequently, in step S22, the correction unit 102 acquires a color misregistration amount for each edge (edge region) detected in step S21, and calculates a correction amount (a correction amount for each of a plurality of divided regions of the captured image). To do. Here, depending on the positional relationship between the optical center and each edge, the color misregistration direction is any one of up / down direction, left / right direction, upper right / lower left direction, upper left / lower right direction. To simplify the process. Since the acquisition of the color misregistration amount at each edge is as described above, the description thereof is omitted. In step S23, the correction unit 102 corrects the asymmetric lateral chromatic aberration (asymmetrical lateral chromatic aberration) using the correction amount calculated in step S22. The correction data creation procedure and correction flow in steps S22 and S23 will be specifically described below.
まずステップS22において、補正手段102は、図26に示されるように画像を円周方向に4つの領域(A〜D)に分割し、前述のエッジが属する領域を判定する。そして補正手段102は、画像内で検出された複数のエッジに関して分割された領域ごとに色ずれ量Dを集計し、領域ごとに色ずれ量Dの平均値を求め、各領域の色ずれ量を決定する。続いて補正手段102は、算出した領域ごとの色ずれ量Dを比較し、補正対象のプレーン(Rプレーン、Bプレーン)の補正量を決定する。 First, in step S22, the correction unit 102 divides the image into four regions (A to D) in the circumferential direction as shown in FIG. 26, and determines the region to which the aforementioned edge belongs. Then, the correcting unit 102 aggregates the color misregistration amount D for each of the regions divided with respect to the plurality of edges detected in the image, obtains an average value of the color misregistration amounts D for each region, and calculates the color misregistration amount of each region. decide. Subsequently, the correction unit 102 compares the calculated color misregistration amount D for each region, and determines the correction amount of the correction target plane (R plane, B plane).
領域A、領域B、領域C、領域Dの補正量(第1の補正量)をそれぞれDa、Db、Dc、Ddとすると、水平方向の補正量DH、垂直方向の補正量DV(第2の補正量)は、以下の式(4−1)、(4−2)のようにそれぞれ表される。 Assuming that the correction amounts (first correction amounts) of the areas A, B, C, and D are Da, Db, Dc, and Dd, respectively, the horizontal correction amount DH and the vertical correction amount DV (second correction amount) (Correction amount) is expressed by the following equations (4-1) and (4-2), respectively.
DH=(Dc−Da)/2 … (4−1)
DV=(Db−Dd)/2 … (4−2)
本実施形態において、水平方向の補正量DHは、領域Aと領域Cの色ずれ量から算出され、垂直方向の補正量DVは、領域Bと領域Dの色ずれ量から算出される。また本実施形態において、画像を円周方向に分割しているが、像高方向にも分割することで像高ごとに補正量を変化させて補正対象のプレーンを非線形にシフトすることが可能となる。
DH = (Dc−Da) / 2 (4-1)
DV = (Db−Dd) / 2 (4-2)
In the present embodiment, the horizontal correction amount DH is calculated from the color misregistration amounts of the regions A and C, and the vertical correction amount DV is calculated from the color misregistration amounts of the regions B and D. In this embodiment, the image is divided in the circumferential direction, but by dividing the image in the image height direction, it is possible to change the correction amount for each image height and shift the correction target plane nonlinearly. Become.
撮影光学系201が完全に回転対称な状態である場合、倍率色収差も画面の中心に対して回転対称に発生するため、DH=0、DV=0となる。一方、製造誤差などの影響により撮影光学系201の対称性が崩れると、倍率色収差も回転非対称となり、Dc>Da(DH>0)の場合、補正対象のプレーンを領域C側へシフトすることで補正を行う。一方、Dc<Da(DH<0)の場合、領域A側へシフトすることで補正を行う。同様に垂直方向に関しても、Db>Dd(DV>0)の場合、補正対象のプレーンを領域B側へシフトすることで補正を行い、Dc<Dd(DH<0)の場合、領域A側へシフトすることで補正を行う。 When the photographing optical system 201 is completely rotationally symmetric, lateral chromatic aberration also occurs rotationally symmetrically with respect to the center of the screen, so that DH = 0 and DV = 0. On the other hand, when the symmetry of the photographing optical system 201 is lost due to the influence of a manufacturing error or the like, the lateral chromatic aberration is also rotationally asymmetric, and when Dc> Da (DH> 0), the correction target plane is shifted to the region C side. Make corrections. On the other hand, when Dc <Da (DH <0), correction is performed by shifting to the region A side. Similarly, in the vertical direction, when Db> Dd (DV> 0), correction is performed by shifting the plane to be corrected to the region B side. When Dc <Dd (DH <0), the region A side is corrected. Correction is performed by shifting.
続いてステップS23において、補正手段102は、水平方向の補正量DH、および、垂直方向の補正量DVを、製造誤差などにより発生する非対称な倍率色収差の補正データとして用い、色ずれを補正する。ここで、補正対象のプレーン(Rプレーン、Bプレーン)の画素を画素(X,Y) とする。このとき、水平方向の補正量DH、および、垂直方向の補正量DVを用いて、色ずれ補正により生成される画素の座標(X2,Y2)は、以下の式(5−1)、(5−2)のように表すことができる。 Subsequently, in step S23, the correction unit 102 uses the horizontal correction amount DH and the vertical correction amount DV as correction data for asymmetric chromatic aberration of magnification caused by a manufacturing error or the like to correct the color shift. Here, the pixel of the plane to be corrected (R plane, B plane) is defined as pixel (X, Y). At this time, using the horizontal correction amount DH and the vertical correction amount DV, the coordinates (X2, Y2) of the pixel generated by the color misregistration correction are expressed by the following equations (5-1) and (5). -2).
X2=X+DH … (5−1)
Y2=Y+DV … (5−2)
なお、式(5−1)、(5−2)は、光学中心が(0,0)の座標系である。
X2 = X + DH (5-1)
Y2 = Y + DV (5-2)
Expressions (5-1) and (5-2) are coordinate systems whose optical center is (0, 0).
補正手段102は、補正対象のプレーンにおいて座標(X2,Y2)に相当する画素値を、一般的な補間処理により生成し、画素(X,Y)の画素値とする。これらの処理を全画素について行うことで、色ずれ補正が行われる。本実施形態において、図26に示されるように画像を4分割にして補正量を算出しているが、画像を8分割にして領域ごとの色ずれ量を取得し、その色ずれ量から補正量を算出して補正処理を行ってもよい。このようにステップS23では、ステップS22の補正量に基づいて算出された、撮影画像の中心(光軸中心、補正中心)に対する放射方向とは異なる方向の補正量(第2の補正量)を用いて、第2の倍率色収差を補正する。より好ましくは、放射方向とは異なる方向の補正量として、撮影画像の水平方向の補正量および垂直方向の補正量を用いて第2の倍率色収差を補正する。また本実施形態において、第1の補正量および第2の補正量は、撮影画像の中心に対して対称な第1の位置と第2の位置との間で互いに異なる。 The correcting unit 102 generates a pixel value corresponding to the coordinates (X2, Y2) in the correction target plane by a general interpolation process, and sets the pixel value of the pixel (X, Y). By performing these processes for all pixels, color misregistration correction is performed. In this embodiment, the correction amount is calculated by dividing the image into four as shown in FIG. 26. However, the amount of color misregistration for each region is obtained by dividing the image into eight, and the correction amount is calculated from the amount of color misregistration. May be calculated and correction processing may be performed. As described above, in step S23, a correction amount (second correction amount) in a direction different from the radial direction with respect to the center of the captured image (optical axis center, correction center) calculated based on the correction amount in step S22 is used. Thus, the second lateral chromatic aberration is corrected. More preferably, the second lateral chromatic aberration is corrected using the correction amount in the horizontal direction and the correction amount in the vertical direction of the captured image as the correction amount in a direction different from the radial direction. In the present embodiment, the first correction amount and the second correction amount are different from each other between the first position and the second position that are symmetrical with respect to the center of the captured image.
画像から倍率色収差(第1の倍率色収差)および非対称な倍率色収差(第2の倍率色収差)を検出して補正する方法は、前述のとおりであるが、光学系の倍率色収差に関する設計値の情報を併用して補正処理を行ってもよい。設計値の情報を利用することで誤検出の低減または設計値を基準にした設計値からのずれ量として倍率色収差を取り扱うことができる。 The method for detecting and correcting lateral chromatic aberration (first lateral chromatic aberration) and asymmetric lateral chromatic aberration (second lateral chromatic aberration) from the image is as described above. Correction processing may be performed in combination. By utilizing the information of the design value, it is possible to handle the lateral chromatic aberration as a reduction in erroneous detection or as an amount of deviation from the design value based on the design value.
続いてステップS3において、画像処理装置100(検出手段103)は、カラー画像を構成する複数の色プレーンのうちいずれかの色プレーンの画素値(信号レベル)が単調増加または単調減少している領域を検出する。そして検出手段103は、検出した領域を色にじみ発生領域と仮判定する(単調増減検出工程)。単調増減検出工程において色にじみ発生領域を判定する方法としては、いくつかの方法が考えられる。本実施形態では、一定の画素区間(所定の区間)の色にじみの画素値の変化特性に基づいて判定を行う。 Subsequently, in step S <b> 3, the image processing apparatus 100 (detection unit 103) is a region where the pixel value (signal level) of any one of the color planes constituting the color image is monotonously increasing or monotonically decreasing. Is detected. Then, the detection means 103 tentatively determines the detected area as a color blur generation area (monotonic increase / decrease detection step). Several methods are conceivable as a method of determining the color blur generation region in the monotonous increase / decrease detection step. In the present embodiment, the determination is made based on the change characteristic of the pixel value that blurs in a certain pixel section (predetermined section).
色にじみは、結像位置が波長により光軸に沿う方向にずれることで発生するため、例えば青色のにじみの場合、青色プレーン(Bプレーン)の焦点が合わない(ピンボケしている)ことになる。ピンボケによる色にじみは、一定の画素区間に渡って存在し、その際の色にじみの画素値変化は、画像のハイライト部からシャドウ部にかけて緩やかに減少する特性を有する。従って、一定の画素区間の色にじみの画素値変化が単調増加または単調減少の特性を有する場合、色にじみが発生している可能性があるため、色にじみ発生領域として仮判定する。 Since color blur occurs when the imaging position shifts in the direction along the optical axis depending on the wavelength, for example, in the case of blue blur, the blue plane (B plane) is out of focus (out of focus). . The color blur due to the defocusing exists over a certain pixel section, and the pixel value change of the color blur at that time has a characteristic of gradually decreasing from the highlight portion to the shadow portion of the image. Therefore, when the pixel value change of color blur in a certain pixel section has a monotonous increase or monotonic decrease characteristic, there is a possibility that color blur has occurred, so that it is temporarily determined as a color blur generation region.
このように本実施形態において、撮像素子は、複数のカラーフィルタを備えている。そして検出手段103は、撮像素子から得られた画像の少なくとも一つのカラーフィルタに対応する色プレーンの信号レベル(画素値)が、所定の区間においていずれかの方向(第1の方向)に単調増加または単調減少している領域(第1の領域)を検出する。ただし本実施形態はこれに限定されるものではなく、色プレーンの信号レベルに代えて、例えば、撮像素子から得られた画像から生成される輝度プレーン(Yプレーン)の信号レベルが単調増加または単調減少している領域を検出するように構成してもよい。すなわち検出手段103は、倍率色収差を補正した撮影画像(収差補正画像)の色信号または輝度信号のレベル(色プレーンまたは輝度プレーンの信号レベル)が所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出する。 As described above, in the present embodiment, the image sensor includes a plurality of color filters. The detecting unit 103 monotonously increases the signal level (pixel value) of the color plane corresponding to at least one color filter of the image obtained from the image sensor in any direction (first direction) in a predetermined section. Alternatively, a monotonically decreasing area (first area) is detected. However, the present embodiment is not limited to this, and instead of the signal level of the color plane, for example, the signal level of the luminance plane (Y plane) generated from the image obtained from the image sensor increases monotonously or monotonically. You may comprise so that the area | region which is reducing may be detected. That is, the detection unit 103 monotonously increases or monotonously increases the level of the color signal or the luminance signal (the signal level of the color plane or the luminance plane) of the captured image (aberration corrected image) corrected for the chromatic aberration of magnification in the first direction in a predetermined section. A decreasing first region is detected.
ところで、実際には、撮影光学系がコマ収差などの非対称な収差を有する場合、撮影光学系により発生する色にじみは、被写体に対して発生する方向と発生しない方向が存在する。このため、単調増減のみから色にじみ発生領域を判定すると、被写体が色にじみと同系色である場合、被写体の色を色にじみと誤判定する可能性がある。従って、単調増減検出のみでは色にじみ発生領域を正しく判定することができない。 Actually, when the photographing optical system has asymmetrical aberrations such as coma aberration, there is a direction in which the color blur generated by the photographing optical system is generated with respect to the subject and a direction in which it does not occur. For this reason, if the color blur generation area is determined only from monotonous increase / decrease, if the subject has a color similar to the color blur, the subject color may be erroneously determined to be color blur. Accordingly, it is not possible to correctly determine the color blur generation area only by monotonic increase / decrease detection.
本実施形態において、単調増加または単調減少を検出する領域は、カラー画像の注目画素を中心とした水平方向、垂直方向、または、斜め方向の画素区間、注目画素を端の点とした水平方向、垂直方向、または、斜め方向の画素区間、のいずれかを含む。 In the present embodiment, the region for detecting monotonic increase or monotonic decrease is a horizontal, vertical or diagonal pixel section centered on the target pixel of the color image, a horizontal direction with the target pixel as an end point, It includes either a vertical or diagonal pixel section.
単調増減の検出は、まず、色プレーンの画素値傾斜を計算することにより行われる。入力画像が、例えば、Gプレーン、Bプレーン、Rプレーンの3色の色プレーンで構成されている場合、Bプレーンを色にじみ除去対象とし、基準プレーンとしてGプレーンを用いる。Bプレーン、Gプレーンに対するそれぞれの輝度傾斜Blea、Gleaは、以下の式(6)で表されるように算出される。 Detection of monotonic increase / decrease is performed by first calculating the pixel value gradient of the color plane. When the input image is composed of, for example, three color planes of the G plane, the B plane, and the R plane, the B plane is set as a color blur removal target, and the G plane is used as a reference plane. The respective luminance gradients Blea and Glea with respect to the B plane and the G plane are calculated as expressed by the following equation (6).
式(6)において、G(x+1,y)、B(x+1,y)は、それぞれ、Gプレーン、Bプレーンにおける注目画素の右隣の画素値である。G(x−1,y)、B(x−1,y)は、それぞれ、Gプレーン、Bプレーンにおける注目画素の左隣の画素値である。G(x,y+1)、B(x,y+1)は、それぞれ、Gプレーン、Bプレーンにおける注目画素の下隣の画素値である。G(x,y−1)、B(x,y−1)は、それぞれ、Gプレーン、Bプレーンにおける注目画素の上隣の画素値である。本実施形態は、3色の色プレーンで説明するが、画像を構成する色プレーン数により任意の色プレーンで処理を行うことが可能である。 In Expression (6), G (x + 1, y) and B (x + 1, y) are pixel values on the right side of the target pixel in the G plane and B plane, respectively. G (x−1, y) and B (x−1, y) are pixel values on the left side of the target pixel in the G plane and the B plane, respectively. G (x, y + 1) and B (x, y + 1) are pixel values below the pixel of interest in the G plane and B plane, respectively. G (x, y-1) and B (x, y-1) are pixel values above and below the pixel of interest in the G plane and B plane, respectively. Although this embodiment will be described with three color planes, processing can be performed with any color plane depending on the number of color planes constituting the image.
次に、図2乃至図4を参照して、単調増減検出工程の色にじみ発生領域の判定方法について説明する。図2は、本実施形態における単調増減判定処理(単調増減検出工程:ステップS3)を示すフローチャートである。図2の各ステップは、主に、画像処理装置100(検出手段103)により実行される。まずステップS1520において、画像処理装置100は、ISO感度が高いか否か(ISO感度が所定の感度よりも高いか否か)を判定する。ISO感度が高い場合、ステップS1521に移行する。一方、ISO感度が高くない場合、ステップS1522に移行する。 Next, with reference to FIGS. 2 to 4, a method for determining a color blur occurrence area in the monotonous increase / decrease detection process will be described. FIG. 2 is a flowchart showing a monotonous increase / decrease determination process (monotonic increase / decrease detection step: step S3) in the present embodiment. Each step in FIG. 2 is mainly executed by the image processing apparatus 100 (detection unit 103). First, in step S1520, the image processing apparatus 100 determines whether the ISO sensitivity is high (whether the ISO sensitivity is higher than a predetermined sensitivity). If the ISO sensitivity is high, the process proceeds to step S1521. On the other hand, if the ISO sensitivity is not high, the process proceeds to step S1522.
ステップS1522において、画像処理装置100は、入力画像の注目画素を中心とした時の縦・横・斜めの画素区間(所定の区間)に対して、入力信号の画素値変化を解析する。そしてステップS1523において、画像処理装置100は、上記画素区間の入力信号の画素値変化が単調増減の特性を有するか否かを判定(検出)する。その判定の結果、上記の画素区間の入力信号の画素値変化が単調増減の特性を有さない場合、ステップS1524において、画像処理装置100は、注目画素を端の点とした時の縦・横・斜めの画素区間に対して入力信号の画素値変化を解析する。そしてステップS1525において、画像処理装置100は、上記の画素区間の入力信号の画素値変化が単調増減の特性を有するか否かを判定する。 In step S1522, the image processing apparatus 100 analyzes a change in the pixel value of the input signal with respect to vertical, horizontal, and diagonal pixel sections (predetermined sections) when the pixel of interest of the input image is the center. In step S1523, the image processing apparatus 100 determines (detects) whether or not the change in the pixel value of the input signal in the pixel section has a monotonous increase / decrease characteristic. As a result of the determination, if the change in the pixel value of the input signal in the pixel section does not have a monotonous increase / decrease characteristic, in step S1524, the image processing apparatus 100 displays the vertical / horizontal when the target pixel is the end point.・ A pixel value change of an input signal is analyzed for an oblique pixel section. In step S1525, the image processing apparatus 100 determines whether the change in the pixel value of the input signal in the pixel section has a monotonous increase / decrease characteristic.
図3は、単調増減判定対象の画素区間が単調増減特性を有する場合の一例を示す図であり、縦軸は画素値、横軸は距離をそれぞれ示している。図4は、単調増減判定対象の画素区間が単調増減特性を有しない場合の一例を示す図であり、縦軸は画素値、横軸は距離をそれぞれ示している。図3および図4に示されるような画素値変化を有する入力信号に対して、画像処理装置100は単調増減判定を行う。図3および図4のそれぞれ示される白い四角は注目画素である。 FIG. 3 is a diagram illustrating an example of a case where a pixel section subject to monotonous increase / decrease determination has a monotonous increase / decrease characteristic, where the vertical axis indicates the pixel value and the horizontal axis indicates the distance. FIG. 4 is a diagram illustrating an example of a case where a pixel section for which monotonous increase / decrease is determined does not have a monotonous increase / decrease characteristic, where the vertical axis indicates the pixel value and the horizontal axis indicates the distance. The image processing apparatus 100 performs monotonous increase / decrease determination on an input signal having a change in pixel value as shown in FIGS. The white squares shown in FIGS. 3 and 4 are the target pixels.
図3に示されるように、入力信号の画素値変化が単調増減の特性を有する画像は、単調増減判定を行う画素区間内において単調増減の特性を有する。このためステップS1522またはS1524の解析の結果、ステップS1523またはS1525において、画像処理装置100は、画素区間内において単調増減の特性を有すると判定する。一方、図4に示されるような入力信号の画素値変化の特性を有する画像に対しては、単調増減の特性を有さないと判定する。 As shown in FIG. 3, an image in which a change in the pixel value of the input signal has a monotonous increase / decrease characteristic has a monotonous increase / decrease characteristic in a pixel section where the monotonous increase / decrease determination is performed. Therefore, as a result of the analysis in step S1522 or S1524, in step S1523 or S1525, the image processing apparatus 100 determines that the pixel section has a monotonous increase / decrease characteristic. On the other hand, it is determined that the image having the change characteristic of the pixel value of the input signal as shown in FIG. 4 does not have the monotonous increase / decrease characteristic.
上記の画素区間の入力信号の画素値変化が単調増減の特性(単調増加の特性または単調減少の特性)を有している場合、ステップS1527において、画像処理装置100は単調増減フラグを立てる。一方、上記の画素区間の入力信号の画素値変化が単調増減の特性(単調増加の特性または単調減少の特性)を有していない場合、ステップS1526において、画像処理装置100は単調増減フラグを立てない。 If the change in the pixel value of the input signal in the pixel section has a monotonous increase / decrease characteristic (monotonic increase characteristic or monotonic decrease characteristic), the image processing apparatus 100 sets a monotonous increase / decrease flag in step S1527. On the other hand, if the change in the pixel value of the input signal in the pixel section does not have a monotonous increase / decrease characteristic (monotonic increase characteristic or monotonic decrease characteristic), the image processing apparatus 100 sets a monotonous increase / decrease flag in step S1526. Absent.
上述した単調増減判定を、Bプレーンの各画素に対して適用する。その結果、各画素において単調増減フラグが立っていれば「1」、単調増減フラグが立っていなければ「0」をそれぞれ対応させ、単調増減判定結果プレーンとして生成して保持し、後述の色にじみ判定(図1のステップS4)で利用する。単調増減判定結果プレーンの利用方法の詳細については後述する。 The monotonous increase / decrease determination described above is applied to each pixel of the B plane. As a result, each pixel is associated with “1” if the monotonous increase / decrease flag is set, and “0” if the monotone increase / decrease flag is not set, and is generated and held as a monotone increase / decrease determination result plane. This is used for determination (step S4 in FIG. 1). Details of the method of using the monotonous increase / decrease determination result plane will be described later.
次に、図5および図6を参照して、注目画素に対する単調増減判定を行う画素区間の設定方法について説明する。図5(a)〜(d)は、注目画素を中心とした単調増減判定用の画素区間を示す図である。図6(a)〜(h)は、注目画素を端の点とした単調増減判定用の画素区間を示す図である。注目画素を中心とした画素区間の設定方法および注目画素を端の点とした画素区間の設定方法のうち、注目画素を中心とした画素区間の設定方法としては、図5(a)、(b)のように注目画素を中心として水平方向および垂直方向に設定する方法が考えられる。 Next, with reference to FIG. 5 and FIG. 6, a method for setting a pixel section for performing monotonous increase / decrease determination on the target pixel will be described. FIGS. 5A to 5D are diagrams illustrating a monotonic increase / decrease pixel section centered on a target pixel. FIGS. 6A to 6H are diagrams showing a monotone increase / decrease pixel section with the target pixel as an end point. Of the method of setting the pixel section centered on the target pixel and the method of setting the pixel section centered on the target pixel, the method of setting the pixel section centered on the target pixel is shown in FIGS. A method of setting the horizontal direction and the vertical direction around the target pixel as in FIG.
また、注目画素を中心とした画素区間の設定方法としては、図5(c)、(d)に示されるように注目画素を中心として斜め方向に設定する方法が考えられる。すなわち、斜め方向についても水平方向または垂直方向と同程度の距離の画素区間を設定すれば、等方性を持たせることができる。この場合、斜め方向の角度は、図5(c)、(d)に示されるように水平方向または垂直方向に対して45度の設定に限定される。ただし本実施形態はこれに限定されるものではなく、45度以外の任意の角度を設定することができる。その際の画素区間の距離dは、以下の式(7)を用いて算出される。 Further, as a method for setting a pixel section centered on the target pixel, a method of setting the target pixel in an oblique direction as shown in FIGS. 5C and 5D can be considered. In other words, the isotropic property can be imparted to the diagonal direction by setting a pixel section having a distance similar to that in the horizontal direction or the vertical direction. In this case, the angle in the oblique direction is limited to a setting of 45 degrees with respect to the horizontal direction or the vertical direction as shown in FIGS. However, the present embodiment is not limited to this, and an arbitrary angle other than 45 degrees can be set. The distance d of the pixel section at that time is calculated using the following equation (7).
式(7)において、xは水平方向、θは水平からの角度をそれぞれ示す。 In Expression (7), x represents a horizontal direction, and θ represents an angle from the horizontal.
一方、画像におけるハイライト部周辺の色にじみやシャドウ部周辺の色にじみは、それぞれ、飽和やノイズの影響を受けることにより、色にじみが存在するにも関わらず、判定対象の画素区間内では単調増減の特性を持たず正しく判定できない場合がある。その場合、図6に示されるように、注目画素を端の点として画素区間を設定する方法が効果的である。以上のような方法で単調増減判定を行い、図5および図6に示される画素区間のいずれか1つでも単調増減の特性を有する画素区間が存在する場合、注目画素は単調増減の特性を有する画素であると判定される。 On the other hand, the color blur around the highlight area and the color blur around the shadow area in the image are affected by saturation and noise, respectively. There is a case where it cannot be judged correctly because it does not have an increase / decrease characteristic. In that case, as shown in FIG. 6, a method of setting a pixel section with the target pixel as an end point is effective. When the monotonous increase / decrease determination is performed by the method as described above and there is a pixel section having the monotonous increase / decrease characteristic in any one of the pixel sections shown in FIG. 5 and FIG. It is determined to be a pixel.
本実施形態では、単調増減判定を行う対象として入力信号の画素値を利用しているが、輝度傾斜を利用しても構わない。その場合、一定の画素区間において輝度傾斜の変化が1回だけ反転する特性を有する場合が色にじみであると判定することが好ましい。画素区間の画素数の適正値は、撮像装置のある撮影条件にて発生する色にじみのうち、最小の色にじみのにじみ幅に合わせるのが効果的である。 In the present embodiment, the pixel value of the input signal is used as a target for monotonic increase / decrease determination, but luminance gradient may be used. In that case, it is preferable to determine that the color blur is in a case where the change in the luminance gradient is reversed only once in a certain pixel section. It is effective to set the appropriate value of the number of pixels in the pixel section to the minimum color blur width among the color blurs generated under certain shooting conditions of the imaging apparatus.
色にじみのにじみ幅は、撮像装置の撮影条件(絞り値、焦点距離、フォーカシング精度、画像面内におけるフォーカス位置、撮像素子上の座標等)により様々である。そのため、画素区間の画素数の適正値を、各種の撮影条件により発生する様々な色にじみの最小幅の色にじみに合わせることで、最小幅の色にじみを検出することが可能となる。最大幅の色にじみに関しては、最小幅の色にじみ用に合わせた画素区間を利用しても検出は可能である。 The color blur width varies depending on the shooting conditions (aperture value, focal length, focusing accuracy, focus position in the image plane, coordinates on the image sensor, etc.) of the imaging apparatus. Therefore, it is possible to detect the color blur of the minimum width by matching the appropriate value of the number of pixels in the pixel section with the color blur of the minimum width of various color blurs generated according to various photographing conditions. The maximum width color blur can be detected even by using a pixel section adapted for the minimum width color blur.
以上のように単調増減判定を行うことにより、検出したい色にじみを抽出することが可能となる。ただし、高いISO感度などの撮影条件によっては、入力信号にノイズが含まれることによりS/N比が低下し、その結果、色にじみが単調増減の特性を有しなくなることが考えられる。その場合、図2のステップS1521において、入力信号に対してデジタルフィルタによるフィルタリング処理を行うことが有効である。本実施形態では、デジタルフィルタをローパスフィルタとした場合について説明するが、これに限定されるものではない。 By performing monotonous increase / decrease determination as described above, it is possible to extract a color blur to be detected. However, depending on the shooting conditions such as high ISO sensitivity, the S / N ratio may decrease due to noise included in the input signal, and as a result, the color blur may not have a monotonous increase / decrease characteristic. In that case, it is effective to perform a filtering process with a digital filter on the input signal in step S1521 in FIG. In the present embodiment, a case where the digital filter is a low-pass filter will be described, but the present invention is not limited to this.
入力信号にローパスフィルタを適用する方法としては、幾つかの方法が考えられる。例えば、注目画素の重み係数を隣接する画素の2倍の係数とする[1 2 1]のローパスフィルタを適用する場合について説明する。図7は、画像内の3×3画素の領域を示す図である。図7に示されるように画像内の3×3画素のある領域においてpを注目画素としたとき、まず、[1 2 1]のローパスフィルタを水平方向に適用する。このとき、注目画素は以下の式(8)のように表される。 There are several methods for applying a low-pass filter to the input signal. For example, a case will be described in which a [1 2 1] low-pass filter in which the weighting coefficient of the pixel of interest is twice as large as that of adjacent pixels is applied. FIG. 7 is a diagram showing an area of 3 × 3 pixels in an image. As shown in FIG. 7, when p is a target pixel in a certain region of 3 × 3 pixels in an image, first, a low-pass filter of [1 2 1] is applied in the horizontal direction. At this time, the target pixel is expressed as the following Expression (8).
P=(d・1+p・2+e・1)/4 … (8)
隣接する画素も同様に計算すると、図8に示されるようになる。図8は、画像内の3×3画素の領域の各画素に対してローパスフィルタを適用した結果を示す図である。続いて、[1 2 1]のローパスフィルタを垂直方向に適用すると、注目画素は以下の式(9)のように表される。
P = (d · 1 + p · 2 + e · 1) / 4 (8)
When the adjacent pixels are calculated in the same manner, they are as shown in FIG. FIG. 8 is a diagram illustrating a result of applying a low-pass filter to each pixel in a 3 × 3 pixel region in an image. Subsequently, when the low-pass filter of [1 2 1] is applied in the vertical direction, the target pixel is expressed as the following Expression (9).
PP=(B・1+P・2+G・1)/4 … (9)
図9を参照して、ローパスフィルタを適用したときの入力信号の変化の一例について説明する。図9は、各画素に対してローパスフィルタを適用した場合の入力信号の変化の例を示す図である。図9において、横軸は距離(画像上の断面、すなわち注目画素からの画素区間)、縦軸はプレーンの画素値をそれぞれ示している。
PP = (B · 1 + P · 2 + G · 1) / 4 (9)
With reference to FIG. 9, an example of a change in the input signal when the low-pass filter is applied will be described. FIG. 9 is a diagram illustrating an example of a change in an input signal when a low pass filter is applied to each pixel. In FIG. 9, the horizontal axis indicates the distance (cross section on the image, that is, the pixel section from the target pixel), and the vertical axis indicates the pixel value of the plane.
図9中の実線はローパスフィルタを適用しない場合、細かい破線は[1 2 1]のローパスフィルタを適用した場合、粗い破線は[1 4 6 4 1]のローパスフィルタを適用した場合をそれぞれ示している。ここで、[1 4 6 4 1]は、注目画素と隣接する画素と更にもう1画素分離れた画素にも重み係数をかけてローパスフィルタを適用することを意味する。このようにローパスフィルタを適用して入力信号を滑らかにすることで、色にじみが本来持つ単調増減の特性を際立たせることが可能となる。なお本実施形態では、ローパスフィルタを水平方向、垂直方向の順番で適用しているが、これに限定されるものではない。ローパスフィルタを逆の順番、すなわち垂直方向、水平方向の順番で適用しても構わない。また、2次元のローパスフィルタ係数を算出してローパスフィルタを水平方向および垂直方向に同時に適用することもできる。 The solid line in FIG. 9 indicates the case where the low-pass filter is not applied, the fine broken line indicates the case where the low-pass filter [1 2 1] is applied, and the coarse broken line indicates the case where the low-pass filter [1 4 6 4 1] is applied. Yes. Here, [1 4 6 4 1] means that a low-pass filter is applied by applying a weighting factor to a pixel adjacent to the target pixel and a pixel separated by another pixel. By smoothing the input signal by applying the low-pass filter in this way, it is possible to highlight the monotonous increase / decrease characteristics inherent in color fringing. In this embodiment, the low-pass filter is applied in the order of the horizontal direction and the vertical direction, but the present invention is not limited to this. The low-pass filter may be applied in the reverse order, that is, in the order of the vertical direction and the horizontal direction. It is also possible to calculate a two-dimensional low-pass filter coefficient and apply the low-pass filter simultaneously in the horizontal direction and the vertical direction.
図1Bに戻り、ステップS4において、画像処理装置100(判定手段104)は、ステップS3にて検出手段103により色にじみ発生領域と仮判定された領域(第1の領域)が、色にじみ発生領域(第2の領域)であるか否かを判定する(色にじみ判定工程)。すなわち判定手段104は、撮影光学系の色にじみに関する光学情報および第1の領域に関する情報に基づいて、色にじみが発生している領域(第2の領域)を判定する。光学情報は、例えば、撮影光学系の色にじみが発生する第2の方向に関する情報(色にじみ発生方向の光学情報)である。本実施形態において、色にじみ発生領域は、入力画像を撮影した撮影光学系の色にじみ発生方向の光学情報を用いて判定される。 Returning to FIG. 1B, in step S4, the image processing apparatus 100 (determination unit 104) determines that the region (first region) temporarily determined as the color blur generation region by the detection unit 103 in step S3 is the color blur generation region. It is determined whether or not (second region) (color blur determination step). That is, the determination unit 104 determines an area (second area) where color blur is generated based on optical information related to color blur of the photographing optical system and information related to the first area. The optical information is, for example, information related to the second direction in which color blur occurs in the photographing optical system (optical information in the color blur generation direction). In the present embodiment, the color blur generation area is determined using optical information of the color blur generation direction of the photographing optical system that captured the input image.
このように判定手段104は、第1の方向(信号レベルが単調増加または単調減少する方向)と第2の方向(撮影光学系の色にじみが発生する方向)とを比較することにより第2の領域を判定する。判定手段104は、例えば第1の方向と第2の方向とが互いに一致する場合、第1の領域(ステップS3にて検出された領域)が第2の領域(色にじみが発生している領域)であると判定する。 As described above, the determination unit 104 compares the first direction (the direction in which the signal level monotonously increases or decreases monotonously) with the second direction (the direction in which the color blur of the photographing optical system occurs). Determine the area. For example, when the first direction and the second direction match each other, the determination unit 104 determines that the first region (the region detected in step S3) is the second region (the region where the color blur is generated). ).
ここで、図10および図11を参照して、単調増減検出工程のみから、色にじみ領域を判定した場合の弊害について説明する。デジタルカメラなどの撮像装置により被写体を撮像して得られた画像には、撮影光学系の球面収差、コマ収差、像面湾曲、非点収差などに起因する画像劣化成分としてのぼけ成分が含まれる。このようなぼけ成分は、無収差で回折の影響もない場合に被写体の一点から出た光束が撮像面上で再度一点に集まるべきものが、ある広がりをもって像を結ぶことで発生する。 Here, with reference to FIG. 10 and FIG. 11, an adverse effect when the color blur area is determined only from the monotonous increase / decrease detection process will be described. An image obtained by imaging a subject with an imaging device such as a digital camera includes a blur component as an image degradation component caused by spherical aberration, coma aberration, field curvature, astigmatism, etc. of the photographing optical system. . Such a blur component is generated when a light beam emitted from one point of a subject to be collected again at one point on the imaging surface when an aberration is not caused and there is no influence of diffraction is formed by forming an image with a certain spread.
ぼけ成分は、光学的には、点像分布関数(Point Spread Function:PSF)により表され、ピントのずれによるぼけとは異なる。また、カラー画像での色にじみも、光学系の軸上色収差、色の球面収差、色のコマ収差が原因であるものに関しては、光の波長ごとのぼけ方の相違と言うことができる。さらに、横方向の色ずれも、光学系の倍率色収差が原因であるものに関しては、光の波長ごとの撮像倍率の相違による位置ずれ又は位相ずれと言うことができる。 The blur component is optically represented by a point spread function (PSF), and is different from blur due to a focus shift. In addition, color bleeding in a color image can also be said to be a difference in blurring for each wavelength of light with respect to axial chromatic aberration, chromatic spherical aberration, and chromatic coma aberration of the optical system. Further, the lateral color misregistration can be said to be a positional misalignment or a phase misalignment due to a difference in imaging magnification for each wavelength of light when the lateral chromatic aberration is caused by the optical system.
点像分布関数(PSF)をフーリエ変換して得られる光学伝達関数(Optical TransferFunction:OTF)は、収差の周波数成分情報であり、複素数で表される。光学伝達関数(OTF)の絶対値、すなわち振幅成分を、MTF(Modulation Transfer Function)といい、位相成分をPTF(Phase Transfer Function)という。MTFおよびPTFはそれぞれ、収差による画像劣化の振幅成分および位相成分の周波数特性である。ここでは、位相成分を位相角として、以下の式(10)のように表される。 An optical transfer function (OTF) obtained by Fourier-transforming the point spread function (PSF) is frequency component information of aberration and is represented by a complex number. The absolute value of the optical transfer function (OTF), that is, the amplitude component, is referred to as MTF (Modulation Transfer Function), and the phase component is referred to as PTF (Phase Transfer Function). MTF and PTF are frequency characteristics of an amplitude component and a phase component of image degradation due to aberration, respectively. Here, the phase component is expressed as the following formula (10) with the phase angle as the phase angle.
PTF=tan−1(Im(OTF)/Re(OTF)) … (10)
式(10)において、Re(OTF)およびIm(OTF)はそれぞれ、OTFの実部および虚部である。
PTF = tan −1 (Im (OTF) / Re (OTF)) (10)
In formula (10), Re (OTF) and Im (OTF) are the real part and the imaginary part of OTF, respectively.
このように、光学系の光学伝達関数(OTF)は、画像の振幅成分と位相成分に対して劣化を与えるため、劣化画像は被写体の各点がコマ収差のように非対称にぼけた状態になる。 As described above, since the optical transfer function (OTF) of the optical system deteriorates the amplitude component and the phase component of the image, each point of the subject becomes asymmetrically blurred like coma aberration in the deteriorated image. .
図10は、被写体の各点が球面収差のような対称にぼける光学特性の状態で撮影された画像に対し、単調増減検出を行う場合を説明した図である。図10(a)は被写体の画素値断面、図10(b)は撮影光学系のPSF断面、図10(c)は撮影光学系で撮影された被写体の画素値断面を示している。図10(b)に示されるように、撮影光学系が対称な収差特性を有しPSFが対称である場合、被写体の両側のエッジ断面は、両方とも劣化した画像として図10(c)の実線のように撮影される。図10(c)では、比較のため、図10(a)に示される被写体の輝度断面を点線で示している。図10(c)の白い四角を注目画素として、単調増減判定を行うとすると、両エッジとも単調増減領域として判定される。また、色のにじみも実際に発生するため、色にじみ発生領域の判定としては正しく判定される。 FIG. 10 is a diagram illustrating a case where monotonous increase / decrease detection is performed on an image captured with optical characteristics in which each point of a subject is symmetrically blurred such as spherical aberration. 10A shows a pixel value section of the subject, FIG. 10B shows a PSF section of the photographing optical system, and FIG. 10C shows a pixel value section of the subject photographed by the photographing optical system. As shown in FIG. 10B, when the photographing optical system has symmetrical aberration characteristics and the PSF is symmetrical, the edge cross sections on both sides of the subject are both degraded images as a solid line in FIG. It is photographed like this. In FIG. 10C, for comparison, the luminance cross section of the subject shown in FIG. If the white square in FIG. 10C is used as the target pixel and the monotone increase / decrease determination is performed, both edges are determined as the monotone increase / decrease area. Further, since color blur actually occurs, the color blur generation region is correctly determined.
図11は、被写体の各点がコマ収差のような非対称にぼける光学特性の状態で撮影された画像に対し、単調増減検出を行う場合を説明した図である。図11(a)は被写体の画素値断面、図11(b)は撮影光学系のPSF断面、図11(c)は撮影光学系で撮影された被写体の画素断面である。図11(b)に示されるように、撮影光学系が非対称な収差特性を有しPSFが非対称である場合、特に片側のエッジのみ大きく劣化する光学特性では、被写体のエッジ断面は、片側のみ大きく劣化した画像として図11(c)の実線のように撮影される。このような撮影画像に対し単調増減検出を行うと、両エッジとも単調増減領域として判定されるが、実際に撮影光学系により発生する色にじみは片側のみであるため、被写体本来の色を色にじみとして判定してしまう弊害が発生する。単調増減のみで色にじみ補正を行うと被写体本来の色を除去することになり、不自然な画像となる場合がある。これを回避しようとすると補正が弱くなってしまう。 FIG. 11 is a diagram illustrating a case where monotonous increase / decrease detection is performed on an image captured in a state in which each point of a subject is asymmetrically blurred such as coma. 11A is a pixel value cross section of the subject, FIG. 11B is a PSF cross section of the photographing optical system, and FIG. 11C is a pixel cross section of the subject photographed by the photographing optical system. As shown in FIG. 11B, when the photographing optical system has an asymmetric aberration characteristic and the PSF is asymmetric, the edge cross section of the subject is large only on one side, particularly in the optical characteristic that greatly deteriorates only on one side edge. A deteriorated image is taken as shown by the solid line in FIG. When monotonous increase / decrease detection is performed on such a photographed image, both edges are determined as monotonous increase / decrease areas, but since the color blur actually generated by the photographing optical system is only on one side, the original color of the subject is blurred. As a result, an adverse effect occurs. If the color blur correction is performed only by monotonous increase / decrease, the original color of the subject is removed, which may result in an unnatural image. If you try to avoid this, the correction will be weak.
そこで本実施形態において、画像処理装置100は、図10(b)や図11(b)に示されるような撮影光学系の色にじみ発生方向に関する光学情報を保持または取得する。そして画像処理装置100は、単調増減検出の単調増減方向と色にじみ発生方向が一致した場合、色にじみ発生領域である判定する。ここで一致とは、厳密に一致する場合だけでなく実質的に一致である場合も含む意味である。 Therefore, in the present embodiment, the image processing apparatus 100 holds or acquires optical information regarding the direction of occurrence of color blur of the photographing optical system as shown in FIGS. 10B and 11B. When the monotonous increase / decrease direction of the monotonic increase / decrease detection matches the color blur generation direction, the image processing apparatus 100 determines that the color blur generation region is present. Here, the term “matching” means not only the case of exact matching but also the case of substantial matching.
図12を参照して、光学情報について説明する。図12は、本実施形態における光学情報の説明図であり、撮影光学系のPSF断面および光学情報を示している。図12(a)は、図10(b)に示される、撮影光学系のPSFが対称な場合の光学情報である。図12(b)は、図11(b)に示される、撮影光学系のPSFが非対称な場合の光学情報である。例えば、撮影光学系の収差により色にじみが発生する方向には1を持ち、発生しない場合は0を持つ。図12(a)は、色にじみが対称に両側で発生するため光学情報は両側とも1の値を持つ。図12(b)では、色にじみが非対称に発生しており、左側エッジでは色にじみが発生しないため0、右側エッジでは色にじみが発生するため1の値を持つ。 The optical information will be described with reference to FIG. FIG. 12 is an explanatory diagram of optical information in the present embodiment, and shows a PSF cross section and optical information of the photographing optical system. FIG. 12A shows optical information when the PSF of the photographing optical system shown in FIG. 10B is symmetric. FIG. 12B shows optical information when the PSF of the photographing optical system shown in FIG. 11B is asymmetric. For example, it has 1 in the direction in which color blur occurs due to the aberration of the photographing optical system, and 0 if it does not occur. In FIG. 12A, since the color blur occurs symmetrically on both sides, the optical information has a value of 1 on both sides. In FIG. 12B, color blur is generated asymmetrically, and no color blur is generated at the left edge, and a value of 1 is generated because color blur is generated at the right edge.
図13は、光学情報および単調増減検出結果に基づいて色にじみ領域を判定する例を示す図である。図13(a)に示されるように、単調増減検出により、例えば、単調減少が検出された場合、その単調減少方向の光学情報を参照し、1を有していれば色にじみ補正領域と判定する。また、図13(b)に示されるように、単調減少方向の光学情報を参照し、0を有していれば被写体の色であると判定する。このように、撮影光学系の収差として色収差が発生する方向と、発生しない方向の情報を有することで、被写体の色と色にじみを正しく判定することができるため、色にじみ補正の精度を向上させることが可能となる。なお、色にじみの発生方向を1、発生しない方向を0としたが、発生の方向がわかればよく、0と1である必要はない。撮影光学系の収差は、像高により変化するため、複数の像高での光学情報を有しておくことで、高精度に補正を行うことが可能となる。補正値を持たない像高では、近傍の補正値より補間生成してもよい。また、撮影光学系の収差は、撮影条件(撮影光学系の焦点距離、被写体距離、絞り値(Fno))でも変化するため、撮影条件ごとに光学情報を記憶または取得することにより、高精度に補正を行うことが可能となる。 FIG. 13 is a diagram illustrating an example of determining a color blur area based on optical information and a monotonous increase / decrease detection result. As shown in FIG. 13 (a), for example, when monotonic decrease is detected by monotone increase / decrease detection, the optical information in the monotonic decrease direction is referred to. To do. Further, as shown in FIG. 13B, the optical information in the monotonously decreasing direction is referred to, and if it has 0, it is determined that the color of the subject. As described above, by having information on the direction in which chromatic aberration occurs and the direction in which chromatic aberration does not occur as the aberration of the photographing optical system, it is possible to correctly determine the color and color blur of the subject, thereby improving the accuracy of color blur correction. It becomes possible. Although the direction of occurrence of color blur is 1 and the direction of non-occurrence is 0, it is only necessary to know the direction of occurrence, and it is not necessary to be 0 and 1. Since the aberration of the photographic optical system changes depending on the image height, it is possible to correct with high accuracy by having optical information at a plurality of image heights. For image heights that do not have correction values, interpolation may be generated from nearby correction values. In addition, since the aberration of the photographic optical system changes depending on the photographic conditions (focal length of the photographic optical system, subject distance, aperture value (Fno)), the optical information is stored or acquired for each photographic condition, thereby achieving high accuracy. Correction can be performed.
図10および図11では、光学情報を1次元の情報として説明したが、撮影画像が2次元配列のデータの場合、光学情報も2次元のデータとして保持してもよい。図14は、光学情報が2次元である場合の説明図である。図14(c)は、光学情報を画面上下左右、斜め45度、135度の8方向のデータとして保持する場合の例を示している。図14では、撮影光学系の色のコマ収差が画面上方向に発生しており、その発生方向に1の光学情報を保持する。色にじみの発生しない方向には0を保持する。単調増減検出を前記8方向で行い、単調減少が検出された方向に光学情報の1が保持されていた場合に色にじみと判定される。単調減少が検出されても、検出された方向に光学情報の1が保持されていなければ被写体の色と判定を行う。 10 and 11, the optical information has been described as one-dimensional information. However, when the captured image is two-dimensional array data, the optical information may be held as two-dimensional data. FIG. 14 is an explanatory diagram when the optical information is two-dimensional. FIG. 14C shows an example in which optical information is held as data in eight directions of up / down / left / right, 45 degrees oblique and 135 degrees on the screen. In FIG. 14, color coma in the photographing optical system is generated in the upward direction of the screen, and 1 optical information is held in the generation direction. 0 is maintained in the direction where no color blur occurs. Monotonic increase / decrease detection is performed in the above eight directions, and it is determined that the color is blurred when 1 of the optical information is held in the direction in which the monotonic decrease is detected. Even if a monotonic decrease is detected, if the optical information 1 is not held in the detected direction, it is determined as the color of the subject.
以上のように、画像処理装置100は、撮影光学系の色にじみが発生する方向に関する光学情報を保持または取得する。好ましくは、画像処理装置100は、光学情報を記憶する記憶手段107を有する。より好ましくは、記憶手段107は、撮影条件ごとに光学情報を記憶する。撮影条件は、撮影光学系の焦点距離、被写体距離、絞り値の少なくとも一つを含む。なお、記憶手段107は、画像処理装置100の外部に設けられていてもよい。 As described above, the image processing apparatus 100 holds or acquires the optical information regarding the direction in which the color blur of the photographing optical system occurs. Preferably, the image processing apparatus 100 includes a storage unit 107 that stores optical information. More preferably, the storage unit 107 stores optical information for each shooting condition. The photographing condition includes at least one of a focal length, a subject distance, and an aperture value of the photographing optical system. Note that the storage unit 107 may be provided outside the image processing apparatus 100.
そして、画像処理装置100は、単調増減検出時に検出方向と光学情報を参照することにより、高精度に色にじみ領域を判定することが可能となる。なお、単調増減判定を単調減少方向で説明したが、単調増加方向を使用して色にじみ判定を行ってもよい。また、単調増減判定と光学情報の補正値を8方向で説明したが、8方向に限定されるものではない。精度を向上させるため、検出方向の数を増加させてもよい。または、光学情報に関するデータ量を削減するため、検出方向の数を減少させてもよい。 The image processing apparatus 100 can determine the color blur area with high accuracy by referring to the detection direction and the optical information when detecting monotonous increase / decrease. Although the monotone increase / decrease determination has been described in the monotone decrease direction, the color blur determination may be performed using the monotone increase direction. In addition, the monotonous increase / decrease determination and the correction value of the optical information have been described in eight directions, but are not limited to eight directions. In order to improve accuracy, the number of detection directions may be increased. Alternatively, the number of detection directions may be reduced in order to reduce the amount of data related to optical information.
また画像処理装置100は、光学情報として、色にじみ発生方向に加え、色にじみの強度に関する情報(色にじみの強度情報)を保持または取得するように構成してもよい。この場合、更に高精度に補正を行うことが可能となる。図14(b)に示されるように、一般に撮影光学系の収差による色にじみの発生量は方向により異なる。そこで、図14(d)に示されるように、色にじみの発生する方向に色にじみの発生量に関する色にじみの強度情報を追加してもよい。 Further, the image processing apparatus 100 may be configured to hold or acquire information regarding the color blur intensity (color blur intensity information) as optical information in addition to the color blur generation direction. In this case, correction can be performed with higher accuracy. As shown in FIG. 14B, in general, the amount of color blur due to the aberration of the photographing optical system differs depending on the direction. Therefore, as shown in FIG. 14D, color blur intensity information regarding the amount of color blur may be added in the direction in which color blur occurs.
続いて、図15を参照して、色にじみ強度情報を用いた場合の色にじみ判定について説明する。図15は、光学情報を用いた色にじみ判定処理を示す図であり、光学情報に色にじみ発生方向のみを持つ場合の例を示している。図中の四角で囲まれた注目画素1について色にじみ発生領域の判定を行う場合、まず、注目画素を中心に上下左右、斜め45度、斜め135度の8方向について単調減少判定を行う。図15(a)の場合、高輝度被写体が注目画素の下側に位置するため、注目画素1の単調減少が検出される方向は、上と右上、左上の3箇所が判定される。その3方向の光学情報は色にじみ発生方向を示す「1」であるため、この注目画素1は色にじみ発生領域と判定される。また、同様に注目画素2についても検出を行うと、単調減少方向は上、右上、右、右下が判定される。しかしながら、光学情報の色にじみ発生方向は、右下に発生しない方向を表す「0」を保持しているため、単調減少と光学情報より、最終的な注目画素2の色にじみ検出方向は、上、右上、右の3方向となる。注目画素1、注目画素2共に色にじみ発生が素と判定されるが、図14(b)に示されるように、撮影光学系の色にじみ発生量は方向により異なるため、注目画素1と注目画素2では、色にじみの発生量が異なっている。光学情報に強度情報を持たない場合、色にじみ量を判定できないため、このあとの色にじみ補正工程において補正の強さを変えて補正を行うことができない。よって、注目画素1にあわせて色にじみ補正を強くすると注目画素2では過補正となり、注目画素2にあわせて色にじみ補正を弱くすると注目画素1では、補正不足となってしまう。 Next, with reference to FIG. 15, the color blur determination when the color blur intensity information is used will be described. FIG. 15 is a diagram illustrating a color blur determination process using optical information, and illustrates an example in which the optical information has only the color blur generation direction. When determining the color blur generation region for the pixel of interest 1 surrounded by the square in the figure, first, monotonic decrease determination is performed in eight directions, up and down, left and right, 45 degrees oblique, and 135 degrees oblique, with the pixel of interest at the center. In the case of FIG. 15A, since the high-luminance subject is located below the target pixel, the upper, upper right, and upper left are determined as the directions in which the monotonic decrease of the target pixel 1 is detected. Since the optical information in the three directions is “1” indicating the color blur generation direction, the target pixel 1 is determined to be a color blur generation region. Similarly, if the pixel of interest 2 is also detected, the monotone decreasing direction is determined to be upper, upper right, right, and lower right. However, since the color blur occurrence direction of the optical information holds “0” indicating a direction that does not occur in the lower right, the final color blur detection direction of the target pixel 2 is monotonically decreased and the optical information is higher than the optical information. , Upper right and right. Although the noticeable pixel 1 and the noticeable pixel 2 are determined to have no color blur, as shown in FIG. 14B, the amount of color blur in the photographing optical system varies depending on the direction. In No. 2, the amount of color bleeding is different. If the optical information does not have intensity information, the amount of color blur cannot be determined, so that correction cannot be performed by changing the intensity of correction in the subsequent color blur correction process. Therefore, if the color blur correction is increased in accordance with the target pixel 1, the target pixel 2 is overcorrected, and if the color blur correction is decreased in accordance with the target pixel 2, the target pixel 1 is insufficiently corrected.
そこで、図14(d)のように、光学情報に色にじみの発生方向と、その方向の色にじみ強度情報を追加することが好ましい。図15(a)、(b)は、光学情報に色にじみ強度情報も付加した場合の色にじみ領域の判定方法を示している。図15(b)の注目画素3では、単調減少判定にて上、左上、右上の3方向が判定されるが、光学情報の色にじみ強度もそれぞれ2、3、2と強い色にじみ強度と検出することができる。図15(c)の注目画素4においては、上、右上、左下の3方向が判定されるが、その方向の光学情報の色にじみ強度はそれぞれ3、2、1と注目画素3に対して弱い色にじみ強度が検出される。よって、例えば、検出された方向の色にじみ強度の平均値により、この後の色にじみ補正処理の補正の強さ(画像を修正する強度)を変更することで、色にじみの発生量が方向で異なる場合でもより正確な補正が可能となる。 Therefore, as shown in FIG. 14D, it is preferable to add the color blur generation direction and the color blur intensity information in the direction to the optical information. FIGS. 15A and 15B show a method for determining a color blur area when color blur intensity information is also added to the optical information. In the target pixel 3 in FIG. 15B, the three directions of upper, upper left, and upper right are determined by monotonic decrease determination, but the color blur intensity of the optical information is also detected as strong color blur intensity of 2, 3, and 2, respectively. can do. In the target pixel 4 in FIG. 15C, the three directions of upper, upper right, and lower left are determined, but the color blur intensity of the optical information in that direction is 3, 2, 1 and weaker than the target pixel 3, respectively. A color blur intensity is detected. Therefore, for example, by changing the intensity of correction (image correction intensity) of the subsequent color blur correction process according to the average value of the color blur intensity in the detected direction, Even when different, more accurate correction is possible.
注目画素3では色にじみ強度の平均値が約2.3であり、また、注目画素4では色にじみ強度の平均値が2.0となり、この値を使って補正の強さを変えることが可能となる。色にじみ強度の平均値を使用する説明を行ったが、これに限定されるものではない。例えば、色にじみ方向と検出された複数の方向の重心方向の色にじみ強度値を使用して色にじみ補正係数を変えてもよい。注目画素3では重心方向が上となるため色にじみ強度は3、注目画素4では重心方向が右上となるため色にじみ強度は2となり、この値を使って補正の強さを変えることが可能となる。重心方向を採用する場合、例えば上、右上、右、右下の4方向の重心を計算すると、重心方向に最も近い方向は右上、右の2方向となる場合がある。この場合、2方向の平均値、2方向のうち大きい方の色にじみ強度、または、2方向のうち小さいほうの色にじみ強度を用いるなどが考えられる。なお本実施形態において、平均値、重心方向を利用することについて説明したが、光学情報の色にじみ強度情報を任意に演算して色にじみ補正時の補正の強さを変えてもよい。 The target pixel 3 has an average color blur intensity value of about 2.3, and the target pixel 4 has an average color blur intensity value of 2.0, which can be used to change the correction strength. It becomes. Although the description has been made using the average value of the color blur intensity, the present invention is not limited to this. For example, the color blur correction coefficient may be changed using the color blur intensity value in the centroid direction of a plurality of detected directions as the color blur direction. At the target pixel 3, the direction of the center of gravity is upward, so the color blur intensity is 3, and at the target pixel 4, the direction of the center of gravity is upper right, so the color blur intensity is 2, and this value can be used to change the correction strength. Become. When the center of gravity direction is adopted, for example, when the center of gravity in the four directions of upper, upper right, right, and lower right is calculated, the direction closest to the center of gravity direction may be the two directions of upper right and right. In this case, it is conceivable to use an average value in two directions, a color blur intensity of the larger one of the two directions, or a color blur intensity of the smaller of the two directions. In the present embodiment, the use of the average value and the direction of the center of gravity has been described. However, the color blur intensity information of the optical information may be arbitrarily calculated to change the correction strength at the time of color blur correction.
このように、好ましくは、画像処理装置100(修正手段105)は、第1の方向と第2の方向とが複数の方向において互いに一致する場合、複数の方向における色にじみの強度に関する情報を演算して画像を修正する。より好ましくは、修正手段105は、第1の方向と第2の方向とが複数の方向において互いに一致する場合、複数の方向の重心方向における色にじみの強度に関する情報または平均値を用いて画像を修正する。 Thus, preferably, when the first direction and the second direction match each other in a plurality of directions, the image processing apparatus 100 (correction unit 105) calculates information on the intensity of color blur in the plurality of directions. And correct the image. More preferably, when the first direction and the second direction coincide with each other in a plurality of directions, the correction unit 105 uses the information or the average value regarding the intensity of color blur in the centroid direction of the plurality of directions. Correct it.
続いて、図16を参照して、光学情報の算出方法について説明する。図16は、光学情報の算出方法の説明図であり、光学情報として保持する任意の方向での、撮影光学系のGプレーンのPSF断面(実線)とBプレーンのPSF断面(点線)を示している。ここでは、Gプレーンを基準プレーンとし、Bプレーンの色にじみに関して光学情報を算出する方法について説明する。 Next, a method for calculating optical information will be described with reference to FIG. FIG. 16 is an explanatory diagram of a method for calculating optical information, and shows a PSF cross section (solid line) of the G plane of the photographing optical system and a PSF cross section (dotted line) of the B plane in an arbitrary direction held as optical information. Yes. Here, a method for calculating the optical information regarding the color blur of the B plane using the G plane as a reference plane will be described.
撮影光学系の色収差により、Gプレーン、Bプレーンは、それぞれの波長帯での収差により、異なったPSF形状となる。また、倍率色収差により、Gプレーン、Bプレーンは、それぞれ、ずれた位置に結像するため、それぞれのPSFのピーク位置も図16(a)に示されるように、ずれた位置で算出される。倍率色収差による各色プレーンのずれは、従来から行われている、各色プレーンに対し異なる歪曲を加える幾何学変換により補正することができる。そのため、図16(b)に示されるように、Gプレーン、BプレーンのそれぞれのPSFのピーク位置を一致させて、図の斜線部にあたる基準であるGプレーンとBプレーンのPSF面積差を色にじみ強度として採用する方法が考えられる。 Due to the chromatic aberration of the photographing optical system, the G plane and the B plane have different PSF shapes depending on the aberration in each wavelength band. Further, since the G plane and the B plane are imaged at shifted positions due to lateral chromatic aberration, the peak positions of the respective PSFs are also calculated at shifted positions as shown in FIG. The displacement of each color plane due to lateral chromatic aberration can be corrected by a conventional geometric transformation that applies different distortions to each color plane. Therefore, as shown in FIG. 16B, the PSF peak positions of the G plane and the B plane are made to coincide with each other, and the difference between the PSF areas of the G plane and the B plane, which are the hatched portions in the figure, is blurred. A method of adopting the strength can be considered.
図16(b)では、ピークよりも左側エッジの面積差よりも右側エッジの面積差が大きいため、右側エッジで大きく色にじみが発生することがわかる。この面積が小さければ色にじみは目立たないため、面積が小さい場合を色にじみが発生しない方向とすることができる。また、面積比より、色にじみ強度を決定することが可能となる。以上により、光学情報の色にじみが発生する方向や色にじみ強度を算出できるが、算出方法としてPSFの面積差を使用する方法に限定されるものではない。例えば、図16(b)において、GプレーンとBプレーンのエッジの傾き差を使用する方法が考えられる。色にじみが発生する場合、エッジの傾きは緩くなる傾向にあるため、傾き差などを利用することにより、光学情報を決定するなどしてもよい。 In FIG. 16B, the area difference of the right edge is larger than the area difference of the left edge than the peak, so that it can be seen that the color blur is greatly generated at the right edge. If this area is small, the color blur is inconspicuous, and therefore, when the area is small, the direction in which the color blur does not occur can be set. Further, the color blur intensity can be determined from the area ratio. As described above, the direction in which color blur occurs in the optical information and the color blur intensity can be calculated, but the calculation method is not limited to the method using the area difference of the PSF. For example, in FIG. 16B, a method of using the difference in inclination between the edges of the G plane and the B plane can be considered. When color blurring occurs, the inclination of the edge tends to be gentle, and thus optical information may be determined by using a difference in inclination.
本実施例では、色にじみ強度を計算する際にピーク値を一致させる方法で説明しているが、ピーク値ではなくPSFの重心が一致をさせて色にじみ強度を算出してもよい。このように本実施形態によれば、光学情報の色にじみ発生方向と、色にじみ強度情報を算出することができる。 In this embodiment, the method of matching the peak values when calculating the color blur intensity is described. However, the color blur intensity may be calculated by matching the centroids of the PSFs instead of the peak values. As described above, according to the present embodiment, it is possible to calculate the color blur generation direction and the color blur intensity information of the optical information.
図1Bに戻り、ステップS5において、画像処理装置100(修正手段105)は、ステップS4にて判定手段104により色にじみ領域と判定された領域(第2の領域)に対し、色にじみを補正する処理(画像を修正する処理)を行う(色にじみ補正工程)。すなわち修正手段105は、色にじみを低減するように、倍率色収差を補正した撮影画像を修正する。 Referring back to FIG. 1B, in step S5, the image processing apparatus 100 (correction unit 105) corrects color blur for the region (second region) determined as the color blur region by the determination unit 104 in step S4. Processing (processing for correcting an image) is performed (color blur correction step). That is, the correcting unit 105 corrects the captured image in which the lateral chromatic aberration is corrected so as to reduce color blur.
図17は、青色にじみの典型的な画素値変化を示す図である。図17において、横軸は距離(画像上の断面)であり、縦軸はBプレーン及びGプレーンの画素値である。図17では、左端に飽和輝度を超える高輝度被写体が存在するものとする。そして、本来明るくない光源周囲も、収差やフレアにより光源からにじんだ光により、画素値変化の裾が指数関数的に拡がる。 FIG. 17 is a diagram illustrating a typical pixel value change of blue blur. In FIG. 17, the horizontal axis is the distance (cross section on the image), and the vertical axis is the pixel value of the B plane and the G plane. In FIG. 17, it is assumed that there is a high brightness subject exceeding the saturation brightness at the left end. Further, the tail of the pixel value change exponentially spreads around the light source, which is originally not bright, due to light that oozes from the light source due to aberration or flare.
基準プレーンであるGプレーンでもにじみは無いわけではなく、ある程度の拡がりが存在する。しかし、それは色にじみ除去対象のBプレーンに比べると小さい。また、撮像素子は一定の飽和レベル以上の画素値を測定することはできない。このような画素値変化において、色にじみ除去対象のBプレーンの強度が基準プレーンであるGプレーンの強度を上回ると、青色にじみとなる。 The G plane which is the reference plane is not free from bleeding, but has a certain extent. However, it is smaller than the B-plane that is subject to color blur removal. Further, the image sensor cannot measure pixel values above a certain saturation level. In such a pixel value change, if the intensity of the B-plane to be subjected to color bleeding removal exceeds the intensity of the G-plane that is the reference plane, blue bleeding occurs.
本実施形態では、画像処理装置100は、色にじみ除去対象のBプレーンの画素値変化の傾きによりBプレーンのにじみ量を推定する。そこで、Bプレーンの輝度傾斜Bleaの絶対値に係数k1を乗じることにより、以下の式(11)で表されるように第1の推定にじみ量E1とする。 In the present embodiment, the image processing apparatus 100 estimates the amount of blurring of the B plane based on the slope of the change in pixel value of the B plane that is subject to color blur removal. Therefore, by multiplying the absolute value of the brightness gradient Blea of the B plane by the coefficient k1, the first estimated blur amount E1 is obtained as expressed by the following equation (11).
E1=k1|Blea| … (11)
式(11)において、k1は正値である。ただし、Bプレーンが飽和している領域A1では画素値傾斜は0になってしまい飽和前の輝度傾斜が得られない。
E1 = k1 | Blea | (11)
In Expression (11), k1 is a positive value. However, in the area A1 where the B plane is saturated, the pixel value gradient becomes 0, and the luminance gradient before saturation cannot be obtained.
そこで、Bプレーンが飽和している領域A1に対する推定にじみ量E2を、以下の式(12)に示されるように、Gプレーンの画素値変化の輝度傾斜Gleaに基づいて推定する。 Therefore, the estimated bleeding amount E2 for the region A1 where the B plane is saturated is estimated based on the luminance gradient Glea of the pixel value change of the G plane, as shown in the following equation (12).
E2=k2|Glea| … (12)
式(12)において、k2は正値である。
E2 = k2 | Glea | (12)
In Expression (12), k2 is a positive value.
次に、Bプレーンの画素値に対する非線形変換を行い、飽和度Sを生成する。この非線形変換は、Bプレーンが飽和しているか否かを示すものであり、Bプレーンの強度が飽和している領域では飽和度Sが1となり、Bプレーンの強度が小さい領域では飽和度Sは0となる。飽和度Sは0、1の2値でもよいが、図18に示されるように、飽和度Sは0〜1にかけて連続的に変化する値としてもよい。図18は、Bプレーンの画素値に対する非線形変換の特性図である。 Next, nonlinear conversion is performed on the pixel values of the B plane to generate the saturation S. This non-linear transformation indicates whether or not the B plane is saturated. In the region where the intensity of the B plane is saturated, the saturation S is 1, and in the region where the intensity of the B plane is low, the saturation S is 0. Although the saturation S may be a binary value of 0 or 1, the saturation S may be a value that continuously varies from 0 to 1 as shown in FIG. FIG. 18 is a characteristic diagram of nonlinear conversion with respect to the pixel value of the B plane.
そして、上記の生成した飽和度Sにより、上記のように算出した推定にじみ量E1または推定にじみ量E2を選択する。即ち、飽和度Sが0、1の2値であれば新たな推定にじみ量Eを、
E=E1 (S=0の場合)
E=E2 (S=1の場合)
とする。また、飽和度Sが0〜1にかけて連続的に変化する値であれば、新たな推定にじみ量Eを、
E=(1−S)E1+SE2
とする。
Based on the generated saturation S, the estimated blur amount E1 or the estimated blur amount E2 calculated as described above is selected. That is, if the saturation S is a binary value of 0 and 1, a new estimated bleeding amount E is obtained.
E = E1 (when S = 0)
E = E2 (when S = 1)
And If the saturation S is a value that continuously changes from 0 to 1, a new estimated bleeding amount E is
E = (1-S) E1 + SE2
And
次に、上記の推定にじみ量Eを修正し、実際に除去する量E’を決定する。推定にじみ量(除去量)は、一定のモデルに沿ったものであり、実際のにじみ量とは必ずしも一致しない。例えば、同じBプレーンに検出される光であっても、波長450nmの光と波長400nmの光ではにじみ方が変化するが、ステップS4(色にじみ判定工程)では、これを考慮していない。推定にじみ量(除去量)が過小である場合、青色にじみの除去後も若干の青みが残る。一方、推定にじみ量(除去量)が過大である場合、灰色の背景に対してBプレーンを減らし過ぎ、黄緑色になる場合がある。 Next, the estimated blur amount E is corrected to determine the amount E ′ to be actually removed. The estimated bleeding amount (removal amount) is in line with a certain model and does not necessarily match the actual bleeding amount. For example, even in the case of light detected on the same B plane, the blurring method varies between light having a wavelength of 450 nm and light having a wavelength of 400 nm, but this is not considered in step S4 (color blur determination step). When the estimated amount of blurring (removal amount) is too small, a slight amount of blueness remains after the removal of blue blurring. On the other hand, if the estimated blurring amount (removal amount) is excessive, the B plane may be excessively reduced with respect to the gray background, resulting in a yellowish green color.
特に後者(黄緑色になる場合)は、不自然で観察者に大きな違和感を与える。そこで、ステップS5(色にじみ補正工程)では、一定の色相範囲内でのみ、にじみ除去が作用するよう制限する。このため、まずステップS5において、画素の色度を計算する。R、G、Bの各プレーンの強度に対し、以下の式(13)が成立する。 In particular, the latter (when it becomes yellowish green) is unnatural and gives the viewer a great sense of discomfort. Therefore, in step S5 (color blur correction process), the blur removal is limited to operate only within a certain hue range. For this reason, first, in step S5, the chromaticity of the pixel is calculated. The following formula (13) is established for the strengths of the R, G, and B planes.
図19は、式(13)のaを横軸とし、bを縦軸とする色度座標ab面である。図19に示されるように、青色は色度座標ab面の斜線で示す第4象限にある(尚、赤、黄、紫は第1象限、緑、白は第2象限、青緑は第3象限にある)。Bプレーンの強度から推定にじみ量Eを除去すると、B=B−Eとなり、色度座標ab面上では点線矢印のように左上方向へ移動する。矢印の始点が推定にじみ量Eの除去前の色度であり、終点が推定にじみ量Eの除去後の色度である。このことから、作用する色相範囲をa>0かつb<0に制限すると、以下の式(14)が成立する。 FIG. 19 is a chromaticity coordinate ab plane with a in the equation (13) as the horizontal axis and b as the vertical axis. As shown in FIG. 19, blue is in the fourth quadrant indicated by the diagonal lines on the chromaticity coordinate ab plane (note that red, yellow and purple are the first quadrant, green and white are the second quadrant, and blue-green is the third quadrant. In the quadrant). When the estimated blur amount E is removed from the intensity of the B plane, B = B−E, and the chromaticity coordinate ab plane moves in the upper left direction as indicated by a dotted arrow. The starting point of the arrow is the chromaticity before the estimated blur amount E is removed, and the end point is the chromaticity after the estimated blur amount E is removed. From this, when the working hue range is limited to a> 0 and b <0, the following expression (14) is established.
B>0.22R+0.68G かつ B>−1.84R+3.30G … (14)
このため、式(14)を満たさない画素に対し、実際に除去する除去量E’=0とし、色にじみ除去対象から外す。これにより、式(14)を満たさない画素は、画素値が影響を受けることがない。図19では、斜線で示す第4象限の領域のみが除去対象となる。
B> 0.22R + 0.68G and B> −1.84R + 3.30G (14)
For this reason, the pixel E that does not satisfy Expression (14) is set to a removal amount E ′ = 0 that is actually removed, and is excluded from the color blur removal target. As a result, the pixel value of the pixel that does not satisfy Expression (14) is not affected. In FIG. 19, only the region in the fourth quadrant indicated by diagonal lines is the removal target.
更に、式(14)を満たす画素に対しても、除去量E’を、以下の式(15)を満たすように設定する。 Further, the removal amount E ′ is set so as to satisfy the following expression (15) even for a pixel satisfying the expression (14).
E’=min(E,B−(0.22R+0.68G),B−(−1.84R+3.30G)) … (15)
これにより、除去量E’の除去による色度変化は、図19中の実線矢印で示されるように、第4象限内に留まるようになる。
E ′ = min (E, B− (0.22R + 0.68G), B − (− 1.84R + 3.30G)) (15)
As a result, the change in chromaticity due to the removal of the removal amount E ′ remains in the fourth quadrant as indicated by the solid line arrow in FIG.
なお本実施形態において、色度座標ab面の第4象限で制限したが、これに限定されるものではなく、任意の角度で制限してもよい。このとき、以下の式(16)を満たす必要がある。 In the present embodiment, the restriction is made in the fourth quadrant of the chromaticity coordinate ab plane. However, the present invention is not limited to this, and the restriction may be made at an arbitrary angle. At this time, it is necessary to satisfy the following expression (16).
B>r1・G+r2・R かつ B>r3・G+r4・R … (16)
式(16)において、r1〜r4は制限角θを用いて、以下の式(17)のように算出される。色相制限は、色度座標ab面の原点を通る2本の直線で定義され、θ1、θ2はその2本の直線を表す角度である
B> r1 · G + r2 · R and B> r3 · G + r4 · R (16)
In the equation (16), r1 to r4 are calculated as the following equation (17) using the limit angle θ. The hue limit is defined by two straight lines passing through the origin of the chromaticity coordinate ab plane, and θ1 and θ2 are angles representing the two straight lines.
これにより、色相制限範囲を超えてBプレーンが減少するのを防ぐことができる。以上のようにして算出した、色にじみの除去対象とする色プレーンの除去量E’を除去量プレーンとして保持し、色にじみ補正処理を行う。除去量プレーンに対しては、上記のローパスフィルタを適用する。なお本実施形態では、色相制限に簡易的なa*b*平面を用いているが、これに限定されるものではなく、3×3のRGB→YUVマトリクスを用いてuv平面にて色相制限処理を行っても構わない。 As a result, it is possible to prevent the B plane from decreasing beyond the hue limit range. The color plane removal amount E ′ calculated as described above is retained as the removal amount plane, and color blur correction processing is performed. The above-described low-pass filter is applied to the removal amount plane. In this embodiment, a simple a * b * plane is used for hue restriction. However, the present invention is not limited to this, and hue restriction processing is performed on the uv plane using a 3 × 3 RGB → YUV matrix. You may do.
上記の除去量E’をBプレーンの強度から差し引くことにより、新たなBプレーンを作成する。色にじみ除去対象としては、色にじみ判定ステップS4にて色にじみ領域と判定された画素のみとする。従って、新たなBプレーンの強度は、単調増減判定フラグが「1」ならば、
B=B−E’
単調増減判定フラグが「0」ならば、
B=B
となる。このように、図1のステップS6において、画像処理装置100(出力手段106)は、Bプレーンを修正したカラー画像を出力画像として出力する。
A new B plane is created by subtracting the removal amount E ′ from the strength of the B plane. Only the pixels that have been determined as the color blur area in the color blur determination step S4 are to be removed from the color blur. Therefore, the strength of the new B plane is as follows:
B = BE '
If the monotonous increase / decrease flag is “0”,
B = B
It becomes. As described above, in step S6 of FIG. 1, the image processing apparatus 100 (output unit 106) outputs a color image obtained by correcting the B plane as an output image.
ここで、図7に示される画像内の3×3画素のある領域における単調増減判定結果が、図20に示されるように隣接する画素で単調増減判定フラグの値が切り替わる場合を考える。このような場合、画素の境界部では除去量がばたつき(隣接する画素で除去される場合と除去されない場合が混在すること)、画素値の変化が急峻になり、不自然で観察者に違和感を与える場合がある。そこで、生成した除去量プレーンに対してローパスフィルタを適用する方法が有効である。 Here, let us consider a case where the monotonous increase / decrease determination result in a certain region of 3 × 3 pixels in the image shown in FIG. 7 switches the value of the monotonous increase / decrease determination flag in adjacent pixels as shown in FIG. In such a case, the removal amount fluctuates in the boundary portion of the pixel (a case where the pixel is removed by a neighboring pixel and a case where the pixel is not removed is mixed), and the change of the pixel value becomes steep, unnatural and uncomfortable to the observer. May give. Therefore, a method of applying a low-pass filter to the generated removal amount plane is effective.
また、以下の式(18)により、単調増減判定結果プレーンを用いて色プレーンの各画素のゲインを算出し、除去量に乗算することで、境界部(単調増減判定結果プレーン)に対するスムージング処理を行ってもよい。 Also, the following equation (18) calculates the gain of each pixel of the color plane using the monotonic increase / decrease determination result plane, and multiplies the removal amount to perform smoothing processing on the boundary portion (monotone increase / decrease determination result plane). You may go.
図20に示す例では、画素pの除去量E’’は、以下の式(19)のように表される。 In the example illustrated in FIG. 20, the removal amount E ″ of the pixel p is expressed as the following Expression (19).
以上の方法で、色にじみのみを違和感無く除去することが可能となる。 With the above method, it is possible to remove only the color blur without a sense of incongruity.
次に、図21を参照して、本発明の実施例1における撮像装置について説明する。図21は、本実施例における撮像装置200の構成図である。撮像装置200には、撮影画像の色にじみ補正処理(上述の画像処理方法)を行う画像処理プログラムがインストールされており、この色にじみ補正処理は撮像装置200の内部の画像処理部204(画像処理装置)により実行される。 Next, with reference to FIG. 21, an imaging apparatus according to Embodiment 1 of the present invention will be described. FIG. 21 is a configuration diagram of the imaging apparatus 200 in the present embodiment. The imaging apparatus 200 is installed with an image processing program for performing color blur correction processing (the above-described image processing method) of a captured image. This color blur correction processing is performed by an image processing unit 204 (image processing) in the imaging apparatus 200. Device).
撮像装置200は、撮影光学系201(レンズ)および撮像装置本体(カメラ本体)を備えて構成されている。撮影光学系201は、絞り201aおよびフォーカスレンズ201bを備え、撮像装置本体(カメラ本体)と一体的に構成されている。ただし本実施例はこれに限定されるものではなく、撮影光学系201が撮像装置本体に対して交換可能に装着される撮像装置にも適用可能である。 The imaging device 200 includes a photographing optical system 201 (lens) and an imaging device main body (camera main body). The photographing optical system 201 includes a diaphragm 201a and a focus lens 201b, and is configured integrally with an imaging apparatus main body (camera main body). However, the present embodiment is not limited to this, and can also be applied to an imaging apparatus in which the imaging optical system 201 is replaceably attached to the imaging apparatus main body.
撮像素子202は、撮影光学系201を介して得られた被写体像(光学像)を光電変換して画像(撮影画像)を得る。すなわち被写体像は、撮像素子202により光電変換が行われてアナログ信号(電気信号)に変換される。そして、このアナログ信号はA/Dコンバータ203によりデジタル信号に変換され、このデジタル信号は画像処理部204に入力される。 The image sensor 202 photoelectrically converts a subject image (optical image) obtained via the photographing optical system 201 to obtain an image (captured image). That is, the subject image is photoelectrically converted by the image sensor 202 and converted into an analog signal (electric signal). The analog signal is converted into a digital signal by the A / D converter 203, and the digital signal is input to the image processing unit 204.
画像処理部204(画像処理装置100に相当する)は、このデジタル信号に対して所定の処理を行うとともに、上述の色にじみ補正処理を行う。まず画像処理部204(撮影条件取得手段)は、状態検知部207から撮像装置の撮像条件情報を取得する。撮像条件情報とは、絞り、撮影距離、または、ズームレンズの焦点距離等に関する情報である。状態検知部207は、システムコントローラ210から直接に撮像条件情報を取得することができるが、これに限定されるものではない。例えば撮影光学系201に関する撮像条件情報は、撮影光学系制御部206から取得することもできる。なお、本実施例の色にじみ補正処理(画像処理方法)は、図1Bを参照して説明したとおりである。 An image processing unit 204 (corresponding to the image processing apparatus 100) performs predetermined processing on the digital signal and performs the above-described color blur correction processing. First, the image processing unit 204 (imaging condition acquisition unit) acquires imaging condition information of the imaging apparatus from the state detection unit 207. The imaging condition information is information related to an aperture, a shooting distance, a focal length of a zoom lens, and the like. The state detection unit 207 can acquire the imaging condition information directly from the system controller 210, but is not limited to this. For example, the imaging condition information regarding the imaging optical system 201 can be acquired from the imaging optical system control unit 206. Note that the color blur correction process (image processing method) of this embodiment is as described with reference to FIG. 1B.
図1BのステップS2において、補正手段102は、2つの倍率色収差の補正処理を実行する。前述のとおり、補正手段102は、設計段階で残存している倍率色収差(第1の倍率色収差)の補正と非対称な倍率色収差(第2の倍率色収差)の補正を行う。このように本実施形態において、両方の倍率色収差補正(第1の補正処理、第2の補正処理)の処理を実行するが、非対称な倍率色収差を補正した後に設計段階で残存している倍率色収差を補正するなど、2つの補正処理のいずれを先に行ってもよい。 In step S2 of FIG. 1B, the correction unit 102 executes correction processing for two lateral chromatic aberrations. As described above, the correction unit 102 corrects the lateral chromatic aberration (first lateral chromatic aberration) remaining at the design stage and the asymmetric lateral chromatic aberration (second lateral chromatic aberration). As described above, in this embodiment, both lateral chromatic aberration corrections (first correction process and second correction process) are executed, but the lateral chromatic aberration remaining in the design stage after correcting the asymmetric lateral chromatic aberration. Any one of the two correction processes may be performed first.
または、2つの補正処理を並行して(同時にまたは同期間内に)実行することもできる。2つの補正処理を平行して実行する方法としては、例えば図29に示されるように、画像の領域を円周方向と像高方向にそれぞれ分割し、各領域の色ずれ量からそれぞれの補正量を算出することができる。または、図1のステップS2では非対称な倍率色収差に対する補正(第2の補正処理)のみ実行し、設計段階で残存している倍率色収差の補正(第1の補正処理)は、ステップS5の色にじみ補正の際に行ってもよい。この場合、ステップS5において、倍率色収差による色のずれ分を考慮しつつ色にじみ補正処理を実行することになる。 Alternatively, the two correction processes can be executed in parallel (simultaneously or within the same period). As a method of executing the two correction processes in parallel, for example, as shown in FIG. 29, an image area is divided into a circumferential direction and an image height direction, and each correction amount is determined based on the color shift amount of each area. Can be calculated. Alternatively, in step S2 of FIG. 1, only correction for the asymmetric lateral chromatic aberration (second correction process) is executed, and correction of the lateral chromatic aberration remaining in the design stage (first correction process) is the color blur in step S5. It may be performed at the time of correction. In this case, in step S5, the color blur correction process is executed in consideration of the color shift due to the chromatic aberration of magnification.
撮影光学系201の色にじみ発生方向に関する光学情報は、記憶部208に保持されている。画像処理部204は、上記撮影条件に該当する光学情報を記憶部208より取得し、色にじみ補正処理を行い、その出力画像は、画像記録媒体209に所定のフォーマットで保存される。表示部205には、本実施例の色にじみ補正処理を行った画像に表示用の所定の処理を行った画像が表示される。ただし本実施例はこれに限定されるものではなく、高速表示のために簡易処理を行った画像を表示部205に表示するように構成してもよい。 Optical information regarding the color blur generation direction of the photographing optical system 201 is held in the storage unit 208. The image processing unit 204 acquires optical information corresponding to the shooting conditions from the storage unit 208 and performs color blur correction processing, and the output image is stored in the image recording medium 209 in a predetermined format. The display unit 205 displays an image obtained by performing a predetermined display process on the image subjected to the color blur correction process of the present embodiment. However, the present embodiment is not limited to this, and an image subjected to simple processing for high-speed display may be displayed on the display unit 205.
本実施例における一連の制御はシステムコントローラ210により行われ、撮影光学系201の機械的な駆動はシステムコントローラ210の指示に基づいて撮影光学系制御部206により行われる。撮影光学系制御部206は、Fナンバーの撮影状態設定として、絞り201aの開口径を制御する。また撮影光学系制御部206は、被写体距離に応じてピント調整を行うため、不図示のオートフォーカス(AF)機構や手動のマニュアルフォーカス機構により、フォーカスレンズ201bの位置を制御する。なお、絞り201aの開口径制御やマニュアルフォーカスなどの機能は、撮像装置200の仕様に応じて実行しなくてもよい。また、撮影光学系201には、ローパスフィルタや赤外線カットフィルタなどの光学素子を設けることができる。 In the present embodiment, a series of control is performed by the system controller 210, and mechanical driving of the photographing optical system 201 is performed by the photographing optical system control unit 206 based on an instruction from the system controller 210. The photographing optical system control unit 206 controls the aperture diameter of the aperture 201a as the F number photographing state setting. The photographing optical system control unit 206 controls the position of the focus lens 201b by an unillustrated autofocus (AF) mechanism or manual manual focus mechanism in order to adjust the focus according to the subject distance. Note that functions such as aperture diameter control and manual focus of the aperture 201a may not be executed according to the specifications of the imaging apparatus 200. The photographing optical system 201 can be provided with optical elements such as a low-pass filter and an infrared cut filter.
次に、図22を参照して、本発明の実施例2における画像処理システムについて説明する。図22は、本実施例における画像処理システム300の構成図である。なお、本実施例の色にじみ補正処理(画像処理方法)は、図1Bを参照して説明したとおりであるため、その説明は省略する。 Next, an image processing system according to the second embodiment of the present invention will be described with reference to FIG. FIG. 22 is a configuration diagram of an image processing system 300 in the present embodiment. Note that the color blur correction process (image processing method) of this embodiment is as described with reference to FIG.
図22において、画像処理装置301(図1Aの画像処理装置100に相当する)は、本実施例の画像処理方法をコンピュータに実行させるための画像処理ソフトウエア306を搭載したコンピュータ機器である。撮像機器302は、カメラ、顕微鏡、内視鏡、または、スキャナなどの撮像装置である。記憶媒体303は、半導体メモリ、ハードディスク、または、ネットワーク上のサーバなど、撮影画像を記憶した記憶手段である。 In FIG. 22, an image processing apparatus 301 (corresponding to the image processing apparatus 100 in FIG. 1A) is a computer device equipped with image processing software 306 for causing a computer to execute the image processing method of this embodiment. The imaging device 302 is an imaging device such as a camera, a microscope, an endoscope, or a scanner. The storage medium 303 is a storage unit that stores captured images, such as a semiconductor memory, a hard disk, or a server on a network.
画像処理装置301は、撮像機器302または記憶媒体303から撮影画像データを取得し、所定の画像処理を行った画像データを出力機器305、撮像機器302、記憶媒体303のいずれか一つまたは複数に出力する。また、その出力先を画像処理装置301に内蔵された記憶部に保存することもできる。出力機器305は、例えばプリンタである。また、ネットワークまたはCD−ROM307などの記憶媒体から画像処理ソフトウエア306を画像処理装置301にインストールすることもできる。 The image processing apparatus 301 acquires captured image data from the imaging device 302 or the storage medium 303, and outputs the image data subjected to predetermined image processing to one or more of the output device 305, the imaging device 302, and the storage medium 303. Output. Further, the output destination can be stored in a storage unit built in the image processing apparatus 301. The output device 305 is a printer, for example. Further, the image processing software 306 can be installed in the image processing apparatus 301 from a network or a storage medium such as a CD-ROM 307.
画像処理装置301には、モニタである表示機器304が接続されている。このため、ユーザは表示機器304を通して画像処理作業を行うとともに、補正された画像を評価することができる。画像処理ソフトウエア306は、本実施例の色にじみ補正処理(画像処理方法)を行うほか、必要に応じて現像やその他の画像処理を行う。 A display device 304 that is a monitor is connected to the image processing apparatus 301. Therefore, the user can perform the image processing work through the display device 304 and evaluate the corrected image. The image processing software 306 performs color blur correction processing (image processing method) of the present embodiment, and performs development and other image processing as necessary.
なお、本実施例における画像処理を行うためのデータの内容や機器間での受け渡しなどに関する情報(補正情報)については、個々の画像データに付帯させることが好ましい。必要な補正情報を画像データに付帯させることで、本実施例の画像処理装置を搭載した機器であれば、適切に本実施例の補正処理を行うことが可能である。また、撮影光学系の色にじみ発生方向に関する光学情報は、本実施例の画像処理装置を搭載した機器の記録部から読み出す方法だけでなく、ネットワークを介して取得してもよく、または、PC、カメラ、レンズなどから情報を取得するように構成することもできる。 It should be noted that information (correction information) related to the contents of data for image processing and the transfer between devices in this embodiment is preferably attached to individual image data. By adding necessary correction information to the image data, the correction processing of the present embodiment can be appropriately performed as long as the device is equipped with the image processing apparatus of the present embodiment. Further, the optical information regarding the color blur generation direction of the photographing optical system may be acquired through a network as well as a method of reading from a recording unit of a device equipped with the image processing apparatus of the present embodiment, or a PC, Information can be acquired from a camera, a lens, or the like.
次に、本発明の実施例3における撮像装置について説明する。本実施例の撮像装置は、倍率色収差の補正方法が実施例1の補正方法と異なる。具体的には、実施例1では、画像処理部204は、取得した画像(入力画像)から補正量を算出するのに対し、本実施例では、補正量に関する情報を記憶部(記憶手段)などに予め記憶しておき、その情報を補正時に読み出して補正を行う。本実施例における撮像装置の他の構成は、図22を参照して説明した実施例1の撮像装置200と同様であるため、その説明は省略する。 Next, an image pickup apparatus according to Embodiment 3 of the present invention will be described. The imaging apparatus according to the present embodiment is different from the correction method according to the first embodiment in the method for correcting the lateral chromatic aberration. Specifically, in the first embodiment, the image processing unit 204 calculates a correction amount from the acquired image (input image), whereas in the present embodiment, information on the correction amount is stored in a storage unit (storage unit) or the like. Are stored in advance, and the information is read out at the time of correction and corrected. The other configuration of the imaging apparatus in the present embodiment is the same as that of the imaging apparatus 200 of Embodiment 1 described with reference to FIG.
図30を参照して、本実施例における画像処理方法(画像処理プログラム)について説明する。図30の各ステップは、画像処理装置100(画像処理部204)の指令に基づいて、すなわち画像処理装置100の各手段により実行される。なお図30のステップS31、S33〜S37は、図1BのステップS1〜S6とそれぞれ同一であるため、それらの説明は省略する。 With reference to FIG. 30, an image processing method (image processing program) in the present embodiment will be described. Each step of FIG. 30 is executed based on a command from the image processing apparatus 100 (image processing unit 204), that is, by each unit of the image processing apparatus 100. Note that steps S31 and S33 to S37 of FIG. 30 are the same as steps S1 to S6 of FIG.
まずステップS31において、画像処理装置100(入力手段101)は、撮影画像(入力画像)を取得する。続いてステップS32において、画像処理装置100(補正手段102)は、記憶部(記憶手段107)に記憶されている倍率色収差の補正量に関する情報(倍率色収差補正情報)を取得する。記憶手段107に記憶されている補正量に関する情報は、チャートなどを用いて予め測定された情報であり、設計値の倍率色収差の量からの差分値(ずれ量)である。また補正量に関する情報は、測定した差分値であってもよいし、差分値に基づいて算出された近似値、または、補正時の補正を容易にするために加工された値を利用してもよい。また本実施例において、設計値の倍率色収差の量からの差分値を補正量としているが、これに限定されるものではなく、設計値の倍率色収差および非対称な倍率色収差の両方の情報を補正量として利用してもよい。 First, in step S31, the image processing apparatus 100 (input unit 101) acquires a captured image (input image). Subsequently, in step S32, the image processing apparatus 100 (correction unit 102) obtains information (magnification chromatic aberration correction information) related to the correction amount of the chromatic aberration of magnification stored in the storage unit (storage unit 107). The information regarding the correction amount stored in the storage unit 107 is information measured in advance using a chart or the like, and is a difference value (deviation amount) from the amount of lateral chromatic aberration of the design value. Further, the information on the correction amount may be a measured difference value, or an approximate value calculated based on the difference value or a value processed to facilitate correction at the time of correction may be used. Good. In the present embodiment, the difference value from the amount of chromatic aberration of magnification of the design value is used as the correction amount. However, the present invention is not limited to this, and information on both the chromatic aberration of magnification and the asymmetric magnification chromatic aberration is corrected. It may be used as
続いてステップS33において、補正手段102は、ステップS32にて取得した補正量に関する情報(倍率色収差補正情報)を用いて倍率色収差を補正する。取得した補正量に関する情報には、製造工程での発生する非対称な倍率色収差に関する情報が含まれているため、その情報に基づいて実施例1にて説明した補正処理を実施することで非対称性を低減することができる。以降のステップS34〜S37は、実施例1のステップS3〜S6とそれぞれ同様であるため、それらの説明は省略する。 Subsequently, in step S33, the correction unit 102 corrects the chromatic aberration of magnification using information (magnification chromatic aberration correction information) related to the correction amount acquired in step S32. Since the information on the acquired correction amount includes information on the asymmetric magnification chromatic aberration generated in the manufacturing process, the asymmetry can be reduced by performing the correction processing described in the first embodiment based on the information. Can be reduced. Subsequent steps S34 to S37 are the same as steps S3 to S6 of the first embodiment, respectively, and thus description thereof is omitted.
このように本実施例では、補正量に関する情報を事前に測定する必要があるが、倍率色収差の補正に関する情報を予め保持しておくことにより、取得画像に対する演算量を減らすことができる。このため、本実施例の構成によれば、処理の高速化や処理負荷の軽減が可能となる。なお本実施例において、補正手段102は、ステップS32にて設計値からの差分値を倍率色収差の補正情報として取得しているが、これに限定されるものではない。差分値に代えて倍率色収差そのものを測定して倍率色収差に関する情報を記憶部(記憶手段107)に保持し、その情報を倍率色収差の補正情報として用いてもよい。 As described above, in this embodiment, it is necessary to measure information on the correction amount in advance. However, if information on correction of lateral chromatic aberration is held in advance, the amount of calculation for the acquired image can be reduced. For this reason, according to the configuration of the present embodiment, it is possible to increase the processing speed and reduce the processing load. In this embodiment, the correction unit 102 acquires the difference value from the design value as correction information for the lateral chromatic aberration in step S32, but the present invention is not limited to this. Instead of the difference value, the chromatic aberration of magnification itself may be measured and information regarding the chromatic aberration of magnification may be stored in the storage unit (storage unit 107), and the information may be used as correction information for the chromatic aberration of magnification.
好ましくは、各実施例の倍率色収差を補正するステップにおいて、撮影画像から倍率色収差を検出し、検出された倍率色収差に基づいて倍率色収差の補正量を決定する。または、好ましくは、各実施例の倍率色収差を補正するステップにおいて、予め記憶された倍率色収差の補正情報に基づいて倍率色収差の補正量を決定する。 Preferably, in the step of correcting the lateral chromatic aberration of each embodiment, the lateral chromatic aberration is detected from the captured image, and the correction amount of the lateral chromatic aberration is determined based on the detected lateral chromatic aberration. Alternatively, preferably, in the step of correcting the chromatic aberration of magnification of each embodiment, the correction amount of the chromatic aberration of magnification is determined based on correction information of the chromatic aberration of magnification stored in advance.
好ましくは、倍率色収差を補正するステップにおいて、撮影光学系の設計値として含まれる第1の倍率色収差を補正する。また好ましくは、倍率色収差を補正するステップにおいて、撮影光学系の設計値からのずれに相当する第2の倍率色収差を補正する。 Preferably, in the step of correcting the lateral chromatic aberration, the first lateral chromatic aberration included as a design value of the photographing optical system is corrected. Preferably, in the step of correcting the lateral chromatic aberration, the second lateral chromatic aberration corresponding to a deviation from the design value of the photographing optical system is corrected.
また各実施例は、以下の処理を実行することによっても実現される。即ち、上述の機能を実現するソフトウエア(プログラム)を、ネットワーク又はCD−ROMなどの各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPU、MPUなど)がプログラムを読み出して実行する処理である。 Each embodiment is also realized by executing the following processing. That is, software (program) that realizes the above functions is supplied to a system or apparatus via various storage media such as a network or a CD-ROM, and a computer (CPU, MPU, etc.) of the system or apparatus executes the program. It is a process to read and execute.
各実施例によれば、倍率色収差補正後の画像に対して、各色プレーンの画素値の単調増加または単調減少判定と結像光学系の色にじみ発生方向の情報を用いて色にじみを補正することにより、カラー画像の色にじみを効果的に補正することが可能となる。このため各実施例によれば、カラー画像における色にじみを効果的に低減可能な画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体を提供することができる。 According to each embodiment, for the image after correcting the chromatic aberration of magnification, correcting the color blur using the monotonic increase or decrease determination of the pixel value of each color plane and the information on the color blur generation direction of the imaging optical system. Accordingly, it is possible to effectively correct the color blur of the color image. Therefore, according to each embodiment, it is possible to provide an image processing method, an image processing apparatus, an imaging apparatus, an image processing program, and a storage medium that can effectively reduce color bleeding in a color image.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
100 画像処理装置
102 補正手段
103 検出手段
104 判定手段
105 修正手段
100 Image processing apparatus 102 Correction unit 103 Detection unit 104 Determination unit 105 Correction unit
Claims (23)
前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出するステップと、
撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定するステップと、
前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正するステップと、を有することを特徴とする画像処理方法。 Correcting the chromatic aberration of magnification of the captured image;
Detecting a first region in which a level of a color signal or a luminance signal of a captured image in which the lateral chromatic aberration is corrected monotonously increases or decreases in a first direction in a predetermined section;
Determining a second area in which the color blur is generated based on optical information on the color blur of the photographing optical system and information on the first area;
An image processing method comprising: correcting a captured image in which the lateral chromatic aberration is corrected so as to reduce the color blur.
前記撮影画像から該倍率色収差を検出し、
検出された前記倍率色収差に基づいて該倍率色収差の補正量を決定することを特徴とする請求項1に記載の画像処理方法。 In the step of correcting the lateral chromatic aberration,
Detecting the lateral chromatic aberration from the captured image;
2. The image processing method according to claim 1, wherein a correction amount of the lateral chromatic aberration is determined based on the detected lateral chromatic aberration.
前記撮影画像のエッジ領域を検出するステップと、
前記エッジ領域における色ずれ量を取得するステップと、
前記エッジ領域の像高および前記色ずれ量に基づいて補正データを作成するステップと、
前記補正データを用いて前記第1の倍率色収差を補正するステップと、を有することを特徴とする請求項4に記載の画像処理方法。 The step of correcting the chromatic aberration of magnification includes
Detecting an edge region of the captured image;
Obtaining a color misregistration amount in the edge region;
Creating correction data based on the image height of the edge region and the color shift amount;
The image processing method according to claim 4, further comprising: correcting the first lateral chromatic aberration using the correction data.
前記撮影画像のエッジ領域を検出するステップと、
前記エッジ領域の色ずれ量に基づいて、前記撮影画像の複数の分割領域のそれぞれに対する第1の補正量を算出するステップと、
前記第1の補正量に基づいて算出された、前記撮影画像の中心に対する放射方向とは異なる方向の第2の補正量を用いて、前記第2の倍率色収差を補正するステップと、を有することを特徴とする請求項6に記載の画像処理方法。 The step of correcting the chromatic aberration of magnification includes
Detecting an edge region of the captured image;
Calculating a first correction amount for each of the plurality of divided regions of the captured image based on the color shift amount of the edge region;
Correcting the second lateral chromatic aberration using a second correction amount calculated based on the first correction amount and having a direction different from the radial direction with respect to the center of the captured image. The image processing method according to claim 6.
前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出する検出手段と、
撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定する判定手段と、
前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正する修正手段と、を有することを特徴とする画像処理装置。 Correction means for correcting the lateral chromatic aberration of the captured image;
Detecting means for detecting a first region in which a level of a color signal or a luminance signal of a captured image in which the magnification chromatic aberration is corrected monotonously increases or decreases in a first direction in a predetermined section;
Determination means for determining a second area where the color blur is generated based on optical information regarding color blur of the photographing optical system and information regarding the first area;
An image processing apparatus comprising: correction means for correcting a captured image in which the chromatic aberration of magnification is corrected so as to reduce the color blur.
前記撮影画像の倍率色収差を補正する補正手段と、
前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出する検出手段と、
撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定する判定手段と、
前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正する修正手段と、を有することを特徴とする撮像装置。 An image sensor that photoelectrically converts an optical image and outputs a captured image;
Correction means for correcting lateral chromatic aberration of the captured image;
Detecting means for detecting a first region in which a level of a color signal or a luminance signal of a captured image in which the magnification chromatic aberration is corrected monotonously increases or decreases in a first direction in a predetermined section;
Determination means for determining a second area where the color blur is generated based on optical information regarding color blur of the photographing optical system and information regarding the first area;
An image pickup apparatus comprising: correction means for correcting a captured image in which the chromatic aberration of magnification is corrected so as to reduce the color blur.
前記倍率色収差を補正した撮影画像の色信号または輝度信号のレベルが所定の区間において第1の方向に単調増加または単調減少している第1の領域を検出するステップと、
撮影光学系の色にじみに関する光学情報および前記第1の領域に関する情報に基づいて、該色にじみが発生している第2の領域を判定するステップと、
前記色にじみを低減するように、前記倍率色収差を補正した撮影画像を修正するステップと、をコンピュータに実行させるように構成されていることを特徴とする画像処理プログラム。 Correcting the chromatic aberration of magnification of the captured image;
Detecting a first region in which a level of a color signal or a luminance signal of a captured image in which the lateral chromatic aberration is corrected monotonously increases or decreases in a first direction in a predetermined section;
Determining a second area in which the color blur is generated based on optical information on the color blur of the photographing optical system and information on the first area;
An image processing program configured to cause a computer to execute a step of correcting a captured image in which the magnification chromatic aberration is corrected so as to reduce the color blur.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014106400A JP6415108B2 (en) | 2014-05-22 | 2014-05-22 | Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium |
US14/507,207 US9438771B2 (en) | 2013-10-08 | 2014-10-06 | Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium |
EP14187886.8A EP2860974B1 (en) | 2013-10-08 | 2014-10-07 | Image processing apparatus, image pickup apparatus, image pickup system, image processing method, image processing program, and storage medium |
CN201410524471.2A CN104519329B (en) | 2013-10-08 | 2014-10-08 | Image processing apparatus, image pickup apparatus, image pickup system and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014106400A JP6415108B2 (en) | 2014-05-22 | 2014-05-22 | Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015222870A true JP2015222870A (en) | 2015-12-10 |
JP6415108B2 JP6415108B2 (en) | 2018-10-31 |
Family
ID=54785700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014106400A Active JP6415108B2 (en) | 2013-10-08 | 2014-05-22 | Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6415108B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017118293A (en) * | 2015-12-24 | 2017-06-29 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
JP2018019272A (en) * | 2016-07-28 | 2018-02-01 | キヤノン株式会社 | Image processing device, imaging apparatus, image processing method, and image processing program |
US10116836B2 (en) | 2016-04-18 | 2018-10-30 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, lens apparatus, image processing method, and non-transitory computer-readable storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009260620A (en) * | 2008-04-16 | 2009-11-05 | Canon Inc | Image processing apparatus and method |
JP2010177832A (en) * | 2009-01-28 | 2010-08-12 | Nikon Corp | Image processing apparatus and image processing method |
US20110158514A1 (en) * | 2009-12-30 | 2011-06-30 | Altek Corporation | Method for removing color fringe in digital image |
JP2012191607A (en) * | 2011-02-21 | 2012-10-04 | Canon Inc | Image processing system, image processing method and program |
JP2013051598A (en) * | 2011-08-31 | 2013-03-14 | Canon Inc | Image processing device and image processing method |
-
2014
- 2014-05-22 JP JP2014106400A patent/JP6415108B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009260620A (en) * | 2008-04-16 | 2009-11-05 | Canon Inc | Image processing apparatus and method |
JP2010177832A (en) * | 2009-01-28 | 2010-08-12 | Nikon Corp | Image processing apparatus and image processing method |
US20110158514A1 (en) * | 2009-12-30 | 2011-06-30 | Altek Corporation | Method for removing color fringe in digital image |
JP2012191607A (en) * | 2011-02-21 | 2012-10-04 | Canon Inc | Image processing system, image processing method and program |
JP2013051598A (en) * | 2011-08-31 | 2013-03-14 | Canon Inc | Image processing device and image processing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017118293A (en) * | 2015-12-24 | 2017-06-29 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
US10116836B2 (en) | 2016-04-18 | 2018-10-30 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, lens apparatus, image processing method, and non-transitory computer-readable storage medium |
JP2018019272A (en) * | 2016-07-28 | 2018-02-01 | キヤノン株式会社 | Image processing device, imaging apparatus, image processing method, and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP6415108B2 (en) | 2018-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8692909B2 (en) | Image processing device and image pickup device using the same | |
JP6327922B2 (en) | Image processing apparatus, image processing method, and program | |
JP6525718B2 (en) | Image processing apparatus, control method therefor, and control program | |
JP5284537B2 (en) | Image processing apparatus, image processing method, image processing program, and imaging apparatus using the same | |
US9438771B2 (en) | Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium | |
KR101536162B1 (en) | Image processing apparatus and method | |
US8724008B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and program for performing image restoration | |
JP2014027570A (en) | Image processing method, image processing program, image processor and imaging device | |
WO2011121763A1 (en) | Image processing apparatus and image capturing apparatus using same | |
JP6415108B2 (en) | Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium | |
JP5653464B2 (en) | Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium | |
US10810714B2 (en) | Image restoration processing utilizing settings for image correction | |
JP5950949B2 (en) | Image processing apparatus, image processing method, and program | |
JP2012156715A (en) | Image processing device, imaging device, image processing method, and program | |
JP6436840B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP5645981B2 (en) | Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium | |
JP6238673B2 (en) | Image processing apparatus, imaging apparatus, imaging system, image processing method, image processing program, and storage medium | |
JP6604737B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP6486076B2 (en) | Image processing apparatus and image processing method | |
JP2017118293A (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP2017092800A (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
WO2011121761A1 (en) | Image processing apparatus and image capturing apparatus using same | |
JP2017224906A (en) | Image processing method, imaging apparatus using the same, image processing system, and image processing program | |
JP6452389B2 (en) | Image processing apparatus and image processing method | |
JP2015170928A (en) | image processing apparatus, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181002 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6415108 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |