JP2007028040A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2007028040A
JP2007028040A JP2005205354A JP2005205354A JP2007028040A JP 2007028040 A JP2007028040 A JP 2007028040A JP 2005205354 A JP2005205354 A JP 2005205354A JP 2005205354 A JP2005205354 A JP 2005205354A JP 2007028040 A JP2007028040 A JP 2007028040A
Authority
JP
Japan
Prior art keywords
image
processing apparatus
color
image processing
color component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005205354A
Other languages
Japanese (ja)
Other versions
JP4945942B2 (en
Inventor
Kenichi Ishiga
健一 石賀
Akihiko Utsuki
暁彦 宇津木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005205354A priority Critical patent/JP4945942B2/en
Priority to PCT/JP2006/314073 priority patent/WO2007007878A1/en
Priority to US11/988,443 priority patent/US8233710B2/en
Publication of JP2007028040A publication Critical patent/JP2007028040A/en
Priority to US13/303,934 priority patent/US8509533B2/en
Application granted granted Critical
Publication of JP4945942B2 publication Critical patent/JP4945942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To execute chromatic aberration correction of an image picked up through an optical system. <P>SOLUTION: A control apparatus 111 obtains information about a difference in an MTF (modulation transfer function) characteristic between an omitted color component and a reference color component, in a first image in which at least one of a plurality of color components is omitted in one of pixels picked up by an image pickup element 102 through a lens 101, and the MTF characteristic is different between the reference color component and at least another omitted color component in an image pickup surface. The apparatus 111 uses the obtained information to generate a second image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、光学系を通して撮像された画像を補正する画像処理装置に関する。   The present invention relates to an image processing apparatus that corrects an image captured through an optical system.

次のような色収差補正装置が特許文献1によって知られている。この色収差補正装置では、3色が揃ったカラー画像に対して、RGB面撮像素子の配置傾きによって生じたRGB間の焦点ずれを、基準色面に対して他の色面に平滑化ないしは鮮鋭化フィルタを掛けて、色面間の相関が最大となるように可変フィルタのパラメータを探索して補正する。   The following chromatic aberration correction apparatus is known from Patent Document 1. In this chromatic aberration correction device, for a color image in which three colors are aligned, the defocus between RGB caused by the arrangement inclination of the RGB plane image sensor is smoothed or sharpened to another color plane with respect to the reference color plane. A filter is applied to search and correct the variable filter parameters so that the correlation between the color planes is maximized.

特開2001−103358号公報JP 2001-103358 A

しかしながら、このような技術をベイア配列のような単板撮像素子の軸上色収差補正技術に当てはめようとすると、所定の補間アルゴリズムを使って一旦3色が揃ったカラー画像にしてからRGB面間で色毎の焦点ボケに関する相関をみる必要がある。そのため、補間アルゴリズムの種類によっては画像構造に伴った偽色の発生のほうが軸上色収差による色滲み発生量を上回って検知できない状態になっているものや、偽色抑制のためのフィルタリングが多用された場合には、軸上色収差の局所色滲みが大きく広がり、当初のMTF状態とは全く異なるMTF状態に復元されてしまっているものなど、各種補間アルゴリズムの影響を受けやすく安定的に軸上色収差を補正し得ない可能性があるという問題が生じていた。   However, if such a technique is applied to the on-axis chromatic aberration correction technique of a single-plate image sensor such as a Bayer array, a predetermined interpolation algorithm is used to form a color image in which three colors are aligned, and then between RGB planes. It is necessary to see the correlation regarding the defocusing for each color. Therefore, depending on the type of interpolation algorithm, the generation of false color associated with the image structure is more difficult to detect than the amount of color blur due to axial chromatic aberration, and filtering for false color suppression is often used. In such a case, the local chromatic aberration of axial chromatic aberration spreads greatly, and the axial chromatic aberration is stable and easily affected by various interpolation algorithms such as those restored to an MTF state completely different from the original MTF state. There has been a problem that it may not be possible to correct.

請求項1の発明は、光学系を通して撮像され、1つの画素に複数の色成分の少なくとも1つが欠落し、撮像面において基準色成分と少なくとも他の1つの欠落色成分との間でMTF特性が異なる第1の画像をMTF特性が整合した第2の画像に変換する画像処理装置であって、第1の画像の欠落色成分を有する画素において、欠落色成分と基準色成分との間のMTF特性の違いに関する情報を求め、求めた情報を使用して第2の画像を生成する画像生成手段を備えることを特徴とする。
請求項2の発明は、請求項1に記載の画像処理装置において、画像生成手段は、求めた情報を使用して、欠落色成分を基準色成分のMTF特性に整合させるように補正しながら、各画素に少なくとも1つの欠落色成分を補間した第2の画像を生成することを特徴とする。
請求項3の発明は、請求項1に記載の画像処理装置において、画像生成手段は、求めた情報を使用して、第1の画像の欠落色成分のMTF特性を基準色成分のMTF特性に整合させるように補正して、第1の画像と色成分の配列が同じ第2の画像を生成することを特徴とする。
請求項4の発明は、請求項3に記載の画像処理装置において、第2の画像の欠落色成分を補間する補間手段をさらに備えることを特徴とする。
請求項5の発明は、請求項2〜4のいずれか一項に記載の画像処理装置において、画像生成手段は、基準色成分を第1の画像のMTF特性が異なる少なくとも1つの欠落色成分のMTF特性に近づけるように基準色成分を有する画素を平滑化する平滑化手段を含み、平滑化手段によって平滑化された結果に基づいて、第1の画像の欠落色成分のMTF特性を基準色成分のMTF特性に整合させることを特徴とする。
請求項6の発明は、請求項5に記載の画像処理装置において、平滑化手段は、第2の画像の生成に使用する色差成分を生成するため、第1の画像の基準色成分に対して平滑化処理を行い、第2の画像の生成に使用する輝度成分を生成するための第1の画像の基準色成分に対しては平滑化処理を行わないことを特徴とする。
請求項7の発明は、請求項1に記載の画像処理装置において、第1の画像の基準色成分として、第1の画像の輝度情報を担う色成分を対応させることを特徴とする。
請求項8の発明は、請求項1に記載の画像処理装置において、第1の画像の基準色成分として、第1の画像の最も高密度に配置された色成分を対応させることを特徴とする。
請求項9の発明は、請求項1に記載の画像処理装置において、MTF特性の違いに関する情報を、撮像時の光学系の状態に関する外部情報に基づいて決定することを特徴とする。
請求項10の発明は、請求項9に記載の画像処理装置において、撮影時の光学系の状態に関する外部情報は、撮像時に使用されたレンズ種、ズーム位置、フォーカス位置、絞り値、および画面内のフォーカス位置の少なくとも1つの情報を含むことを特徴とする。
請求項11の発明は、請求項5または6に記載の画像処理装置において、平滑化手段は、画素ごとにそれぞれ平滑化の度合いを決定することを特徴とする。
請求項12の発明は、請求項5または6に記載の画像処理装置において、平滑化手段は、複数の画素にまたがって共通の平滑化の度合いを決定することを特徴とする。
請求項13の発明は、請求項6に記載の画像処理装置において、平滑化手段は、1つの画素に対して異なる色情報を表す複数種類の色差成分を生成するとき、各々の種類の色差成分を構成する第1の画像の色成分毎に、平滑化処理の平滑化の度合いを決定することを特徴とする。
According to the first aspect of the present invention, an image is picked up through an optical system, and at least one of a plurality of color components is missing in one pixel, and an MTF characteristic is present between the reference color component and at least one other missing color component on the imaging surface. An image processing apparatus for converting a different first image into a second image having matched MTF characteristics, wherein an MTF between a missing color component and a reference color component in a pixel having a missing color component of the first image It is characterized by comprising image generation means for obtaining information relating to the difference in characteristics and generating a second image using the obtained information.
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the image generating means uses the obtained information to correct the missing color component to match the MTF characteristic of the reference color component, A second image in which at least one missing color component is interpolated for each pixel is generated.
According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the image generation means uses the obtained information to change the MTF characteristic of the missing color component of the first image to the MTF characteristic of the reference color component. The second image having the same color component arrangement as that of the first image is generated by performing correction so as to be matched.
According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect of the present invention, the image processing apparatus further includes an interpolation unit that interpolates the missing color component of the second image.
According to a fifth aspect of the present invention, in the image processing device according to any one of the second to fourth aspects, the image generation means uses the reference color component as at least one missing color component having a different MTF characteristic of the first image. Smoothing means for smoothing pixels having the reference color component so as to approximate the MTF characteristic, and based on the result of smoothing by the smoothing means, the MTF characteristic of the missing color component of the first image is determined as the reference color component It is characterized by matching to the MTF characteristics of
According to a sixth aspect of the present invention, in the image processing apparatus according to the fifth aspect, since the smoothing means generates the color difference component used for generating the second image, the smoothing means generates a reference color component for the first image. The smoothing process is performed, and the smoothing process is not performed on the reference color component of the first image for generating the luminance component used for generating the second image.
According to a seventh aspect of the present invention, in the image processing apparatus according to the first aspect, a color component bearing luminance information of the first image is associated with the reference color component of the first image.
According to an eighth aspect of the present invention, in the image processing apparatus according to the first aspect, as the reference color component of the first image, the color component arranged at the highest density of the first image is made to correspond. .
According to a ninth aspect of the present invention, in the image processing apparatus according to the first aspect, information relating to the difference in MTF characteristics is determined based on external information relating to the state of the optical system at the time of imaging.
According to a tenth aspect of the present invention, in the image processing apparatus according to the ninth aspect, the external information relating to the state of the optical system at the time of shooting includes the lens type, zoom position, focus position, aperture value, and in-screen used at the time of shooting. It includes at least one piece of information on the focus position.
The invention of claim 11 is the image processing apparatus according to claim 5 or 6, wherein the smoothing means determines the degree of smoothing for each pixel.
According to a twelfth aspect of the present invention, in the image processing apparatus according to the fifth or sixth aspect, the smoothing means determines a common smoothing level across a plurality of pixels.
According to a thirteenth aspect of the present invention, in the image processing apparatus according to the sixth aspect, when the smoothing means generates a plurality of types of color difference components representing different color information for one pixel, each type of color difference component The degree of smoothing of the smoothing process is determined for each color component of the first image that constitutes.

本発明によれば、補間処理を経たカラー画像ではなく、補間処理を施す前のカラー画像、すなわち1つの画素に複数の色成分の少なくとも1つが欠落した状態の画像ままで、MTFを整合させるため、補間処理アルゴリズムの影響を受けずに安定的に精度よく軸上色収差を補正することができる。   According to the present invention, not the color image that has undergone the interpolation process, but the color image before the interpolation process, that is, the image in which at least one of a plurality of color components is missing from one pixel is maintained. Thus, axial chromatic aberration can be corrected stably and accurately without being affected by the interpolation processing algorithm.

―第1の実施の形態―
第1の実施の形態では、軸上色収差に関する光学系情報は全く持たずに画像自身の中から自己検出して補正する方式を示す。横方向の収差である倍率色収差の自己検出法は、空間方向のRGB面間の類似性を測ることで比較的行いやすいが、縦方向の収差である軸上色収差の自己検出法として、何を指標とすればよいのか自明ではないので、その手法を示す。それにより同一レンズ状態でも被写体距離によって変化する軸上色収差にも対応することができる。すなわち、無限遠焦点の風景写真で手前の被写体が赤かぶり、遠方の被写体が青かぶりになるような状況や、至近撮影でレンズピント位置に対して被写体位置のセンチメートルオーダーの前後配置関係による急激な軸上色収差の応答変化が起きるような状況にも対応することができる。
-First embodiment-
In the first embodiment, there is shown a method for correcting by self-detecting from an image itself without having any optical system information regarding axial chromatic aberration. The self-detection method of lateral chromatic aberration, which is a lateral aberration, is relatively easy to measure by measuring the similarity between the RGB planes in the spatial direction, but what is a self-detection method for longitudinal chromatic aberration, which is a longitudinal aberration? Since it is not obvious whether it should be used as an indicator, the method is shown. As a result, it is possible to cope with axial chromatic aberration that varies depending on the subject distance even in the same lens state. In other words, in a landscape photograph with an infinite focus, the subject in the foreground is red-fogged and the subject in the distance is blue-fogged, or in a close-up shooting due to the centimeter-order relationship of the subject position relative to the lens focus position. It is possible to cope with a situation in which a change in response of a longitudinal chromatic aberration occurs.

図1は、第1の実施の形態における画像処理装置をデジタルカメラに搭載した場合の一実施の形態の構成を示すブロック図である。デジタルカメラ100は、レンズ101と、CCDなどで構成される撮像素子102と、画像処理装置110とを備えている。撮像素子102においては、例えば、単板式カラー撮像素子の最も代表的なR(赤)、G(緑)、B(青)のカラーフィルタがBayer配列されている。この撮像素子102で撮像される画像データはRGB表色系で示されるものとし、画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在しているものとする。すなわちBayer画像であるものとする。   FIG. 1 is a block diagram showing a configuration of an embodiment when the image processing apparatus according to the first embodiment is mounted on a digital camera. The digital camera 100 includes a lens 101, an image sensor 102 composed of a CCD or the like, and an image processing device 110. In the image sensor 102, for example, the most representative R (red), G (green), and B (blue) color filters of a single-plate color image sensor are arranged in a Bayer array. The image data captured by the image sensor 102 is assumed to be expressed in the RGB color system, and color information of any one color component of RGB exists in each pixel constituting the image data. To do. That is, it is assumed that the image is a Bayer image.

画像処理装置110は、CPUやその他周辺回路を含み、後述する画像処理を実行する制御装置111と、撮像素子102によって撮像された画像を格納する画像メモリ112と、画像処理後の画像を表示するモニタ113とを備えている。このデジタルカメラにおいては、レンズ101を通して撮像素子102で撮像されたBayer画像の画像データは、制御装置111によってA/D変換されてデジタル信号に変換され、画像メモリ112に記憶される。   The image processing device 110 includes a CPU and other peripheral circuits, and displays a control device 111 that executes image processing to be described later, an image memory 112 that stores an image captured by the image sensor 102, and an image after image processing. And a monitor 113. In this digital camera, Bayer image data captured by the image sensor 102 through the lens 101 is A / D converted by the control device 111 to be converted into a digital signal, and stored in the image memory 112.

このように撮像素子102によって撮像され、画像メモリに記憶された画像データにおいては、軸上色収差に伴う色滲みが発生している可能性がある。すなわち、無彩色の黒線被写体を撮像した場合に、軸上色収差がない場合には、図2(a)に示すようなRGBの各成分にぼけ信号は発生しないが、例えば、結像面においてR成分に大きな軸上色収差がある場合には、図2(b)に示すようにR成分にぼけ信号が発生する。すなわち、G成分とB成分の信号は鮮明な色成分信号であるのに対して、R成分の信号はぼけた色成分信号となっている。   As described above, in the image data picked up by the image pickup device 102 and stored in the image memory, there is a possibility that color blur accompanying axial chromatic aberration has occurred. That is, when an achromatic black line subject is imaged and there is no axial chromatic aberration, no blur signal is generated in each RGB component as shown in FIG. When there is a large axial chromatic aberration in the R component, a blur signal is generated in the R component as shown in FIG. That is, the G component and B component signals are clear color component signals, while the R component signal is a blurred color component signal.

この場合、R成分に発生したぼけ信号が、黒線被写体位置に回り込んで赤だけ浮き上がるので全体的に赤っぽい線として撮像され、特に黒線被写体のエッジ部近辺では赤滲みが発生する。なお、B成分に大きな軸上色収差がある場合は、青滲みが発生し、RとB共に大きな軸上色収差がある場合は、マゼンタ滲みが発生する。   In this case, the blur signal generated in the R component wraps around the black line subject position and floats only by red, so that it is captured as a reddish line as a whole, and red blurring occurs particularly near the edge of the black line subject. When the B component has a large axial chromatic aberration, blue blur occurs. When both R and B have a large axial chromatic aberration, magenta blur occurs.

このような画像は、一般にBayer配列のような単板撮像素子を利用して撮像され、欠落色成分を補間するので、補間アルゴリズム依存性が生じて状況はより複雑になるが、高性能なアルゴリズムほど忠実に軸上色収差を再現してしまうことが多い。そこで、本実施の形態では、補間アルゴリズム依存のないBayer配列の状態のままで鮮鋭感を損なわないように輝度成分は従来のまま補間し、色差成分の生成において色成分間のMTF特性の違いをぼけた側に合わせる変換を行ってから従来の色差成分生成処理を行うようにして、軸上色収差に伴う色滲みの発生を防ぐ。   Such an image is generally captured using a single-plate image sensor such as a Bayer array, and the missing color component is interpolated. Therefore, the dependency on the interpolation algorithm occurs and the situation becomes more complicated, but a high-performance algorithm In many cases, axial chromatic aberration is reproduced as faithfully as possible. Therefore, in this embodiment, the luminance component is interpolated as it is so as not to impair the sharpness in the Bayer array state that does not depend on the interpolation algorithm, and the difference in MTF characteristics between the color components is generated in the generation of the color difference component. The conventional color-difference component generation processing is performed after the conversion to match the blurred side to prevent the occurrence of color blur due to axial chromatic aberration.

ここで、無彩色の黒線被写体を撮像した場合に、上述したような軸上色収差による色滲みが発生する原理について説明する。光学系を通して無彩色の黒線被写体を撮像したとき、軸上色収差が無い場合には、図3(a)に示すように撮像面でRGB各成分の焦点が一致している状態である。すなわち図3(b)に示すように、RGB各成分のMTF特性が整合している状態である。これに対して、R成分に軸上色収差がある場合には、図3(c)に示すようにR成分のみ焦点が撮像面からずれており、図3(d)に示すように、撮像面におけるMTF特性の不整合が生じている状態である。   Here, a description will be given of the principle of occurrence of color blur due to axial chromatic aberration as described above when an achromatic black line subject is imaged. When an achromatic black line subject is imaged through the optical system, if there is no longitudinal chromatic aberration, the RGB components are in focus on the imaging surface as shown in FIG. That is, as shown in FIG. 3B, the MTF characteristics of the RGB components are matched. On the other hand, when there is axial chromatic aberration in the R component, only the R component is defocused from the imaging surface as shown in FIG. 3C, and as shown in FIG. This is a state in which there is a mismatch in MTF characteristics.

第1の実施の形態においては、制御装置111は、RGBいずれかの色成分に軸上色収差があり、これに伴って色滲みが生じた場合に、各色成分間のMTF特性の不整合を補正して、軸上色収差に伴う色滲みを解消する。すなわち各色成分のMTF特性を一致させる、または近づけることによって整合させて、軸上色収差を解消する。具体的には、次のような原理によって軸上色収差に伴う色滲みを解消する。   In the first embodiment, the control device 111 corrects an inconsistency in the MTF characteristics between the color components when any one of the RGB color components has axial chromatic aberration and color blur is caused accordingly. Thus, the color blur caused by the longitudinal chromatic aberration is eliminated. That is, the axial chromatic aberration is eliminated by matching the MTF characteristics of the respective color components by matching or bringing them close to each other. Specifically, the color blur accompanying axial chromatic aberration is eliminated by the following principle.

例えば、RGBの各成分の信号レベルが、図4(a)〜(c)の各図に示すような画像に対しては、R成分やB成分のようなぼけた色成分信号のMTF特性を、G成分のような鮮明な色成分信号のMTF特性を利用して鮮鋭化してMTFを整合させる。このために、まず、鮮明な色成分信号を基準色成分として、当該基準色成分のMTF特性を、ぼけた色成分信号のMTF特性に近づける、または一致するように平滑化してぼかす。すなわち、図4に示す例では、G成分のMTF特性を、R成分、およびB成分のそれぞれのMTF特性に近づけるように平滑化する。   For example, with respect to an image in which the signal level of each RGB component is as shown in each of FIGS. 4A to 4C, the MTF characteristics of the blurred color component signal such as the R component and the B component are shown. The MTF is matched by sharpening using the MTF characteristic of a clear color component signal such as the G component. For this purpose, first, the clear color component signal is used as a reference color component, and the MTF characteristic of the reference color component is smoothed and blurred so as to approach or match the MTF characteristic of the blurred color component signal. That is, in the example illustrated in FIG. 4, the MTF characteristics of the G component are smoothed so as to approach the MTF characteristics of the R component and the B component.

その結果、図4(d)に示すようなG成分のMTF特性をR成分のMTF特性に近づけるように強くぼかした<G>と、図4(e)に示すようなG成分のMTF特性をB成分のMTF特性に近づけるように弱くぼかした<G>とを得る。そして、図4(f)に示すように、色差成分Cr、Cbを、R成分およびB成分のそれぞれに対応して平滑化したG成分、すなわち<G>および<G>を用いて生成する。 As a result, MTF characteristics of the G component as shown in the MTF characteristics of the G component as shown in FIG. 4 (d) blurred strongly closer to the MTF characteristics of the R component and <G> strong, FIG 4 (e) <G> Weak is obtained by weakly blurring so as to approach the MTF characteristics of the B component. Then, as shown in FIG. 4 (f), the color difference components Cr and Cb are generated using the smoothed G components corresponding to the R component and the B component, that is, <G> strong and <G> weak. To do.

その後、生成した色差成分CrおよびCbと、平滑化を行っていない元のG成分とに基づいてRGB表色系に戻せば、R、G、B各成分のMTF特性をG成分のMTF特性になぞらえるようにして一致させる、または近づけることが可能となり、整合がとれる。換言すれば、R成分およびB成分のそれぞれに、G成分と、異なる平滑化度合いでG成分を平滑化して得た<G>および<G>のそれぞれとの差分とを加えることによって、R、B各成分のMTF特性を、鮮明なG成分のMTF特性に整合させることができる。 Then, if the RGB color system is restored based on the generated color difference components Cr and Cb and the original G component that has not been smoothed, the MTF characteristics of the R, G, and B components are changed to the MTF characteristics of the G component. They can be matched or brought close to each other so that they can be matched. In other words, by adding to each of the R component and the B component the difference between the G component and each of the <G> strong and <G> weak obtained by smoothing the G component with different smoothing degrees, The MTF characteristics of the R and B components can be matched with the clear GTF MTF characteristics.

すなわち、R成分は次式(1)により、B成分は次式(2)によりそれぞれ補正することによって、MTF特性が高い他の色成分(G成分)を利用して、R、Bの各成分の軸上色収差を補正することが可能になる。
R´=R+(G−<G>) ・・・(1)
B´=B+(G―<G>) ・・・(2)
That is, the R component is corrected by the following equation (1), the B component is corrected by the following equation (2), and the other components (G component) having a high MTF characteristic are used to correct the R and B components. It is possible to correct the longitudinal chromatic aberration.
R ′ = R + (G− <G> strong ) (1)
B '= B + (G- <G> weak ) (2)

このように、MTF特性が低い色成分のみからでは回復し得ない微細構造情報を、MTF特性が高い他の色成分を利用して復元することによって、従来にない高精細な軸上色収差補正が可能となる。さらに、色差成分のみに対してMTF整合のための平滑化を経た色信号を用いて軸上色収差補正を行い、軸上色収差の影響が目立たない輝度成分は、元の平滑化のなされていない色信号を用いて生成するので、鮮鋭感を維持した画像構造破壊性の少ない補正が可能となる。   In this way, by reconstructing fine structure information that cannot be recovered from only a color component having a low MTF characteristic by using another color component having a high MTF characteristic, high-precision axial chromatic aberration correction that has not been conventionally possible can be achieved. It becomes possible. Further, axial chromatic aberration correction is performed using color signals that have undergone smoothing for MTF matching for only the chrominance component, and luminance components that are not conspicuous by the axial chromatic aberration are the unsmoothed color components. Since the image is generated using the signal, it is possible to perform correction with less image structure destructiveness while maintaining sharpness.

以下、各色成分間のMTF特性の不整合を補正して、軸上色収差に伴う色滲みを解消する処理について具体的に説明する。   Hereinafter, a process for correcting the mismatch of the MTF characteristics between the color components and eliminating the color blur due to the longitudinal chromatic aberration will be described in detail.

(1−1)Bayerの画像入力
まず、撮像素子102で撮像されたBayer画像を画像メモリ112から読み込んで、画像処理の対象とする。なお、Bayer画像の各画素[i,j]には、図5に示すように、R、G、Bのいずれかの色成分の色情報、すなわち色成分値(CCDの信号値に対応する値)が存在する。また、[i,j]は画素位置を示す座標である。
(1-1) Bayer Image Input First, a Bayer image captured by the image sensor 102 is read from the image memory 112 and set as an image processing target. As shown in FIG. 5, each pixel [i, j] of the Bayer image has color information of any color component of R, G, B, that is, a color component value (a value corresponding to a CCD signal value). ) Exists. [I, j] is a coordinate indicating the pixel position.

(1−2)方向判定
従来の補間処理と同様にBayer画像を用いてR/B画素位置に於ける類似性の方向判定を行う。なお、第1の実施の形態では、次に説明するように、一般的な公知の手法により方向判定を行う。
(1-2) Direction Determination Similarity determination at the R / B pixel position is performed using the Bayer image as in the conventional interpolation process. In the first embodiment, as will be described below, direction determination is performed by a general known method.

(1−2−1)類似度の算出
次式(3)および(4)により、R,B位置についてそれぞれ縦方向の類似度Cv[i,j]、横方向の類似度Ch[i,j]を算出する。
Cv[i,j]={(|G[i,j-1]-Z[i,j]|+|G[i,j+1]-Z[i,j]|)/2+|G[i,j-1]-G[i,j+1]|}/2 ・・・(3)
Ch[i,j]={(|G[i-1,j]-Z[i, j]|+|G[i+1,j]-Z[i,j]|)/2+|G[i-1,j]-G[i+1,j]|}/2 ・・・(4)
なお、式(3)および(4)において、ZはRまたはBを表す。
(1-2-1) Calculating Similarity According to the following equations (3) and (4), the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j for the R and B positions, respectively. ] Is calculated.
Cv [i, j] = {(| G [i, j-1] -Z [i, j] | + | G [i, j + 1] -Z [i, j] |) / 2 + | G [i, j-1] -G [i, j + 1] |} / 2 (3)
Ch [i, j] = {(| G [i-1, j] -Z [i, j] | + | G [i + 1, j] -Z [i, j] |) / 2 + | G [i-1, j] -G [i + 1, j] |} / 2 (4)
In the formulas (3) and (4), Z represents R or B.

(1−2−2)類似性判定
次に、次の条件式(5)に基づいて、類似度を比較して方向指標に変換する。
If |Cv[i,j]-Ch[i,j]|=<Th1 THEN HV[i,j]=0 → 縦横類似性不明
else if Cv[i,j]<Ch[i, j] THEN HV[i,j]=1 → 縦類似
else HV[i,j]= -1 THEN 横類似 ・・・(5)
なお、閾値Th1は256階調のときは10前後の値をとり、画像のノイズが多いときはさらに高めに設定する。
(1-2-2) Similarity Determination Next, based on the following conditional expression (5), the similarities are compared and converted into direction indicators.
If | Cv [i, j] -Ch [i, j] | = <Th1 THEN HV [i, j] = 0 → Vertical / horizontal similarity unknown
else if Cv [i, j] <Ch [i, j] THEN HV [i, j] = 1 → vertical similarity
else HV [i, j] = -1 THEN Lateral Similarity (5)
The threshold value Th1 takes a value of around 10 when there are 256 gradations, and is set higher when there is a lot of image noise.

(1−3)複数通りのぼかしBayer画像作成
RGB色成分間のMTF整合を行うため、各色成分に対して複数通りのぼかし画像を生成する。ただし、この実施形態ではBayer配列で輝度を表すG成分の配置密度が高いので、R,B成分のMTFは元々Bayerサンプリングに伴って劣っていると考えられ、可能性としてG成分について複数通りのぼかし(平滑化)を行えばよい。したがって、図6に示すような代表的な弱い平滑化フィルタ(図6(a))と強い平滑化フィルタ(図6(b))を用いてG成分について2通りのぼかし画像を生成する。なお、もっと細かくたくさんのぼかし方を用意してもよいし、原画像とこれらによるぼかし画像の線形結合で中間状態を考えてもよい。
(1-3) Creation of Plural Blur Bayer Images In order to perform MTF matching between RGB color components, a plurality of blur images are generated for each color component. However, in this embodiment, since the arrangement density of the G component representing luminance in the Bayer array is high, it is considered that the MTF of the R and B components is originally inferior with the Bayer sampling. What is necessary is just to perform blurring (smoothing). Therefore, two types of blurred images are generated for the G component using a typical weak smoothing filter (FIG. 6A) and a strong smoothing filter (FIG. 6B) as shown in FIG. It should be noted that more detailed methods of blurring may be prepared, or an intermediate state may be considered by linear combination of the original image and the blurred image by these.

このように図6に示す2種類の平滑化フィルタを用いてぼかし画像を生成し、図7(a)に示す「Bayer0:ぼかしなし画像」、図7(b)に示す「Bayer1:ぼかし弱画像」(図6(a)に示した弱い平滑化フィルタを用いてぼかした画像)、および図7(c)に示す「Bayer2:ぼかし強画像」(図6(b)に示した強い平滑化フィルタを用いてぼかした画像)の3種類のBayer画像を得る。すなわち、ぼかしを行わない場合を含めた複数の平滑化の度合いで平滑化を行う。   In this way, a blurred image is generated using the two types of smoothing filters shown in FIG. 6, and “Bayer0: unblurred image” shown in FIG. 7A and “Bayer1: blurred image weakly” shown in FIG. 7B. (Image blurred using the weak smoothing filter shown in FIG. 6A), and “Bayer 2: blur strong image” shown in FIG. 7C (strong smoothing filter shown in FIG. 6B) 3 types of Bayer images are obtained. That is, smoothing is performed at a plurality of smoothing levels including the case where no blurring is performed.

(1−4)ぼかし組み合せによる複数通りの仮色差面生成
(1−3)で得た各ぼかし画像における3通りのG面を使用して、各画素に3通りの色差面であるCr面とCb面を作成する。すなわち、BayerのR信号とG、G'、G"信号に基づいて作ったCr面をそれぞれCr0,Cr1,Cr2とし、BayerのB信号とG、G'、G"信号に基づいて作ったCb面をそれぞれCb0、Cb1、Cb2として、3通りのCr面、および3通りのCb面を作成する。次式(6)〜(11)は、これらのCr0,Cb0、Cr1,Cb1、Cr2、Cb2を模式的に表したものである。
(1-4) Generation of Temporary Color Difference Surfaces by Combination of Blur Using 3 G surfaces in each blurred image obtained in (1-3) Create a Cb plane. That is, Cr planes created on the basis of Bayer's R signal and G, G ', G "signals are respectively Cr0, Cr1, Cr2, and Cb created on the basis of Bayer's B signal and G, G', G" signals. The surfaces are Cb0, Cb1, and Cb2, respectively, and three types of Cr surfaces and three types of Cb surfaces are created. The following formulas (6) to (11) schematically represent these Cr0, Cb0, Cr1, Cb1, Cr2, and Cb2.

Cr0=R-<G> ・・・(6)
Cb0=B-<G> ・・・(7)
Cr1=R-<G'> ・・・(8)
Cb1=B-<G'> ・・・(9)
Cr2=R-<G"> ・・・(10)
Cb2=B-<G"> ・・・(11)
Cr0 = R- <G> (6)
Cb0 = B- <G> (7)
Cr1 = R- <G '> (8)
Cb1 = B- <G '> (9)
Cr2 = R- <G "> (10)
Cb2 = B- <G "> (11)

このうち、Cr0面の生成について説明する。具体的には、次式(12)によってR位置にCr0面を生成し、次式(13)〜(15)により、R位置以外の位置にCr0面を補間する。なお、他のCr1,Cr2、Cb0、Cb1、およびCb2の各面についても同様に算出できる。
If HV[i,j]=1 THEN Cr0[i,j]=R[i,j]-(G[i,j-1]+G[i,j+1])/2
else if HV[i,j]=-1 THEN Cr0[i,j]=R[i,j]-(G[i-1,j]+G[i+1,j])/2
else Cr0[i,j]=R[i,j]-(G[i,j-1]+G[i,j+1]+G[i-1,j]+G[i+1,j])/4 ・・・(12)
Among these, the generation of the Cr0 plane will be described. Specifically, a Cr0 surface is generated at the R position by the following equation (12), and the Cr0 surface is interpolated at a position other than the R position by the following equations (13) to (15). In addition, it can calculate similarly about each surface of other Cr1, Cr2, Cb0, Cb1, and Cb2.
If HV [i, j] = 1 THEN Cr0 [i, j] = R [i, j]-(G [i, j-1] + G [i, j + 1]) / 2
else if HV [i, j] =-1 THEN Cr0 [i, j] = R [i, j]-(G [i-1, j] + G [i + 1, j]) / 2
else Cr0 [i, j] = R [i, j]-(G [i, j-1] + G [i, j + 1] + G [i-1, j] + G [i + 1, j ]) / 4 (12)

B位置にCr0面を補間
Cr0[i,j]=(Cr0[i-1,j-1]+Cr0[i-1,j+1]+Cr0[i+1,j-1]+Cr0[i+1,j+1])/4・・・(13)
G位置にCr0面を補間 (same lines as R rows)
Cr0[i,j]=(Cr0[i-1,j]+Cr0[i+1,j])/2 ・・・(14)
G位置にCr0面を補間(same lines as B rows)
Cr0[i,j]=(Cr0[i,j-1]+Cr0[i,j+1])/2 ・・・(15)
なお、色差面の生成方法については、上述した方法に限定されず、その他の公知の方法により生成してもよい。
Interpolate Cr0 surface at B position
Cr0 [i, j] = (Cr0 [i-1, j-1] + Cr0 [i-1, j + 1] + Cr0 [i + 1, j-1] + Cr0 [i + 1, j + 1 ]) / 4 ... (13)
Interpolate Cr0 surface at G position (same lines as R rows)
Cr0 [i, j] = (Cr0 [i-1, j] + Cr0 [i + 1, j]) / 2 (14)
Interpolate the Cr0 plane at the G position (same lines as B rows)
Cr0 [i, j] = (Cr0 [i, j-1] + Cr0 [i, j + 1]) / 2 (15)
In addition, about the production | generation method of a color difference surface, it is not limited to the method mentioned above, You may produce | generate by another well-known method.

(1−5)色指標の作成
次に、上述した(1−3)でぼかした各画像から生成され得る仮想的カラー画像の色の変化を相互に比較するための色指標、すなわち彩度の指標を作成する。上述したように、軸上色収差によるMTF不整合が合わせられると、軸上色収差に伴うエッジ部での色付き・色滲みは減る方向に作用する。したがって、正確なその減り方を測るため、2種類の色差面CrおよびCbの各ぼかし方を組み合わせた場合も考慮して色指標を作成する。
(1-5) Creation of Color Index Next, a color index for comparing color changes of virtual color images that can be generated from the images blurred in (1-3) described above, that is, saturation Create indicators. As described above, when the MTF mismatch due to the axial chromatic aberration is matched, the coloring and color blurring at the edge portion due to the axial chromatic aberration acts in a decreasing direction. Therefore, in order to accurately measure how to decrease the color index, a color index is created in consideration of a combination of the two types of color difference surfaces Cr and Cb.

なお、色指標とは、各々の画素の色の特徴を示し、各画素が低彩度であるか高彩度であるかを判定するために参照される指標であり、入力画像のMTF特性を変化させた場合に生成され得るカラー画像の色応答を見るための指標である。換言すれば、MTF特性を変化させるための平滑化の度合いに応じて色応答がどのように変化するか、すなわち、MTF特性を変化させるための平滑化の度合いに応じて色変化の度合いがどのように変化するかをモニタするための指標である。   The color index indicates the color characteristics of each pixel and is an index that is referred to in order to determine whether each pixel has low saturation or high saturation, and changes the MTF characteristics of the input image. This is an index for viewing the color response of a color image that can be generated when In other words, how the color response changes according to the degree of smoothing for changing the MTF characteristic, i.e., how much the color change depends on the degree of smoothing for changing the MTF characteristic. It is an index for monitoring how it changes.

ここで、色応答とは、任意の平滑化度合いで平滑化した結果、どのような色に変化するかを観察した場合の色の応答を意味し、色応答の変化とは、異なる複数の平滑化度合いで平滑化した場合の、それぞれの間の色応答の変化を意味する。   Here, the color response means a color response when observing what color is changed as a result of smoothing at an arbitrary smoothing degree, and the change in color response is a plurality of different smoothing. This means the change in color response between the two when smoothed with a degree of conversion.

ここで述べる平滑化とは、式(1)、(2)を介して他の色成分を鮮鋭化するための補正信号を得るための途中過程処理の意味も含めて用いており、具体的には図4のボカシ量を少しずつ変えていった場合の最終的に得られるR´GB´画像の色の応答を見ることになる。すなわち、平滑化処理は、アンシャープマスク処理によるMTF補正画像を得るためのアンシャープ処理をも指す。さらに説明すると、G成分に対しては平滑化処理を行い、R,B成分に対しては鮮鋭化処理を行っているともいえる。   The smoothing described here includes the meaning of an intermediate process for obtaining a correction signal for sharpening other color components via the equations (1) and (2). 4 shows the color response of the finally obtained R′GB ′ image when the blur amount in FIG. 4 is changed little by little. That is, the smoothing process also refers to an unsharp process for obtaining an MTF corrected image by an unsharp mask process. More specifically, it can be said that a smoothing process is performed on the G component and a sharpening process is performed on the R and B components.

作成する色指標をCdiffとすると、その基本形は次式(16)によって定義される。なお、本実施の形態では、色指標としてCdiffを定義するが、例えば、色差のみを色指標として定義して使用してもよい。
Cdiff[i,j]=|Cr[i,j]|+|Cb[i,j]|+|Cr[i,j]-Cb[i,j]| ・・・(16)
If the color index to be created is Cdiff, the basic form is defined by the following equation (16). In the present embodiment, Cdiff is defined as a color index. However, for example, only a color difference may be defined and used as a color index.
Cdiff [i, j] = | Cr [i, j] | + | Cb [i, j] | + | Cr [i, j] -Cb [i, j] | (16)

式(16)で定義した色指標において、2種類の色差面CrおよびCbの各ぼかし方に対して、評価すべき色指標の組み合せは、次式(17)〜(25)で表されるように全部で9通りある。
Cdiff_r0b0[i,j]=|Cr0*[i,j]|+|Cb0*[i,j]|+|Cr0*[i,j]-Cb0*[i,j]| ・・・(17)
Cdiff_r1b0[i,j]=|Cr1[i,j]|+|Cb0[i,j]|+|Cr1[i,j]-Cb0[i,j]| ・・・(18)
Cdiff_r0b1[i,j]=|Cr0[i,j]|+|Cb1[i,j]|+|Cr0[i,j]-Cb1[i,j]| ・・・(19)
Cdiff_r1b1[i,j]=|Cr1[i,j]|+|Cb1[i,j]|+|Cr1[i,j]-Cb1[i,j]| ・・・(20)
Cdiff_r2b0[i,j]=|Cr2[i,j]|+|Cb0[i,j]|+|Cr2[i,j]-Cb0[i,j]| ・・・(21)
Cdiff_r0b2[i,j]=|Cr0[i,j]|+|Cb2[i,j]|+|Cr0[i,j]-Cb2[i,j]| ・・・(22)
Cdiff_r2b1[i,j]=|Cr2[i,j]|+|Cb1[i,j]|+|Cr2[i,j]-Cb1[i,j]| ・・・(23)
Cdiff_r1b2[i,j]=|Cr1[i,j]|+|Cb2[i,j]|+|Cr1[i,j]-Cb2[i,j]| ・・・(24)
Cdiff_r2b2[i,j]=|Cr2[i,j]|+|Cb2[i,j]|+|Cr2[i,j]-Cb2[i,j]| ・・・(25)
In the color index defined by Expression (16), the combination of color indices to be evaluated for each of the two types of color difference surfaces Cr and Cb is expressed by the following Expressions (17) to (25). There are 9 ways in total.
Cdiff_r0b0 [i, j] = | Cr0 * [i, j] | + | Cb0 * [i, j] | + | Cr0 * [i, j] -Cb0 * [i, j] | (17)
Cdiff_r1b0 [i, j] = | Cr1 [i, j] | + | Cb0 [i, j] | + | Cr1 [i, j] -Cb0 [i, j] | (18)
Cdiff_r0b1 [i, j] = | Cr0 [i, j] | + | Cb1 [i, j] | + | Cr0 [i, j] -Cb1 [i, j] | (19)
Cdiff_r1b1 [i, j] = | Cr1 [i, j] | + | Cb1 [i, j] | + | Cr1 [i, j] -Cb1 [i, j] | (20)
Cdiff_r2b0 [i, j] = | Cr2 [i, j] | + | Cb0 [i, j] | + | Cr2 [i, j] -Cb0 [i, j] | (21)
Cdiff_r0b2 [i, j] = | Cr0 [i, j] | + | Cb2 [i, j] | + | Cr0 [i, j] -Cb2 [i, j] | (22)
Cdiff_r2b1 [i, j] = | Cr2 [i, j] | + | Cb1 [i, j] | + | Cr2 [i, j] -Cb1 [i, j] | (23)
Cdiff_r1b2 [i, j] = | Cr1 [i, j] | + | Cb2 [i, j] | + | Cr1 [i, j] -Cb2 [i, j] | (24)
Cdiff_r2b2 [i, j] = | Cr2 [i, j] | + | Cb2 [i, j] | + | Cr2 [i, j] -Cb2 [i, j] | (25)

R成分のMTFのみが低い場合は、Cr生成側のみのG成分がぼかされればよいし、B成分のMTFのみが低い場合は、Cb生成側のみのG成分がぼかされればよく、その両方のMTFが低い場合は両側のG成分がぼかされていなければならない。   When only the R component MTF is low, only the G component on the Cr generation side needs to be blurred, and when only the B component MTF is low, only the G component on the Cb generation side needs to be blurred. If the MTF is low, the G components on both sides must be blurred.

ここで、R、BともにG成分のぼかしのないCdiff_r0b0だけは、単にCrおよびCb成分を生成しただけの値を用いずに、更にそれに対して色差面補正処理を行ったCr0*、Cb0*を用いている。これは、画像構造に起因する偽色の発生に伴って受ける色指標の変動要因に対して、危険性の多いぼかし処理側よりも安全な解を出しやすいぼかしなし側を安定的に色評価されるようにするためである。また、反対色ペアのような画像構造があっても意図的にCdiff_r0b0の彩度を下げておくことによって、軸上色収差のMTF整合とは異なり画像構造が要因となって彩度が下がってしまう可能性のあるぼかし側のCdiffに対抗しておいて、画像構造破壊を防ぐような色指標評価値に変えるためでもある。   Here, only Cdiff_r0b0 without blurring of the G component for both R and B does not use the value that merely generated the Cr and Cb components, and further uses Cr0 * and Cb0 * for which color difference plane correction processing has been performed on the values. Used. This is a stable color evaluation on the non-blurred side, which is more likely to provide a safer solution than the risky blurring side, with respect to the variation factors of the color index due to the occurrence of false colors due to the image structure. This is to ensure that Further, even if there is an image structure such as an opposite color pair, intentionally lowering the saturation of Cdiff_r0b0 reduces the saturation due to the image structure unlike MTF matching of axial chromatic aberration. This is also for changing to a color index evaluation value that prevents the image structure destruction in opposition to the possible blur side Cdiff.

Cr0およびCb0に対する色差面補正処理の例としては、次式(26)に示すようなローパス処理がある。
Cr*[i,j]
={36×Cr[i,j]
+24×(Cr[i-2,j]+ Cr[i+2,j]+Cr[i,j-2]+ Cr[i,j+2])
+16×(Cr[i-2,j-2]+Cr[i+2,j-2]+Cr[i-2,j+2]+Cr[i+2,j+2])
+6×(Cr[i-4,j]+ Cr[i+4,j]+Cr[i,j-4]+ Cr[i,j+4])
+4×(Cr[i-2,j-4]+Cr[i+2,j-4]+Cr[i-2,j+4]+Cr[i+2,j+4]
Cr[i-4,j-2]+Cr[i+4,j-2]+Cr[i-4,j+2]+Cr[i+4,j+2])
+(Cr[i-4,j-4]+Cr[i+4,j-4]+Cr[i-4,j+4]+Cr[i+4,j+4])}/256 ・・・(26)
As an example of the color difference plane correction process for Cr0 and Cb0, there is a low-pass process as shown in the following equation (26).
Cr * [i, j]
= {36 × Cr [i, j]
+ 24 × (Cr [i-2, j] + Cr [i + 2, j] + Cr [i, j-2] + Cr [i, j + 2])
+ 16 × (Cr [i-2, j-2] + Cr [i + 2, j-2] + Cr [i-2, j + 2] + Cr [i + 2, j + 2])
+ 6 × (Cr [i-4, j] + Cr [i + 4, j] + Cr [i, j-4] + Cr [i, j + 4])
+ 4 × (Cr [i-2, j-4] + Cr [i + 2, j-4] + Cr [i-2, j + 4] + Cr [i + 2, j + 4]
Cr [i-4, j-2] + Cr [i + 4, j-2] + Cr [i-4, j + 2] + Cr [i + 4, j + 2])
+ (Cr [i-4, j-4] + Cr [i + 4, j-4] + Cr [i-4, j + 4] + Cr [i + 4, j + 4])} / 256 (26)

この色差面補正処理は、式(26)に示したローパス処理に限定されず、その他の方法としてメディアンフィルタ等を用いてもよし、フィルタの範囲を変えてもよい。また、式(26)では、Cr*[i,j]を算出する例について説明したが、Cb*[i,j]も同様に算出可能である。   This color difference surface correction process is not limited to the low-pass process shown in Expression (26), and other methods such as a median filter may be used, or the filter range may be changed. Moreover, although the example which calculates Cr * [i, j] was demonstrated in Formula (26), Cb * [i, j] is similarly computable.

なお、収差に伴うMTF不整合のぼかし量に対する非常に微妙な色変化の情報は、余計なフィルタリング処理によって失われてしまう可能性があるので、色差面生成直後の状態で比較するのが好ましいことから、Cdiff_r0b0以外は色差面補正処理を行わないように定義している。また、Cdiff_r0b0も色差面補正処理を行わないように定義してもよい。   Note that very subtle color change information with respect to the amount of blurring due to MTF mismatch due to aberrations may be lost by extra filtering processing, so it is preferable to compare in the state immediately after the color difference plane generation. Therefore, it is defined that the color difference plane correction processing is not performed except for Cdiff_r0b0. Also, Cdiff_r0b0 may be defined not to perform the color difference plane correction process.

(1−6)ぼかし量の決定
軸上色収差に伴うMTF不整合をなくして生成された色差面は、色滲みによる色発生が減り低彩度側に変化すると考えられる。上述したぼかし処理では、画像構造に伴って発生する補間偽色の要因を低彩度側にシフトする対策も事前に施された色指標を生成しているので、相互に色指標を比較して最も低い彩度レベルとなるようなぼかし量のCrとCbの組み合せを、最終的に画像生成のために利用するぼかし量とすることができる。すなわち、次式(27)に示す条件式により、Cdiff_r0b0 からCdiff_r2b2の中で値が最小になるものを画素ごとに抽出し、そのときのCr,およびCbを生成するのに用いたぼかし量がそれぞれG、G'、およびG"のいずれであるかを画素ごとに判定することによって、最終的に画像生成のために利用する離散的なぼかし量、すなわち平滑化の度合いを決定することができる。
(1-6) Determination of blurring amount It is considered that the color difference surface generated by eliminating the MTF mismatch due to the longitudinal chromatic aberration reduces the color generation due to the color blur and changes to the low saturation side. In the blurring process described above, since the color index that has been pre-measured to shift the factor of interpolation false color that occurs with the image structure to the low saturation side is generated, the color index is compared with each other. A combination of Cr and Cb having a blur amount that provides the lowest saturation level can be finally used as a blur amount to be used for image generation. That is, according to the conditional expression shown in the following equation (27), the smallest value among Cdiff_r0b0 to Cdiff_r2b2 is extracted for each pixel, and the blurring amounts used to generate Cr and Cb at that time are respectively By determining whether each pixel is G, G ′, or G ″, it is possible to finally determine a discrete blurring amount that is used for image generation, that is, a degree of smoothing.

(Cr生成時Gぼかし量, Cb生成時Gぼかし量)
= arg min (Cdiff_r0b0, Cdiff_r1b0, ... , Cdiff_r2b2)
(G,G',G" for Cr),
(G,G',G" for Cb) ・・・(27)
これによって、生成した色指標のそれぞれを画素単位で評価して、画素毎にどの色差面を生成するときにどの色成分をどれだけぼかすかを決定することができる。これは、被写体距離によって軸上色収差の状態が変化している場合にも対応が可能となる。
(G blur amount at Cr generation, G blur amount at Cb generation)
= arg min (Cdiff_r0b0, Cdiff_r1b0, ..., Cdiff_r2b2)
(G, G ', G "for Cr),
(G, G ', G "for Cb) (27)
Thus, each of the generated color indexes can be evaluated on a pixel basis, and it can be determined which color component is to be blurred when generating which color difference plane for each pixel. This can be dealt with even when the state of axial chromatic aberration changes depending on the subject distance.

(1−7)実際の色差面生成
上述した処理で画素毎に決められた離散的なぼかし量のG成分をMTF特性の違いに関する情報として用いて、最終出力画像に用いる色差成分Cr[i,j]、Cb[i,j]を次のように求める。まず、次式(28)によってR画素位置へのCr値の設定を行い、次式(29)によってB画素位置へのCb値の設定を行う。
Cr[i,j]=one of {Cr0, Cr1, Cr2} R位置 ・・・(28)
Cb[i,j]=one of {Cb0, Cb1, Cb2} B位置 ・・・(29)
そして、上述した式(13)〜(15)によって、Cr面とCb面とを補間する。その後、公知の種々の色差面補正の手法を使用して、色差面補正を行う。例えば、条件によって補正をしたり、しなかったりを選択する適応的色差補正の手法などを使用する。これは通常のBayer補間で発生する偽色抑制処理を組み込むためである。こうして、軸上色収差の除去されたCr面、およびCb面、すなわち実際の色差面が生成される。
(1-7) Actual Color Difference Surface Generation The color difference component Cr [i, used in the final output image is obtained by using the discrete blur amount G component determined for each pixel in the above-described process as information on the difference in MTF characteristics. j] and Cb [i, j] are obtained as follows. First, the Cr value at the R pixel position is set by the following equation (28), and the Cb value is set at the B pixel position by the following equation (29).
Cr [i, j] = one of {Cr0, Cr1, Cr2} R position (28)
Cb [i, j] = one of {Cb0, Cb1, Cb2} B position (29)
Then, the Cr surface and the Cb surface are interpolated by the above-described equations (13) to (15). Thereafter, color difference surface correction is performed using various known color difference surface correction methods. For example, an adaptive color difference correction method for selecting whether to correct or not according to conditions is used. This is to incorporate a false color suppression process that occurs in normal Bayer interpolation. Thus, the Cr surface and the Cb surface from which the longitudinal chromatic aberration is removed, that is, the actual color difference surface is generated.

(1−8)実際の輝度面生成
ぼかし処理のない元のBayer信号を用いて実際の輝度面を生成する。これは、軸上色収差の影響をあまり受けない輝度面は、元のBayer信号を使うことにより鮮鋭な解像が保たれた状態で復元することができるためである。なお、本実施の形態では、次式(30)に示すように、輝度をG面として処理を行うが、Y面を輝度として処理を行ってもよい。輝度面の生成は、公知の種々の方法により生成することができる。また、国際公開番号:WO2002/071761号公報に開示されているように、Bayer面から直接生成するものであってもよい。
(1-8) Actual luminance plane generation An actual luminance plane is generated using the original Bayer signal without blurring. This is because a luminance surface that is not significantly affected by axial chromatic aberration can be restored in a state in which a sharp resolution is maintained by using the original Bayer signal. In the present embodiment, as shown in the following equation (30), the process is performed using the luminance as the G plane, but the process may be performed using the Y plane as the luminance. The luminance plane can be generated by various known methods. Further, as disclosed in International Publication No. WO2002 / 071761, it may be generated directly from the Bayer surface.

Bayer面上のR/B位置
if HV[i,j]=1 THEN Gout[i,j]=(G[i,j-1]+G[i,j+1])/2
+(2×Z[i,j]-Z[i,j-2]-Z[i,j+2])/4
else if HV[i,j]=-1 THEN Gout[i,j]=(G[i-1,j]+G[i+1,j])/2
+(2×Z[i,j]-Z[i-2,j]-Z[i+2,j])/4
else Gout[i,j]=(G[i,j-1]+G[i,j+1]+G[i-1,j]+G[i+1,j])/4
+(4×Z[i,j]-Z[i,j-2]-Z[i,j+2]-Z[i-2,j]-Z[i+2,j])/8 ・・・(30)
なお、式(30)において、ZはR位置ではZ=Rとなり、B位置ではZ=Bとなる。また、Bayer面上のG位置Gout[i,j]は、Bayer信号をそのまま代入することにより求められる。
R / B position on the Bayer surface
if HV [i, j] = 1 THEN Gout [i, j] = (G [i, j-1] + G [i, j + 1]) / 2
+ (2 × Z [i, j] -Z [i, j-2] -Z [i, j + 2]) / 4
else if HV [i, j] =-1 THEN Gout [i, j] = (G [i-1, j] + G [i + 1, j]) / 2
+ (2 × Z [i, j] -Z [i-2, j] -Z [i + 2, j]) / 4
else Gout [i, j] = (G [i, j-1] + G [i, j + 1] + G [i-1, j] + G [i + 1, j]) / 4
+ (4 × Z [i, j] -Z [i, j-2] -Z [i, j + 2] -Z [i-2, j] -Z [i + 2, j]) / 8 (30)
In Equation (30), Z is Z = R at the R position and Z = B at the B position. Further, the G position Gout [i, j] on the Bayer plane can be obtained by substituting the Bayer signal as it is.

(1−9)表色系変換
上述した処理で、軸上色収差の除去されたCr面、およびCb面と、鮮鋭感を保持したG面の3つの色情報から、次式(31)および(32)によってRGB表色系への変換を行う。
Rout[i,j]=Cr[i,j]+Gout[i,j] ・・・(31)
Bout[i,j]=Cb[i,j]+Gout[i,j] ・・・(32)
(1-9) Color system conversion From the three color information of the Cr surface and Cb surface from which axial chromatic aberration has been removed and the G surface retaining sharpness in the above-described processing, the following equations (31) and ( 32), conversion to the RGB color system is performed.
Rout [i, j] = Cr [i, j] + Gout [i, j] (31)
Bout [i, j] = Cb [i, j] + Gout [i, j] (32)

以上の処理によって、読み込んだBayer画像において、RGBいずれかの色成分に軸上色収差があり、これに伴って色滲みが生じた場合に、各色成分間のMTF特性の不整合を補正して、軸上色収差に伴う色滲みを解消することができる。そして、この軸上色収差に伴う色滲みを解消したRGB画像は、モニタ113に出力されて表示される。   With the above processing, in the read Bayer image, if any of the RGB color components has axial chromatic aberration, and color blur occurs with this, the MTF characteristic mismatch between the color components is corrected, Color blur due to axial chromatic aberration can be eliminated. Then, the RGB image in which the color blur due to the longitudinal chromatic aberration is eliminated is output to the monitor 113 and displayed.

図8は、第1の実施の形態における画像処理装置110の動作を示すフローチャートである。図8に示す処理は、レンズ101を介して撮像素子102によって撮像された画像が画像メモリ112に記憶されると起動するプログラムとして制御装置111によって実行される。ステップS10において、(1−1)で上述したように、撮像素子102で撮像されたBayer画像を画像メモリ112から読み込んで、ステップS20へ進む。ステップS20では、(1−2)で上述したように、Bayer画像を用いてR/B画素位置における方向判定を行う。その後、ステップS30へ進む。   FIG. 8 is a flowchart showing the operation of the image processing apparatus 110 according to the first embodiment. The processing shown in FIG. 8 is executed by the control device 111 as a program that is activated when an image captured by the image sensor 102 via the lens 101 is stored in the image memory 112. In step S10, as described above in (1-1), the Bayer image captured by the image sensor 102 is read from the image memory 112, and the process proceeds to step S20. In step S20, as described above in (1-2), the direction determination at the R / B pixel position is performed using the Bayer image. Then, it progresses to step S30.

ステップS30では、(1−3)で上述した複数通りのぼかしBayer画像作成処理を実行して、ステップS40へ進む。ステップS40では、(1−4)で上述したぼかし組み合せによる複数通りの仮色差面生成処理を実行して、ステップS50へ進む。ステップS50では、(1−5)で上述した色指標の作成処理を実行して、ステップS60へ進む。ステップS60では、(1−6)で上述したように、最終的に画像生成のために利用するぼかし量を決定して、ステップS70へ進む。   In step S30, the plurality of blur Bayer image creation processes described above in (1-3) are executed, and the process proceeds to step S40. In step S40, a plurality of provisional color difference plane generation processes by the blur combination described in (1-4) are executed, and the process proceeds to step S50. In step S50, the color index creating process described in (1-5) is executed, and the process proceeds to step S60. In step S60, as described above in (1-6), the blurring amount to be finally used for image generation is determined, and the process proceeds to step S70.

ステップS70では、(1−7)で上述した実際の色差面生成処理を実行してステップS80へ進み、(1−8)で上述した実際の輝度面生成処理を実行する。そして、ステップS90へ進み、(1−9)で上述したように表色系変換処理を行って、軸上色収差の除去されたCr面、およびCb面と、鮮鋭感を保持したG面の3つの色情報からRGB表色系への変換を行う。その後、ステップS100へ進み、軸上色収差に伴う色滲みを解消した画像をモニタ113に出力し、処理を終了する。   In step S70, the actual color difference plane generation process described in (1-7) is executed, and the process proceeds to step S80. In step (1-8), the actual luminance plane generation process is executed. Then, the process proceeds to step S90, and the color system conversion process is performed as described above in (1-9), and the Cr surface and the Cb surface from which the longitudinal chromatic aberration has been removed, and the G surface 3 that maintains sharpness. Conversion from one color information to the RGB color system is performed. Thereafter, the process proceeds to step S100, an image in which the color blur associated with the longitudinal chromatic aberration is eliminated is output to the monitor 113, and the process ends.

以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)軸上色収差に起因した色成分間のMTF特性の不整合を、MTFの高い側の色成分をぼかし処理によって低い側の色成分と整合させてから色差成分を生成するようにした。これによって、軸上色収差に起因したMTF差の違いに伴って発生する色の滲みを抑制することができる。
(2)撮像画像に対して軸上色収差補正を行うための補正量を撮像画像自身に基づいて決定するようにした。これによって、被写体までの距離によって特性が変化する軸上色収差であっても、画素ごとに適切な補正量を決定して、軸上色収差補正を行うことができる。
(3)さらに、このように撮像画像自身を用いて適切な補正量を決定して、軸上色収差補正を行うことができることから、撮像光学系に関する情報が不明な場合であっても、適切に軸上色収差補正を行うことができる。
(4)色指標を作成するに当たって、R、BともにG成分のぼかしのないCdiff_r0b0だけは、単にCrおよびCb成分を生成しただけの値を用いずに、更にそれに対して色差面補正処理を行ったCr0*、Cb0*を用いるようにした。これによって、Bayerサンプリングと画像構造に起因する偽色の発生に伴って受ける色指標の変動要因に対して、危険性の多いぼかし処理側よりも安全な解を出しやすいぼかしなし側を安定的に色評価されるようにすることができる。また、反対色ペアのような画像構造があっても意図的にCdiff_r0b0の彩度を下げておくことによって、軸上色収差のMTF整合とは異なり画像構造が要因となって彩度が下がってしまう可能性のあるぼかし側のCdiffに対抗しておいて、画像構造破壊を防ぐように色指標評価値に変えることができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The color difference component is generated after the MTF characteristic mismatch between the color components caused by the longitudinal chromatic aberration is matched with the color component on the lower side by blurring the color component on the higher MTF side. Accordingly, it is possible to suppress color bleeding that occurs due to a difference in MTF difference due to axial chromatic aberration.
(2) The correction amount for performing axial chromatic aberration correction on the captured image is determined based on the captured image itself. As a result, even if the axial chromatic aberration has a characteristic that changes depending on the distance to the subject, an appropriate correction amount can be determined for each pixel to perform the axial chromatic aberration correction.
(3) Furthermore, since an appropriate correction amount can be determined using the captured image itself and axial chromatic aberration correction can be performed in this way, even if information regarding the imaging optical system is unknown, On-axis chromatic aberration correction can be performed.
(4) In creating the color index, only Cdiff_r0b0 without blurring of the G component in both R and B is not subjected to the value that merely generated the Cr and Cb components, but is further subjected to color difference plane correction processing. Cr0 * and Cb0 * were used. As a result, the non-blurred side, which is more likely to provide a safer solution than the highly dangerous blurring processing side, can be stably prevented with respect to the variation factors of the color index received due to the generation of false colors due to Bayer sampling and the image structure. Color can be evaluated. In addition, even if there is an image structure such as an opposite color pair, intentionally lowering the saturation of Cdiff_r0b0 reduces the saturation due to the image structure unlike MTF matching of axial chromatic aberration. It can be changed to a color index evaluation value so as to prevent destruction of the image structure against the possible blur side Cdiff.

―第2の実施の形態―
上述した第1の実施の形態では、(1−7)実際の色差面生成において、式(28)および(29)で色差成分Cr[i,j]、Cb[i,j]を求め、式(13)〜(15)によって、Cr面とCb面とを補間した後に、(1−8)実際の輝度面生成、および(1−9)表色系変換に示した各処理を行う場合について説明した。
-Second embodiment-
In the first embodiment described above, in (1-7) actual color difference plane generation, the color difference components Cr [i, j] and Cb [i, j] are obtained by the expressions (28) and (29), and the expression After interpolating the Cr surface and the Cb surface according to (13) to (15), the processing shown in (1-8) actual luminance surface generation and (1-9) color system conversion is performed. explained.

これに対して、第2の実施の形態では、式(28)および(29)で色差成分Cr[i,j]、Cb[i,j]を求めた後に、R位置のCr面、B位置のCb面だけを使用して、その位置における(1−8)実際の輝度面生成、および(1−9)表色系変換の各処理を行って、元のR成分とB成分の値を書き換える。これによって、補間処理前のMTF整合したBayer画像、すなわち軸上色収差を解消させたBayer画像を得ることができる。その後、この軸上色収差を解消させたBayer画像に対して補間処理を行って補間後のRGB画像を得る。   On the other hand, in the second embodiment, after obtaining the color difference components Cr [i, j] and Cb [i, j] by the equations (28) and (29), the Cr surface at the R position, the B position (1-8) actual luminance plane generation at that position and (1-9) color system conversion processing are performed using only the Cb plane of rewrite. Thus, an MTF-matched Bayer image before interpolation processing, that is, a Bayer image in which axial chromatic aberration is eliminated can be obtained. Thereafter, an interpolation process is performed on the Bayer image from which the longitudinal chromatic aberration has been eliminated to obtain an RGB image after interpolation.

なお、図1に示した画像処理装置110を搭載したデジタルカメラ100のブロック図、図2および図3に示した軸上色収差による色滲みが発生する原理を示す図、および図4に示したMTF特性を整合させて軸上色収差を補正する原理を示す図については、第1の実施の形態と同様のため、説明を省略する。   1 is a block diagram of the digital camera 100 equipped with the image processing apparatus 110 shown in FIG. 1, FIG. 2 is a diagram showing the principle of color blurring caused by axial chromatic aberration, and FIG. Since the diagram showing the principle of correcting the axial chromatic aberration by matching the characteristics is the same as in the first embodiment, the description thereof is omitted.

式(28)および(29)で色差成分Cr[i,j]、Cb[i,j]を求めた後に、各面の補間前のCr面、およびCb面を使用して(1−8)実際の輝度面生成、および(1−9)表色系変換の各処理を行うことによって、図9に示すような、MTFが整合したBayer画像、すなわち軸上色収差が補正されたBayer画像が出力される。この図9に示すBayer画像に対して、公知の補間処理を実行することによって、補間後のRGB画像を得ることができる。   After obtaining the color difference components Cr [i, j] and Cb [i, j] by the equations (28) and (29), the Cr surface before interpolation of each surface and the Cb surface are used (1-8). By performing each process of actual luminance plane generation and (1-9) color system conversion, a Bayer image in which MTF is matched, that is, a Bayer image in which axial chromatic aberration is corrected, is output as shown in FIG. Is done. By performing a known interpolation process on the Bayer image shown in FIG. 9, an RGB image after interpolation can be obtained.

図10は、第2の実施の形態における画像処理装置110の処理を示すフローチャートである。図8に示す処理は、レンズ101を介して撮像素子102によって撮像された画像が画像メモリ112に記憶されると起動するプログラムとして制御装置111によって実行される。なお、図10においては、図8に示す第1の実施の形態における処理と同一の処理内容については、同じステップ番号を付与し、相違点を中心に説明する。   FIG. 10 is a flowchart illustrating processing of the image processing apparatus 110 according to the second embodiment. The processing shown in FIG. 8 is executed by the control device 111 as a program that is activated when an image captured by the image sensor 102 via the lens 101 is stored in the image memory 112. In FIG. 10, the same processing numbers as those in the first embodiment shown in FIG. 8 are given the same step numbers, and differences will be mainly described.

ステップS71において、式(28)および(29)で色差成分Cr[i,j]、Cb[i,j]を求めて、ステップS80へ進む。その後、ステップS91で、補間前のCr面、およびCb面と、鮮鋭感を保持したG面の3つの色情報から、式(31)および(32)によってRGB表色系への変換を行う。その後、ステップS92へ進む。ステップS92では、軸上色収差が補正されたBayer画像を出力してステップS93へ進み、当該Bayer画像に対して、公知のBayer補間処理を実行して、軸上色収差が補正されたRBG画像を得る。   In step S71, the color difference components Cr [i, j] and Cb [i, j] are obtained by the equations (28) and (29), and the process proceeds to step S80. Thereafter, in step S91, conversion from the three color information of the Cr surface and Cb surface before interpolation and the G surface retaining sharpness into the RGB color system is performed by equations (31) and (32). Thereafter, the process proceeds to step S92. In step S92, a Bayer image in which axial chromatic aberration is corrected is output, and the process proceeds to step S93. A known Bayer interpolation process is performed on the Bayer image to obtain an RBG image in which axial chromatic aberration is corrected. .

以上説明した第2の実施の形態によれば、第1の実施の形態とは、軸上色収差補正処理の中での補間処理の実行位置を変更し、一旦MTFが整合したBayer画像を出力した後に補間処理を行うようにした。これによって、軸上色収差の補正処理と、補間処理とを分離した処理として扱うことができ、MTF整合したBayer画像に対して、様々な補間処理を適用することが可能になる。   According to the second embodiment described above, the execution position of the interpolation process in the axial chromatic aberration correction process is changed from the first embodiment, and a Bayer image in which the MTF is matched is output once. Interpolation processing was performed later. Accordingly, the axial chromatic aberration correction process and the interpolation process can be handled as separate processes, and various interpolation processes can be applied to the MTF-matched Bayer image.

―第3の実施の形態―
第1および2の実施の形態では、単板式カラー撮像素子によって撮像されたBayer画像のように補間を行う前の画像データに対する軸上色収差補正について説明したが、第3の実施の形態では、3板式カラー撮像素子で撮影されたカラー画像の軸上色収差や補間済のカラー画像の軸上色収差を補正する。すなわち、各画素にR、G、Bの色成分の情報が全て存在するカラー画像のデータの軸上色収差補正について説明する。
-Third embodiment-
In the first and second embodiments, axial chromatic aberration correction has been described for image data before interpolation, such as a Bayer image captured by a single-plate color image sensor, but in the third embodiment, 3 The axial chromatic aberration of the color image photographed by the plate type color image sensor and the axial chromatic aberration of the interpolated color image are corrected. That is, correction of axial chromatic aberration of color image data in which all R, G, and B color component information exists in each pixel will be described.

具体的には、元のカラー画像データを輝度と色差成分に分け、色差成分のデータを軸上色収差のないデータに置き換えるため、第1の実施の形態と同様にある色成分のデータを複数通りぼかす。そして、それらを組み合わせてできる色差成分のセットの内、最も彩度が低くなるような色指標を与えるぼかしの組み合せを探索して、そのぼかしを通して得られる色差成分に置き換える。   Specifically, in order to divide the original color image data into luminance and chrominance components and replace the chrominance component data with data without axial chromatic aberration, a plurality of types of color component data are provided as in the first embodiment. Blur. Then, a combination of blurs that gives a color index with the lowest saturation is searched for from among a set of color difference components that can be combined, and is replaced with a color difference component obtained through the blur.

なお、図1に示した画像処理装置110を搭載したデジタルカメラ100のブロック図と、図2および図3に示した軸上色収差による色滲みが発生する原理を示す図、および図4に示したMTF特性を整合させて軸上色収差を補正する原理を示す図については、第1の実施の形態と同様のため、説明を省略する。ただし、3板式カラー撮像素子を使用して各画素にR、G、B成分が揃ったカラー画像を取得する場合は、撮像素子102を単板式カラー撮像素子から3板式カラー撮像素子に置き換えるものとする。また、第3の実施の形態では、G成分に対するぼかしのみならず、R成分とB成分に対するぼかしも行うものとする。これによって、G成分に軸上色収差がある場合でもそれを補正することが可能となる。   1 is a block diagram of the digital camera 100 equipped with the image processing apparatus 110 shown in FIG. 1, a diagram showing the principle of color blurring due to axial chromatic aberration shown in FIGS. 2 and 3, and FIG. The diagram showing the principle of correcting the axial chromatic aberration by matching the MTF characteristics is the same as in the first embodiment, and thus the description thereof is omitted. However, when using a three-plate color image sensor to obtain a color image in which R, G, and B components are aligned for each pixel, the image sensor 102 is replaced with a three-plate color image sensor. To do. In the third embodiment, not only the blur for the G component but also the blur for the R component and the B component are performed. As a result, even when there is axial chromatic aberration in the G component, it can be corrected.

(2−1)カラー画像入力
第3の実施の形態では、画像メモリ112に、3板式カラー撮像素子で撮影されたカラー画像やあらかじめ補間処理を行ったカラー画像を各画素にR[i,j]、G[i,j]、B[i,j]が揃っている状態で保存しておき、これらのカラー画像を読み込んで、画像処理の対象とする。
(2-1) Color Image Input In the third embodiment, a color image captured by a three-plate color image sensor or a color image that has been previously subjected to interpolation processing is stored in the image memory 112 as R [i, j ], G [i, j], and B [i, j] are stored in a state in which they are prepared, and these color images are read out and subjected to image processing.

(2−2)表色系変換による輝度成分退避
読み込んだカラー画像を、次式(33)により表色系変換して、輝度成分を退避しておく。すなわち、後述する処理でぼかしを入れる前の状態の画像の輝度成分を制御装置111が有するメモリ空間に退避しておく。
Y[i,j]=(R[i,j]+2×G[i,j]+B[i,j])/4 ・・・(33)
(2-2) Luminance component saving by color system conversion The read color image is color system converted by the following equation (33) to save the luminance component. That is, the luminance component of the image in the state before blurring is saved in the memory space of the control device 111 in a process described later.
Y [i, j] = (R [i, j] + 2 × G [i, j] + B [i, j]) / 4 (33)

(2−3)複数通りのぼかしR、G、B面画像作成
第3の実施の形態では、図11に示す平滑化フィルタを使用して、RGBの各成分についてぼかし画像(R、G、B面画像)を作成する。なお、本実施の形態では、説明の簡略化のため、図11に示す1つの平滑化フィルタのみを使用する例について説明するが、第1の実施の形態と同様に、弱い平滑化フィルタと強い平滑化フィルタの2種類を使用してR、G、B面画像を作成してもよい。
(2-3) Creation of Plural Blur R, G, B Surface Images In the third embodiment, the smoothed filter shown in FIG. 11 is used to create a blurred image (R, G, B for each component of RGB. (Surface image). In this embodiment, for the sake of simplification of explanation, an example in which only one smoothing filter shown in FIG. 11 is used will be described. However, similarly to the first embodiment, a weak smoothing filter and a strong filter are used. R, G, and B plane images may be created using two types of smoothing filters.

そして、図12に示すように、図12(a)〜(c)のRGBの各成分についてのぼかしなし画像と、図11の平滑化フィルタを使用して作成した図12(d)〜(f)のぼかしあり画像とを使用して、次に示す処理を行う。   Then, as shown in FIG. 12, FIGS. 12D to 12F created using the non-blurred images for the RGB components of FIGS. 12A to 12C and the smoothing filter of FIG. ) And the blurred image are used to perform the following processing.

(2−4)ぼかし組み合せによる複数通りの仮色差面生成
上記6通りのRGB面、すなわち図12(a)〜(c)のぼかしなし画像と、図12(d)〜(f)のぼかしあり画像とを使って、次式(34)〜(39)により各画素に3通りのCr面と3通りのCb面とを作成する。
Cr00=R-G ・・・(34)
Cb00=B-G ・・・(35)
Cr01=R-G' ・・・(36)
Cb01=B-G' ・・・(37)
Cr10=R'-G ・・・(38)
Cb10=B'-G ・・・(39)
(2-4) Generation of Temporary Color Difference Surfaces by Combination of Blur The above six RGB planes, that is, non-blurred images of FIGS. 12 (a) to 12 (c) and blurs of FIGS. 12 (d) to (f). Using the images, three Cr surfaces and three Cb surfaces are created for each pixel by the following equations (34) to (39).
Cr00 = RG (34)
Cb00 = BG (35)
Cr01 = RG '(36)
Cb01 = BG '(37)
Cr10 = R'-G (38)
Cb10 = B'-G (39)

(2−5)色指標の作成
式(34)〜(39)により作成したCrおよびCbの各ぼかし方に対して、評価すべき色指標、すなわち彩度に関する指標の組み合せは次式(40)〜(48)で表されるように全部で9通りある。
Cdiff_r00b00[i,j]=|Cr00[i,j]|+|Cb00[i,j]|+|Cr00[i,j]-Cb00[i,j]|・・・(40)
Cdiff_r01b00[i,j]=|Cr01[i,j]|+|Cb00[i,j]|+|Cr01[i,j]-Cb00[i,j]|・・・(41)
Cdiff_r00b01[i,j]=|Cr00[i,j]|+|Cb01[i,j]|+|Cr00[i,j]-Cb01[i,j]|・・・(42)
Cdiff_r01b01[i,j]=|Cr01[i,j]|+|Cb01[i,j]|+|Cr01[i,j]-Cb01[i,j]|・・・(43)
Cdiff_r10b00[i,j]=|Cr10[i,j]|+|Cb00[i,j]|+|Cr10[i,j]-Cb00[i,j]|・・・(44)
Cdiff_r10b01[i,j]=|Cr10[i,j]|+|Cb01[i,j]|+|Cr10[i,j]-Cb01[i,j]|・・・(45)
Cdiff_r01b10[i,j]=|Cr01[i,j]|+|Cb10[i,j]|+|Cr01[i,j]-Cb10[i,j]|・・・(46)
Cdiff_r00b10[i,j]=|Cr00[i,j]|+|Cb10[i,j]|+|Cr00[i,j]-Cb10[i,j]|・・・(47)
Cdiff_r10b10[i,j]=|Cr10[i,j]|+|Cb10[i,j]|+|Cr10[i,j]-Cb10[i,j]|・・・(48)
(2-5) Creation of color index For each Cr and Cb blurring method created by the equations (34) to (39), the color index to be evaluated, that is, the combination of the indexes related to saturation, is expressed by the following equation (40) There are nine ways in total as represented by (48).
Cdiff_r00b00 [i, j] = | Cr00 [i, j] | + | Cb00 [i, j] | + | Cr00 [i, j] -Cb00 [i, j] | (40)
Cdiff_r01b00 [i, j] = | Cr01 [i, j] | + | Cb00 [i, j] | + | Cr01 [i, j] -Cb00 [i, j] | (41)
Cdiff_r00b01 [i, j] = | Cr00 [i, j] | + | Cb01 [i, j] | + | Cr00 [i, j] -Cb01 [i, j] | (42)
Cdiff_r01b01 [i, j] = | Cr01 [i, j] | + | Cb01 [i, j] | + | Cr01 [i, j] -Cb01 [i, j] | (43)
Cdiff_r10b00 [i, j] = | Cr10 [i, j] | + | Cb00 [i, j] | + | Cr10 [i, j] -Cb00 [i, j] | (44)
Cdiff_r10b01 [i, j] = | Cr10 [i, j] | + | Cb01 [i, j] | + | Cr10 [i, j] -Cb01 [i, j] | (45)
Cdiff_r01b10 [i, j] = | Cr01 [i, j] | + | Cb10 [i, j] | + | Cr01 [i, j] -Cb10 [i, j] | (46)
Cdiff_r00b10 [i, j] = | Cr00 [i, j] | + | Cb10 [i, j] | + | Cr00 [i, j] -Cb10 [i, j] | (47)
Cdiff_r10b10 [i, j] = | Cr10 [i, j] | + | Cb10 [i, j] | + | Cr10 [i, j] -Cb10 [i, j] | (48)

なお、第3の実施の形態では、式(40)に示すように、Cdiff_r00b00は色差面補正処理を行わないように定義しているが、第1の実施の形態における式(17)のように、CrおよびCb成分に対して、例えば式(26)で示したローパス処理などの補正処理を行ってもよい。   In the third embodiment, as shown in Expression (40), Cdiff_r00b00 is defined not to perform the color difference plane correction process, but as in Expression (17) in the first embodiment. , Cr, and Cb components may be subjected to correction processing such as low-pass processing shown in Expression (26), for example.

(2−6)ぼかし量の決定
第1の実施の形態における(1−6)と同様に、式(40)〜(48)で算出した色指標をそれぞれ比較して、最小値を与えるぼかし量のCrとCbの組み合せを、最終的に画像生成のために利用するぼかし量として決定する。すなわち、次式(49)によって、Cdiff_r00b00 からCdiff_r10b10の中で値が最小になるものを画素ごとに抽出し、そのときのCr,およびCbを生成するために、RGBの各成分を図11に示す平滑化フィルタでぼかす必要があるか否かを決定する。
(2-6) Determination of blurring amount Similar to (1-6) in the first embodiment, the color index calculated by the equations (40) to (48) is compared, and the blurring amount giving the minimum value The combination of Cr and Cb is finally determined as the blurring amount used for image generation. That is, according to the following equation (49), the components having the smallest value among Cdiff_r00b00 to Cdiff_r10b10 are extracted for each pixel, and each component of RGB is shown in FIG. 11 in order to generate Cr and Cb at that time. Determine whether it is necessary to blur with a smoothing filter.

(Cr生成用Rぼかし量, Cr生成用Gぼかし量, Cb生成用Gぼかし量, Cb生成用Bぼかし量)
= arg min (Cdiff_r00b00, Cdiff_r01b00, ... , Cdiff_r10b10)
(R,R' for Cr)
(G,G' for Cr)
(G,G' for Cb)
(B,B' for Cb) ・・・(49)
(Cr blurring amount for Cr generation, G blurring amount for Cr generation, G blurring amount for Cb generation, B blurring amount for Cb generation)
= arg min (Cdiff_r00b00, Cdiff_r01b00, ..., Cdiff_r10b10)
(R, R 'for Cr)
(G, G 'for Cr)
(G, G 'for Cb)
(B, B 'for Cb) (49)

(2−7)置き換え用の色差面生成
上述した(2−6)の結果に基づいて、次式(50)および(51)により、最終出力画像に用いる色差成分の置き換え値Cr[i,j]、およびCb[i,j]を設定する。
Cr[i,j]=one of {Cr00, Cr01, Cr10} ・・・(50)
Cb[i,j]=one of {Cb00, Cb01, Cb10} ・・・(51)
(2-7) Generation of Replacement Color Difference Surface Based on the result of (2-6) described above, the replacement value Cr [i, j of the color difference component used for the final output image is obtained by the following equations (50) and (51). ] And Cb [i, j] are set.
Cr [i, j] = one of {Cr00, Cr01, Cr10} (50)
Cb [i, j] = one of {Cb00, Cb01, Cb10} (51)

(2−8)色変換
次に、次式(52)〜(54)により、上述した(2−2)で退避させた輝度成分と、(2−7)の処理で軸上色収差の補正された色差成分を統合して最終出力画像を生成する。
R[i,j]=Y[i,j]+(3/4)×Cr[i,j]-(1/4)×Cb[i,j] ・・・(52)
G[i,j]=Y[i,j]-(1/4)×Cr[i,j]-(1/4)×Cb[i,j] ・・・(53)
B[i,j]=Y[i,j]-(1/4)×Cr[i,j]+(3/4)×Cb[i,j] ・・・(54)
(2-8) Color Conversion Next, with the following equations (52) to (54), the luminance component saved in the above (2-2) and the axial chromatic aberration are corrected by the processing of (2-7). The final color image is generated by integrating the color difference components.
R [i, j] = Y [i, j] + (3/4) × Cr [i, j] − (1/4) × Cb [i, j] (52)
G [i, j] = Y [i, j]-(1/4) × Cr [i, j]-(1/4) × Cb [i, j] (53)
B [i, j] = Y [i, j]-(1/4) × Cr [i, j] + (3/4) × Cb [i, j] (54)

以上の処理によって、カラー画像において、RGBいずれかの色成分に軸上色収差があり、これに伴って色滲みが生じた場合に、各色成分間のMTF特性の不整合を補正して、軸上色収差に伴う色滲みを解消することができる。そして、この軸上色収差に伴う色滲みを解消したカラー画像は、モニタ113に出力されて表示される。   With the above processing, if there is axial chromatic aberration in any of the RGB color components in the color image, and color blur occurs with this, the mismatch of the MTF characteristics between the color components is corrected, and the axial Color blur due to chromatic aberration can be eliminated. Then, the color image in which the color blur due to the longitudinal chromatic aberration is eliminated is output to the monitor 113 and displayed.

図13は、第3の実施の形態における画像処理装置110の動作を示すフローチャートである。図13に示す処理は、レンズ101を介して撮像素子102によって撮像された画像が画像メモリ112に記憶されると起動するプログラムとして制御装置111によって実行される。ステップS110において、(2−1)で上述したように、画像メモリ112からカラー画像を読み込んで、ステップS120へ進む。ステップS120では、(2−2)で上述したように、読み込んだカラー画像を表色系変換して、輝度成分を制御装置111が有するメモリ空間に退避しておく。その後、ステップS130へ進む。   FIG. 13 is a flowchart illustrating the operation of the image processing apparatus 110 according to the third embodiment. The process illustrated in FIG. 13 is executed by the control device 111 as a program that is activated when an image captured by the image sensor 102 via the lens 101 is stored in the image memory 112. In step S110, as described above in (2-1), the color image is read from the image memory 112, and the process proceeds to step S120. In step S120, as described above in (2-2), the read color image is subjected to color system conversion, and the luminance component is saved in the memory space of the control device 111. Thereafter, the process proceeds to step S130.

ステップS130では、(2−3)で上述した複数通りのぼかしR、G、B面画像作成処理を実行して、ステップS140へ進む。ステップS140では、(2−4)で上述したぼかし組み合せによる複数通りの仮色差面生成処理を実行して、ステップS150へ進む。ステップS150では、(2−5)で上述した色指標の作成処理を実行して、ステップS160へ進む。ステップS160では、(2−6)で上述したように、最終的に画像生成のために利用するぼかし量を決定して、ステップS170へ進む。   In step S130, the plurality of blur R, G, and B plane image creation processes described above in (2-3) are executed, and the process proceeds to step S140. In step S140, a plurality of provisional color difference plane generation processes by the combination of blurs described above in (2-4) are executed, and the process proceeds to step S150. In step S150, the color index creation processing described above in (2-5) is executed, and the flow advances to step S160. In step S160, as described above in (2-6), the blurring amount to be finally used for image generation is determined, and the process proceeds to step S170.

ステップS170では、(2−7)で上述した置き換え用の色差面生成処理を実行してステップS180へ進み、(2−8)で上述したように、(2−2)で退避させた輝度成分と、(2−7)の処理で軸上色収差の補正された色差成分を統合して最終出力画像を生成する。その後、ステップS190へ進み、軸上色収差に伴う色滲みを解消したカラー画像を、モニタ113に出力して表示し、処理を終了する。   In step S170, the replacement color difference plane generation process described above in (2-7) is executed, and the process proceeds to step S180. As described above in (2-8), the luminance component saved in (2-2). Then, the final output image is generated by integrating the color difference components whose axial chromatic aberration is corrected in the processing of (2-7). Thereafter, the process proceeds to step S190, where a color image from which color blur due to axial chromatic aberration has been eliminated is output and displayed on the monitor 113, and the process ends.

以上説明した第3の実施の形態によれば、従来技術とは異なり、高MTFの他の色成分情報を利用して、低MTFの色成分情報を補正しているので、鮮鋭な軸上色収差補正ができる。また、G成分に対するぼかしのみならず、R成分とB成分に対するぼかしも行うものとした。これによって、G成分に軸上色収差がある場合でもそれを補正することが可能となる。   According to the third embodiment described above, unlike the prior art, the low MTF color component information is corrected using other color component information of the high MTF, so that sharp axial chromatic aberration is obtained. Can be corrected. In addition to blurring for the G component, blurring for the R component and the B component is also performed. As a result, even when there is axial chromatic aberration in the G component, it can be corrected.

―第4の実施の形態―
第4の実施の形態では、デジタルカメラ100で所定距離だけ離れた被写体にピントを合わせ、レンズ101のピント位置における被写体像がかぶる軸上色収差の一般的傾向を補正する。なお、図1に示した画像処理装置110を搭載したデジタルカメラ100のブロック図と、図2および図3に示した軸上色収差による色滲みが発生する原理を示す図、および図4に示したMTF特性を整合させて軸上色収差を補正する原理を示す図については、第1の実施の形態と同様のため、説明を省略する。
-Fourth embodiment-
In the fourth embodiment, the digital camera 100 focuses on a subject separated by a predetermined distance, and corrects the general tendency of axial chromatic aberration that the subject image covers at the focus position of the lens 101. 1 is a block diagram of the digital camera 100 equipped with the image processing apparatus 110 shown in FIG. 1, a diagram showing the principle of color blurring due to axial chromatic aberration shown in FIGS. 2 and 3, and FIG. The diagram showing the principle of correcting the axial chromatic aberration by matching the MTF characteristics is the same as in the first embodiment, and thus the description thereof is omitted.

まず、あらかじめレンズ101が固有に持っている軸上色収差情報を調べておく。すなわち、所定距離に設置した基準被写体を撮影し、レンズ101が取りうる可変パラメータ、例えばレンズ種、ズーム位置、絞り値、ピント位置などの各々についてRGB間のMTF特性の違いを次のように事前に調査しておく。そして、この可変パラメータのそれぞれを変化させながら、例えば図14に示すような評価用撮影チャートを撮像し、そのときの黒線の信号レベルの出方を観測して、RGB間のMTF特性の違いを算出する。   First, axial chromatic aberration information inherently possessed by the lens 101 is examined in advance. That is, a reference subject placed at a predetermined distance is photographed, and the difference in MTF characteristics between RGB for each of the variable parameters that the lens 101 can take, such as the lens type, zoom position, aperture value, focus position, etc. To investigate. Then, while changing each of these variable parameters, for example, an imaging chart for evaluation as shown in FIG. 14 is imaged, and the appearance of the black line signal level at that time is observed, and the difference in MTF characteristics between RGB Is calculated.

この算出結果に基づいて、各可変パラメータの設定状況における最も鮮鋭な色成分に対して、ぼけた色成分に合わせるのに必要な一様LPFを特定し、図15に示すように、可変パラメータの各設定状況ごとに、被写体の位置(被写体までの距離)と特定した一様LPFの種類とを対応づけて、制御装置111が有するメモリに格納しておく。   Based on this calculation result, a uniform LPF necessary to match the blurred color component is identified for the sharpest color component in each variable parameter setting state. As shown in FIG. For each setting situation, the position of the subject (distance to the subject) and the specified type of uniform LPF are associated with each other and stored in the memory of the control device 111.

そして、撮像素子102で撮像した対象画像内の主要被写体が映っている部分の軸上色収差を補正するために、次のように処理する。まず、対象画像内における主要被写体位置を検出する。このとき、一般的に主要被写体はフォーカス位置(ピント位置)、またはその近傍に存在していることが多いことを加味して、まずは画像データから上述した可変パラメータを取得して、対象画像におけるフォーカス位置を特定する。なお、各可変パラメータは、撮像された画像データ内の例えばExif情報内に、光学系に関する外部情報として記憶されており、制御装置113は画像データを参照してフォーカス位置を特定することができる。   Then, in order to correct the axial chromatic aberration in the portion where the main subject in the target image captured by the image sensor 102 is reflected, the following processing is performed. First, the main subject position in the target image is detected. At this time, taking into account that the main subject generally exists at or near the focus position (focus position), first, the above-mentioned variable parameters are obtained from the image data, and the focus in the target image is obtained. Identify the location. Each variable parameter is stored as external information related to the optical system in, for example, Exif information in captured image data, and the control device 113 can specify the focus position with reference to the image data.

この特定したフォーカス位置の周りには主要被写体が広がっているものと仮定し、フォーカス位置の周囲の所定範囲内を対象範囲として、その範囲内でエッジ検出を行って、検出したエッジをグループ化することによりオブジェクト抽出して、そのオブジェクトを主要被写体とみなしてオブジェクトを含む範囲に対して軸上色収差補正を行う。具体的には、特定したフォーカス位置から主要被写体までの距離を判定し、さらに画像データから撮像時における可変パラメータの設定状況を判定する。そして、判定した可変パラメータの設定状況に対応する図15に示す表を参照することによって、その主要被写体まで距離に対応付けられた一様LPFを選択する。   Assuming that the main subject is spreading around the specified focus position, the predetermined range around the focus position is set as the target range, edge detection is performed within that range, and the detected edges are grouped. Thus, the object is extracted, and the object is regarded as a main subject, and axial chromatic aberration correction is performed on a range including the object. Specifically, the distance from the specified focus position to the main subject is determined, and further, the setting state of the variable parameter at the time of imaging is determined from the image data. Then, by referring to the table shown in FIG. 15 corresponding to the determined setting state of the variable parameter, the uniform LPF associated with the distance to the main subject is selected.

そして、上述した対象範囲を、選択した一様LPFでぼかして、第1の実施の形態、および第3の実施の形態で上述したように、当該対象範囲内における軸上色収差補正を行う。これによって、光学系に関する外部情報として記憶された可変パラーメータの設定状況に基づいて、その状況に合った一様LPFを判定し、この一様LPFを用い適切な色成分に対して、適切な度合いの平滑化を行うことができる。   Then, the target range described above is blurred by the selected uniform LPF, and axial chromatic aberration correction within the target range is performed as described above in the first embodiment and the third embodiment. Thus, based on the setting state of the variable parameters stored as external information related to the optical system, a uniform LPF suitable for the state is determined, and an appropriate degree is set for an appropriate color component using the uniform LPF. Can be smoothed.

図16は、第4の実施の形態における画像処理装置110の動作を示すフローチャートである。図16に示す処理は、レンズ101を介して撮像素子102によって撮像された画像が画像メモリ112に記憶されると起動するプログラムとして制御装置111によって実行される。ステップS210において、画像メモリ112から画像を読み込んでステップS220へ進む。ステップS220では、上述したように画像データからォーカス位置を特定して、ステップS230へ進む。   FIG. 16 is a flowchart illustrating the operation of the image processing apparatus 110 according to the fourth embodiment. The process illustrated in FIG. 16 is executed by the control device 111 as a program that starts when an image captured by the image sensor 102 via the lens 101 is stored in the image memory 112. In step S210, an image is read from the image memory 112, and the process proceeds to step S220. In step S220, the focus position is specified from the image data as described above, and the process proceeds to step S230.

ステップS230では、画像データから撮像時における可変パラメータの設定状況を判定し、その可変パラメータの設定状況に対応する図15に示す表を参照することによって、フォーカス位置、すなわち主要被写体まで距離に対応付けられた一様LPFを選択する。その後、ステップS240へ進み、選択した一様LPFを使用して読み込んだ画像をぼかして、ステップS250へ進む。ステップS250では、入力画像、すなわち画像メモリ112から読み込んだ画像がBayer配列のような単板式カラー撮像素子出力画像、または補間済みのカラー画像のいずれであるかを判定する。   In step S230, the setting state of the variable parameter at the time of imaging is determined from the image data, and the focus position, that is, the distance to the main subject is associated with the table shown in FIG. Select the uniform LPF. Thereafter, the process proceeds to step S240, the image read using the selected uniform LPF is blurred, and the process proceeds to step S250. In step S250, it is determined whether the input image, that is, the image read from the image memory 112 is a single-plate color image sensor output image such as a Bayer array or an interpolated color image.

そして、入力画像がBayer配列のような単板式カラー撮像素子出力画像であると判断した場合には、ステップS260へ進み、上述した第1の実施の形態における図8のステップS70〜ステップS100の処理を実行して、画像の軸上色収差を補正し、モニタ113に出力した後に処理を終了する。これに対して、入力画像が補間済みのカラー画像であると判断した場合には、ステップS270へ進み、上述した第3の実施の形態における図13のステップS170〜ステップS190の処理を実行して、カラー画像の軸上色収差を補正し、モニタ113に出力した後に処理を終了する。   If it is determined that the input image is a single-plate color image sensor output image such as a Bayer array, the process proceeds to step S260, and the processes in steps S70 to S100 of FIG. 8 in the first embodiment described above. Is executed to correct the axial chromatic aberration of the image and output it to the monitor 113, and then the process ends. On the other hand, if it is determined that the input image is an interpolated color image, the process proceeds to step S270, and the processes in steps S170 to S190 in FIG. 13 in the third embodiment described above are executed. Then, the axial chromatic aberration of the color image is corrected and output to the monitor 113, and then the process is terminated.

上述した第4の実施の形態によれば、第1または第3の実施の形態における作用効果に加えて、次のような作用効果を得ることができる。
(1)画像データに含まれるフォーカス位置情報に基づいて主要被写体を抽出し、抽出した主要被写体までの距離を判定して図15に示す表を参照することによって、その主要被写体まで距離に対応付けられた一様LPFを選択して、主要被写体が存在する範囲の画像をぼかすようにした。これによって、主要被写体までの距離に基づいて、あらかじめ設定された一様LPFを選択して画像をぼかせばよいため、ぼかし量を決定するための種々の処理が不要となり、処理を高速化できる。
(2)主要被写体までの距離を判定するにあたっては、画像データに含まれるフォーカス位置の周囲の所定範囲内を対象範囲として、その範囲内でエッジ検出を行って、検出したエッジをグループ化することによりオブジェクト抽出して、そのオブジェクトを主要被写体とみなすようにした。これによって、一般的に主要被写体はフォーカス位置、またはその近傍に存在していることが多いことを加味して、正確に主要被写体を抽出することができる。
According to the fourth embodiment described above, the following operational effects can be obtained in addition to the operational effects of the first or third embodiment.
(1) The main subject is extracted based on the focus position information included in the image data, the distance to the extracted main subject is determined, and the table shown in FIG. The selected uniform LPF was selected to blur the image in the range where the main subject exists. Accordingly, since it is only necessary to select a preset uniform LPF based on the distance to the main subject and blur the image, various processes for determining the blur amount are not necessary, and the process can be speeded up.
(2) When determining the distance to the main subject, a predetermined range around the focus position included in the image data is set as a target range, edge detection is performed within the range, and the detected edges are grouped. The object is extracted by the above and the object is regarded as the main subject. This makes it possible to accurately extract the main subject in consideration of the fact that the main subject generally exists at or near the focus position.

―変形例―
なお、上述した実施の形態の画像処理装置は、以下のように変形することもできる。
(1)上述した第1および2の実施の形態では、撮像素子102においては、例えば、単板式カラー撮像素子の最も代表的なR(赤)、G(緑)、B(青)のカラーフィルタがBayer配列されており、この撮像素子102で撮像される画像データはRGB表色系で示されるものとし、画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在しているものとする例ついて説明した。しかしこれに限定されず、撮像素子102に2板式カラー撮像素子を用い、画像データを構成する各々の画素には、RGBの何れか2つの色成分の色情報が存在しているものとしてもよい。すなわち、撮像素子102は、撮像面におけるMTF特性が異なる複数の色成分を有する各画素において少なくとも1つの色成分が欠落した画像を撮像するものであればよい。
-Modification-
The image processing apparatus according to the above-described embodiment can be modified as follows.
(1) In the first and second embodiments described above, in the image sensor 102, for example, the most representative R (red), G (green), and B (blue) color filters of a single-plate color image sensor. Are arranged in a Bayer array, and the image data captured by the image sensor 102 is represented by the RGB color system, and each pixel constituting the image data has color information of any one of RGB color components. An example was given assuming that exists. However, the present invention is not limited to this, and a two-plate color image sensor may be used as the image sensor 102, and color information of any two color components of RGB may exist in each pixel constituting the image data. . That is, the image sensor 102 only needs to capture an image in which at least one color component is missing in each pixel having a plurality of color components having different MTF characteristics on the imaging surface.

(2)上述した第1〜3の実施の形態では、(1−6)および(2−6)でぼかし量を決定するに当たって、最終的に画像生成のために利用する離散的なぼかし量を判定する例について説明した。しかしこれに限定されず、連続的なぼかし量を判定するようにしてもよい。例えばCr1、Cr2をまとめてCr_blurのように表し、次式(55)および(56)に示すように、線形結合を行う。なお、ここでは、G"のぼかし方とGのぼかしなしの線形結合状態(加重係数(s、t))でCr_blur、およびCb_blurを生成する例について説明するが、同様の方法でG'を加えた線形結合とすることもできる。
Cr_blur = R-{s*<G">+(1-s)*<G>}・・・(55)
Cb_blur = B-{t*<G">+(1-t)*<G>}・・・(56)
ただし、0=<(s,t)=<1とする。
(2) In the first to third embodiments described above, when determining the blurring amount in (1-6) and (2-6), the discrete blurring amount used for image generation is finally used. An example of determination has been described. However, the present invention is not limited to this, and a continuous blur amount may be determined. For example, Cr1 and Cr2 are collectively expressed as Cr_blur, and linear combination is performed as shown in the following equations (55) and (56). Here, an example in which Cr_blur and Cb_blur are generated using a linear combination state (weighting coefficients (s, t)) without blurring G ″ will be described, but G ′ is added in the same manner. It can also be a linear combination.
Cr_blur = R- {s * <G "> + (1-s) * <G>} (55)
Cb_blur = B- {t * <G "> + (1-t) * <G>} (56)
However, 0 = <(s, t) = <1.

式(55)および(56)で生成したCr_blur、およびCb_blurに基づいて、ぼかし側に対応する色指標Cdiff_blurを次式(57)により生成する。
Cdiff_blur = |Cr_blur[i,j]|+|Cb_blur[i,j]|+|Cr_blur[i,j]-Cb_blur[i,j]| ・・・(57)
そして、Cdiff_blurの最小値を与える(s,t)の組み合せを、図17に示すように2次元探索する。次にCdiff_blurの最小値と、ぼかしなし側色指標Cdiff_r0b0とを比較して、ぼかし量(s,t)を採用するか、ぼかしなしにするかを決定する。この比較はCdiff_r0b0だけを特別に扱っている場合にのみ行うものとする。
Based on Cr_blur and Cb_blur generated in Expressions (55) and (56), a color index Cdiff_blue corresponding to the blur side is generated according to Expression (57) below.
Cdiff_blur = | Cr_blur [i, j] | + | Cb_blur [i, j] | + | Cr_blur [i, j] -Cb_blur [i, j] | (57)
Then, a combination of (s, t) that gives the minimum value of Cdiff_blur is two-dimensionally searched as shown in FIG. Next, the minimum value of Cdiff_blur and the non-blurring side color index Cdiff_r0b0 are compared to determine whether to use the blurring amount (s, t) or not. This comparison is performed only when only Cdiff_r0b0 is specially handled.

なお、このように判定した連続的なぼかし量によって画像をぼかす場合には、第1の実施の形態の(1−7)で上述した実際の色差面生成処理において、最終出力画像に用いる色差成分Cr[i,j]、Cb[i,j]は、式(28)および(29)に代えて、次式(58)および(59)によって求めればよい。
Cr[i,j]=one of {Cr0, Cr_blur(s; 0=<s=<1)} R位置 ・・・(58)
Cb[i,j]=one of {Cb0, Cb_blur(t; 0=<t=<1)} B位置 ・・・(59)
When the image is blurred by the continuous blur amount determined in this way, the color difference component used for the final output image in the actual color difference plane generation process described in (1-7) of the first embodiment. Cr [i, j] and Cb [i, j] may be obtained by the following equations (58) and (59) instead of equations (28) and (29).
Cr [i, j] = one of {Cr0, Cr_blur (s; 0 = <s = <1)} R position (58)
Cb [i, j] = one of {Cb0, Cb_blur (t; 0 = <t = <1)} B position (59)

(3)上述した第1の実施の形態では、Bayer面から生成された直後の複数通りの色差面の組み合せを比較してから、ぼかし量を決定して、通常の補間処理を行う例について説明した。しかしこれに限定されず、複数通りのぼかしに対応する色差面の補間を通常の補間処理と適応的な色差面の補正処理を行った後に、ぼかし量を決定するようにしてもよい。 (3) In the first embodiment described above, an example is described in which normal interpolation processing is performed by determining a blurring amount after comparing a plurality of combinations of color difference surfaces immediately after being generated from a Bayer surface. did. However, the present invention is not limited to this, and the amount of blur may be determined after performing normal color interpolation processing and adaptive color difference surface correction processing for color difference planes corresponding to a plurality of types of blurring.

(4)第1〜3の実施の形態では、画素単位で複数のぼかし方に対する生成された色成分の色応答をみることにより、画素単位でぼかし方を決定していた。しかし、これに限定されず、軸上色収差の発生要因からして画素レベルでの急激な変化は少ないであろうと仮定することができるので、もう少し大きな範囲でぼかし方の均一手法が選ばれるように、複数の画素にまたがったブロック単位に処理を行ってもよい。 (4) In the first to third embodiments, the blurring method is determined in pixel units by looking at the color responses of the generated color components for a plurality of blurring methods in pixel units. However, the present invention is not limited to this, and it can be assumed that there will be little sudden change at the pixel level due to the cause of axial chromatic aberration, so that a uniform method of blurring is selected in a slightly larger range. The processing may be performed in units of blocks extending over a plurality of pixels.

例えば、画像メモリ112から読み込んだBayer画像を64画素×64画素の大きさの複数のブロックに分割し、第1の実施の形態で上述したように画素単位の色指標を算出して、各ブロック内の色指標の平均値を算出する。そして、ブロック内の色指標の平均値に基づいて、ブロック単位での色指標比較を行い、最小値を与えるぼかし方のセットをブロック内に対して共通に適用して、ブロックごとに軸上色収差補正を行ってもよい。   For example, a Bayer image read from the image memory 112 is divided into a plurality of blocks each having a size of 64 pixels × 64 pixels, and a color index in units of pixels is calculated as described above in the first embodiment, and each block is calculated. The average value of the color index is calculated. Based on the average value of the color index in the block, the color index is compared in units of blocks, and a set of blurring methods that give the minimum value is applied in common to the block, and axial chromatic aberration is applied to each block. Correction may be performed.

なお、この場合には、各ブロック単位で軸上色収差補正を行うため、各ブロック間の境界上に不自然な色の違いが発生する可能性がある。これを回避するために、さらに次のように変形してもよい。すなわち、色指標を算出した後に、その色指標の複数画素間(例えば16×16や64×64)における平均値をとり、それらを(1−6)または(2−6)と同様にして画素単位の評価を行うようにする。これによって、平均した範囲程度では均一なぼかし量が決定されることになり、ブロック境界での不自然さをなくすことができる。   In this case, since axial chromatic aberration correction is performed in units of blocks, an unnatural color difference may occur on the boundary between the blocks. In order to avoid this, the following modifications may be made. That is, after calculating a color index, an average value of a plurality of pixels of the color index (for example, 16 × 16 or 64 × 64) is taken, and these are calculated in the same manner as in (1-6) or (2-6). Try to evaluate the units. As a result, a uniform blur amount is determined in the average range, and unnaturalness at the block boundary can be eliminated.

(5)上述した第3の実施の形態では、RGB表色系で示されるカラー画像を、YCbCr形式の画像データに変換してから軸上色収差補正を行う例について説明した。しかしこれに限定されず、RGB形式のデータのままの状態で軸上色収差補正を行ってもよい。すなわち、図4におけるMTF整合処理(式(1)、(2))を、R、G、B各々について直接行うようにしてもよい。 (5) In the above-described third embodiment, an example in which axial chromatic aberration correction is performed after a color image represented by the RGB color system is converted to image data in the YCbCr format has been described. However, the present invention is not limited to this, and axial chromatic aberration correction may be performed with the data in the RGB format as it is. That is, the MTF matching processing (Equations (1) and (2)) in FIG. 4 may be directly performed for each of R, G, and B.

(6)上述した第4の実施の形態では、画像データに含まれるフォーカス位置情報に基づいて主要被写体を抽出し、その主要被写体が存在する範囲のみを補正する例について説明した。しかし、これに限定されず画像全体に対して軸上色収差補正を行ってもよい。 (6) In the above-described fourth embodiment, the example in which the main subject is extracted based on the focus position information included in the image data and only the range where the main subject exists has been described. However, the present invention is not limited to this, and axial chromatic aberration correction may be performed on the entire image.

(7)上述した第4の実施の形態では、画像データ内に含まれているフォーカス位置に基づいて被写体までの距離を特定する例について説明した。しかしこれに限定されず、画像データ内に含まれる「接写撮影」、「ポートレート撮影」、「風景撮影」のようなカメラの撮影モードに基づいて、被写体までの距離を特定してもよい。例えば、接写撮影モードのときは被写体は至近に存在するものと判定して、図15に示した対応表を参照するようにすればよい。 (7) In the above-described fourth embodiment, the example in which the distance to the subject is specified based on the focus position included in the image data has been described. However, the present invention is not limited to this, and the distance to the subject may be specified based on the camera shooting modes such as “close-up shooting”, “portrait shooting”, and “landscape shooting” included in the image data. For example, in the close-up shooting mode, it may be determined that the subject is in the vicinity and the correspondence table shown in FIG. 15 is referred to.

(8)上述した第1〜第4の実施の形態では、デジタルカメラ100に搭載した制御装置111によって、各種画像処理を行い、レンズ101を介して撮像素子102で撮像した画像の軸上色収差補正を行う例について説明した。しかしこれに限定されず、例えば、上述した内容の画像処理を実行するプログラムをパソコンなどの電子機器にインストールしておき、デジタルカメラで撮像した画像を各種インターフェースを介して当該電子機器に取り込んでから軸上色収差補正を行うようにしてもよい。なお、このようなプログラムは、CDなどの記録媒体やインターネットなどの電気通信回線を介してパソコンなどの電子機器に提供される。 (8) In the first to fourth embodiments described above, various image processing is performed by the control device 111 mounted on the digital camera 100, and axial chromatic aberration correction of an image captured by the image sensor 102 via the lens 101 is performed. An example of performing is described. However, the present invention is not limited to this, for example, after installing a program for executing the above-described image processing in an electronic device such as a personal computer, and capturing an image captured by a digital camera into the electronic device via various interfaces. On-axis chromatic aberration correction may be performed. Such a program is provided to an electronic device such as a personal computer via a recording medium such as a CD or an electric communication line such as the Internet.

(9)上述した第1〜第4の実施の形態では、上述した図4に示す原理によってMTFを整合させ、軸上色収差を補正する例について説明したが、これに限定されず、図18に示すように、RGBの各色成分から輝度面Y(図18(d))を生成し、当該輝度面Yを平滑化して、MTFを整合させるようにしてもよい。 (9) In the above-described first to fourth embodiments, the example in which the MTF is matched and the axial chromatic aberration is corrected according to the principle shown in FIG. 4 is described. However, the present invention is not limited to this, and FIG. As shown, a luminance plane Y (FIG. 18D) may be generated from each RGB color component, and the luminance plane Y may be smoothed to match the MTF.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

画像処理装置をデジタルカメラに搭載した場合の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment at the time of mounting an image processing apparatus in a digital camera. 軸上色収差による色滲みが発生する原理について説明する第1の図である。It is a 1st figure explaining the principle which the color bleed by axial chromatic aberration generate | occur | produces. 軸上色収差による色滲みが発生する原理について説明する第2の図である。It is a 2nd figure explaining the principle which the color bleed by axial chromatic aberration generate | occur | produces. 他の色成分(G成分)を利用して、R、Bの各成分の軸上色収差を補正する原理を示す図である。It is a figure which shows the principle which correct | amends the axial chromatic aberration of each component of R and B using another color component (G component). Bayer画像の具体例を示す図である。It is a figure which shows the specific example of a Bayer image. 第1の実施の形態で使用する平滑化フィルタの具体例を示す図である。It is a figure which shows the specific example of the smoothing filter used in 1st Embodiment. 第1の実施の形態における「ぼかしなし画像」、「ぼかし弱画像」、および「ぼかし強画像」の具体例を示す図である。It is a figure which shows the specific example of the "non-blurred image" in a 1st embodiment, the "blurred weak image", and the "blur strong image". 第1の実施の形態における画像処理装置110の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the image processing apparatus 110 in 1st Embodiment. MTFを整合させたBayer画像の具体例を示す図である。It is a figure which shows the specific example of the Bayer image which matched MTF. 第2の実施の形態における画像処理装置110の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the image processing apparatus 110 in 2nd Embodiment. 第3の実施の形態で使用する平滑化フィルタの具体例を示す図である。It is a figure which shows the specific example of the smoothing filter used in 3rd Embodiment. 第3の実施の形態における「ぼかしなし画像」、および「ぼかしあり画像」の具体例を示す図である。It is a figure which shows the specific example of the "image without a blur" and the "image with a blur" in 3rd Embodiment. 第3の実施の形態における画像処理装置110の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the image processing apparatus 110 in 3rd Embodiment. 第4の実施の形態における評価用撮影チャートの具体例を示す図である。It is a figure which shows the specific example of the imaging | photography chart for evaluation in 4th Embodiment. 第4の実施の形態における被写体までの距離と、使用するLPFの対応関係を示す図である。It is a figure which shows the correspondence of the distance to the to-be-photographed object and LPF to be used in 4th Embodiment. 第4の実施の形態における画像処理装置110の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the image processing apparatus 110 in 4th Embodiment. 連続的なぼかし量の判定方法の具体例を示す図である。It is a figure which shows the specific example of the determination method of the continuous blurring amount. 変形例(9)におけるMTF特性を整合させて軸上色収差を補正する原理を示す図である。It is a figure which shows the principle which adjusts an axial chromatic aberration by matching the MTF characteristic in a modification (9).

符号の説明Explanation of symbols

100 デジタルカメラ
101 レンズ
102 撮像素子
110 画像処理装置
111 制御装置
112 画像メモリ
113 モニタ
DESCRIPTION OF SYMBOLS 100 Digital camera 101 Lens 102 Image pick-up element 110 Image processing apparatus 111 Control apparatus 112 Image memory 113 Monitor

Claims (13)

光学系を通して撮像され、1つの画素に複数の色成分の少なくとも1つが欠落し、撮像面において基準色成分と少なくとも他の1つの欠落色成分との間でMTF特性が異なる第1の画像をMTF特性が整合した第2の画像に変換する画像処理装置であって、
前記第1の画像の欠落色成分を有する画素において、前記欠落色成分と前記基準色成分との間のMTF特性の違いに関する情報を求め、前記求めた情報を使用して前記第2の画像を生成する画像生成手段を備えることを特徴とする画像処理装置。
A first image captured through the optical system, in which at least one of a plurality of color components is missing in one pixel and the MTF characteristics are different between the reference color component and at least one other missing color component on the imaging surface, is MTF An image processing apparatus for converting to a second image having matched characteristics,
In a pixel having a missing color component of the first image, information regarding a difference in MTF characteristics between the missing color component and the reference color component is obtained, and the second image is obtained using the obtained information. An image processing apparatus comprising image generating means for generating.
請求項1に記載の画像処理装置において、
前記画像生成手段は、前記求めた情報を使用して、前記欠落色成分を前記基準色成分のMTF特性に整合させるように補正しながら、各画素に少なくとも1つの前記欠落色成分を補間した前記第2の画像を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image generation means interpolates at least one missing color component for each pixel while correcting the missing color component to match the MTF characteristic of the reference color component using the obtained information. An image processing apparatus that generates a second image.
請求項1に記載の画像処理装置において、
前記画像生成手段は、前記求めた情報を使用して、前記第1の画像の欠落色成分のMTF特性を前記基準色成分のMTF特性に整合させるように補正して、前記第1の画像と色成分の配列が同じ前記第2の画像を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image generation unit corrects the MTF characteristic of the missing color component of the first image to match the MTF characteristic of the reference color component using the obtained information, and An image processing apparatus that generates the second image having the same color component arrangement.
請求項3に記載の画像処理装置において、
前記第2の画像の欠落色成分を補間する補間手段をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
An image processing apparatus, further comprising interpolation means for interpolating a missing color component of the second image.
請求項2〜4のいずれか一項に記載の画像処理装置において、
前記画像生成手段は、前記基準色成分を前記第1の画像のMTF特性が異なる少なくとも1つの欠落色成分のMTF特性に近づけるように前記基準色成分を有する画素を平滑化する平滑化手段を含み、
前記平滑化手段によって平滑化された結果に基づいて、前記第1の画像の前記欠落色成分のMTF特性を前記基準色成分のMTF特性に整合させることを特徴とする画像処理装置。
In the image processing apparatus according to any one of claims 2 to 4,
The image generation means includes smoothing means for smoothing pixels having the reference color component so that the reference color component approaches the MTF characteristic of at least one missing color component having a different MTF characteristic of the first image. ,
An image processing apparatus that matches the MTF characteristic of the missing color component of the first image with the MTF characteristic of the reference color component based on the result smoothed by the smoothing unit.
請求項5に記載の画像処理装置において、
前記平滑化手段は、前記第2の画像の生成に使用する色差成分を生成するため、前記第1の画像の基準色成分に対して前記平滑化処理を行い、前記第2の画像の生成に使用する輝度成分を生成するための前記第1の画像の基準色成分に対しては前記平滑化処理を行わないことを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The smoothing means performs the smoothing process on a reference color component of the first image to generate a color difference component used for generating the second image, and generates the second image. An image processing apparatus, wherein the smoothing process is not performed on a reference color component of the first image for generating a luminance component to be used.
請求項1に記載の画像処理装置において、
前記第1の画像の基準色成分として、前記第1の画像の輝度情報を担う色成分を対応させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An image processing apparatus, wherein a color component bearing luminance information of the first image is associated as a reference color component of the first image.
請求項1に記載の画像処理装置において、
前記第1の画像の基準色成分として、前記第1の画像の最も高密度に配置された色成分を対応させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein a color component arranged at a highest density of the first image is associated as a reference color component of the first image.
請求項1に記載の画像処理装置において、
前記MTF特性の違いに関する情報を、撮像時の光学系の状態に関する外部情報に基づいて決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An image processing apparatus, wherein information relating to the difference in the MTF characteristics is determined based on external information relating to a state of an optical system at the time of imaging.
請求項9に記載の画像処理装置において、
前記撮影時の光学系の状態に関する外部情報は、撮像時に使用されたレンズ種、ズーム位置、フォーカス位置、絞り値、および画面内のフォーカス位置の少なくとも1つの情報を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 9.
The external information relating to the state of the optical system at the time of photographing includes at least one information of a lens type used at the time of photographing, a zoom position, a focus position, an aperture value, and a focus position in the screen. apparatus.
請求項5または6に記載の画像処理装置において、
前記平滑化手段は、画素ごとにそれぞれ平滑化の度合いを決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 5 or 6,
The image processing apparatus according to claim 1, wherein the smoothing means determines a degree of smoothing for each pixel.
請求項5または6に記載の画像処理装置において、
前記平滑化手段は、複数の画素にまたがって共通の平滑化の度合いを決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 5 or 6,
The image processing apparatus according to claim 1, wherein the smoothing unit determines a common smoothing level across a plurality of pixels.
請求項6に記載の画像処理装置において、
前記平滑化手段は、1つの画素に対して異なる色情報を表す複数種類の色差成分を生成するとき、各々の種類の色差成分を構成する前記第1の画像の色成分毎に、前記平滑化処理の平滑化の度合いを決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 6.
When generating a plurality of types of color difference components representing different color information for one pixel, the smoothing means performs the smoothing for each color component of the first image constituting each type of color difference component. An image processing apparatus that determines a degree of smoothing of processing.
JP2005205354A 2005-07-14 2005-07-14 Image processing device Active JP4945942B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005205354A JP4945942B2 (en) 2005-07-14 2005-07-14 Image processing device
PCT/JP2006/314073 WO2007007878A1 (en) 2005-07-14 2006-07-14 Image processing device and image processing method
US11/988,443 US8233710B2 (en) 2005-07-14 2006-07-14 Image processing device and image processing method
US13/303,934 US8509533B2 (en) 2005-07-14 2011-11-23 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005205354A JP4945942B2 (en) 2005-07-14 2005-07-14 Image processing device

Publications (2)

Publication Number Publication Date
JP2007028040A true JP2007028040A (en) 2007-02-01
JP4945942B2 JP4945942B2 (en) 2012-06-06

Family

ID=37788232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005205354A Active JP4945942B2 (en) 2005-07-14 2005-07-14 Image processing device

Country Status (1)

Country Link
JP (1) JP4945942B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010050572A (en) * 2008-08-19 2010-03-04 Canon Inc Image processing apparatus and method
WO2012004973A1 (en) * 2010-07-05 2012-01-12 株式会社ニコン Image processing device, imaging device, and image processing program
JP2012015951A (en) * 2010-07-05 2012-01-19 Nikon Corp Image processing device, imaging device and image processing program
JP2012191607A (en) * 2011-02-21 2012-10-04 Canon Inc Image processing system, image processing method and program
JP2012199900A (en) * 2011-03-07 2012-10-18 Nikon Corp Image processing device, imaging device, and image processing program
US8531545B2 (en) 2010-03-31 2013-09-10 Canon Kabushiki Kaisha Image processing apparatus, including a filter acquisition part, and image pickup apparatus
JP2014110633A (en) * 2012-11-30 2014-06-12 Samsung Techwin Co Ltd Apparatus and method for processing image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103358A (en) * 1999-09-30 2001-04-13 Mitsubishi Electric Corp Chromatic aberration correction device
JP2003050990A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Image processor and program making computer function as the image processor
JP2004241991A (en) * 2003-02-05 2004-08-26 Minolta Co Ltd Imaging apparatus, image processor, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103358A (en) * 1999-09-30 2001-04-13 Mitsubishi Electric Corp Chromatic aberration correction device
JP2003050990A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Image processor and program making computer function as the image processor
JP2004241991A (en) * 2003-02-05 2004-08-26 Minolta Co Ltd Imaging apparatus, image processor, and image processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010050572A (en) * 2008-08-19 2010-03-04 Canon Inc Image processing apparatus and method
US8531545B2 (en) 2010-03-31 2013-09-10 Canon Kabushiki Kaisha Image processing apparatus, including a filter acquisition part, and image pickup apparatus
WO2012004973A1 (en) * 2010-07-05 2012-01-12 株式会社ニコン Image processing device, imaging device, and image processing program
JP2012015951A (en) * 2010-07-05 2012-01-19 Nikon Corp Image processing device, imaging device and image processing program
JP2012191607A (en) * 2011-02-21 2012-10-04 Canon Inc Image processing system, image processing method and program
JP2012199900A (en) * 2011-03-07 2012-10-18 Nikon Corp Image processing device, imaging device, and image processing program
JP2014110633A (en) * 2012-11-30 2014-06-12 Samsung Techwin Co Ltd Apparatus and method for processing image

Also Published As

Publication number Publication date
JP4945942B2 (en) 2012-06-06

Similar Documents

Publication Publication Date Title
US8233710B2 (en) Image processing device and image processing method
JP4706635B2 (en) Image processing apparatus having color misregistration correction function, image processing program, and electronic camera
JP5040655B2 (en) Image processing apparatus and image processing method
JP5047048B2 (en) Image processing apparatus, imaging apparatus, control method, program, and storage medium
JP6327922B2 (en) Image processing apparatus, image processing method, and program
JP6525718B2 (en) Image processing apparatus, control method therefor, and control program
JP5546229B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP4700445B2 (en) Image processing apparatus and image processing program
JP5045421B2 (en) Imaging apparatus, color noise reduction method, and color noise reduction program
JP4979595B2 (en) Imaging system, image processing method, and image processing program
US20090207271A1 (en) Image Processor Correcting Color Misregistration, Image Processing Program, Image Processing Method, and Electronic Camera
JP4945942B2 (en) Image processing device
JP4945943B2 (en) Image processing device
JP2011123589A5 (en)
JP4986820B2 (en) Image processing apparatus and image processing method
JP6282123B2 (en) Image processing apparatus, image processing method, and program
JP2006023959A (en) Signal processing system and signal processing program
JP4717371B2 (en) Image processing apparatus and image processing program
JP5528139B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP4797478B2 (en) Image processing device
JP2011160255A5 (en)
JP5274697B2 (en) Image processing apparatus and image processing method
JP5330291B2 (en) Signal processing apparatus and imaging apparatus
JP5178421B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6238673B2 (en) Image processing apparatus, imaging apparatus, imaging system, image processing method, image processing program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4945942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250