JP2014072676A - Image processing circuit, image processing method, and imaging apparatus - Google Patents

Image processing circuit, image processing method, and imaging apparatus Download PDF

Info

Publication number
JP2014072676A
JP2014072676A JP2012216868A JP2012216868A JP2014072676A JP 2014072676 A JP2014072676 A JP 2014072676A JP 2012216868 A JP2012216868 A JP 2012216868A JP 2012216868 A JP2012216868 A JP 2012216868A JP 2014072676 A JP2014072676 A JP 2014072676A
Authority
JP
Japan
Prior art keywords
chromatic aberration
image
data
color
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012216868A
Other languages
Japanese (ja)
Other versions
JP5942755B2 (en
Inventor
Hirotaka Okudera
弘高 奥寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Semiconductor Ltd
Original Assignee
Fujitsu Semiconductor Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Semiconductor Ltd filed Critical Fujitsu Semiconductor Ltd
Priority to JP2012216868A priority Critical patent/JP5942755B2/en
Publication of JP2014072676A publication Critical patent/JP2014072676A/en
Application granted granted Critical
Publication of JP5942755B2 publication Critical patent/JP5942755B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing circuit which can approximate a color of image data to a color of incident light made incident to a lens.SOLUTION: An image processing section 30 has: a signal processing part 31 for applying prescribed signal processing to data outputted by an image sensor 14 and generating image data PD; and a chromatic aberration extraction circuit 41 for extracting chromatic aberration from the image data PD. The image processing section 30 has: a color data calculation circuit 42 which calculates color data D4 corresponding to a color of incident light made incident to a lens 12 which forms an image to an image sensor 14 on the basis of the chromatic aberration; and a differential circuit 43 which calculates a differential value D5 between color data at a position where the chromatic aberration of the image data PD has been extracted and the color data D4. The image processing section 30 has a correction circuit 46 which corrects the image data PD in accordance with a correction value D7 after weighing the differential value D5 with the weighed value D6.

Description

本発明は、画像処理回路、画像処理方法及び撮像装置に関するものである。   The present invention relates to an image processing circuit, an image processing method, and an imaging apparatus.

CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを搭載した撮像装置では、イメージセンサから読み出した信号に対して所定の信号処理が施されて出力用の画像データが生成される(例えば、特許文献1,2参照)。この撮像装置における信号処理としては、例えばホワイトバランス調整、ゲイン調整、欠陥信号の補正や手振れ補正処理などが実行される。このような各種の信号処理によって画質の優れた画像データを得ることが可能になっている。   In an imaging apparatus equipped with an image sensor such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), predetermined signal processing is performed on a signal read from the image sensor to generate image data for output. (For example, see Patent Documents 1 and 2). As signal processing in this imaging apparatus, for example, white balance adjustment, gain adjustment, defect signal correction, camera shake correction processing, and the like are executed. Image data with excellent image quality can be obtained by such various signal processing.

特開2001−186533号公報JP 2001-186533 A 特開2000−003437号公報JP 2000-003437 A

ところで、上記撮像装置では、イメージセンサを用いて、当該撮像装置に入射されるR(赤色)、G(緑色)、B(青色)それぞれの光の強さを検出し、その光の強さから被写体の色を判断している。そして、そのイメージセンサから読み出した信号に対して上述した各種の信号処理が施されて出力用の画像データが生成される。しかしながら、ホワイトバランス調整等の信号処理やノイズ等に起因して、上記画像データの色データと、実際に撮像装置に入射された光の色との間に誤差が生じる。このため、ホワイトバランス調整等の信号処理を施した後の画像データの色データは、被写体の実際の色と異なってしまう。すると、例えば上記撮像装置を医療現場などで利用した場合には、病巣診断などに悪影響を及ぼす可能性があった。   By the way, in the said imaging device, the intensity | strength of each R (red), G (green), and B (blue) light which injects into the said imaging device is detected using an image sensor, and the intensity of the light is detected. Judging the color of the subject. Then, the signal read from the image sensor is subjected to the various signal processes described above to generate image data for output. However, due to signal processing such as white balance adjustment, noise, and the like, an error occurs between the color data of the image data and the color of light actually incident on the imaging device. For this reason, the color data of the image data after performing signal processing such as white balance adjustment differs from the actual color of the subject. Then, for example, when the imaging apparatus is used at a medical site, there is a possibility that it may adversely affect lesion diagnosis.

本発明の一観点によれば、撮像素子から出力されるデータに対して所定の信号処理が施されて生成された画像データから色収差を抽出する色収差抽出回路と、前記色収差に基づいて、前記撮像素子に結像するレンズに入射される入射光の色に対応する色データを算出する色データ算出回路と、前記色データと、前記画像データの前記色収差を抽出した位置における色データとの差分値を算出する差分回路と、前記差分値に応じて前記画像データを補正する補正回路と、を有する。   According to an aspect of the present invention, a chromatic aberration extraction circuit that extracts chromatic aberration from image data generated by performing predetermined signal processing on data output from an image sensor, and the imaging based on the chromatic aberration A color data calculation circuit that calculates color data corresponding to the color of incident light incident on a lens that forms an image on the element, and a difference value between the color data and color data at a position where the chromatic aberration of the image data is extracted And a correction circuit for correcting the image data in accordance with the difference value.

本発明の一観点によれば、画像データの色をレンズに入射された入射光の色に近づけることができるという効果を奏する。   According to one aspect of the present invention, there is an effect that the color of image data can be made close to the color of incident light incident on a lens.

一実施形態の撮像装置を示すブロック図。1 is a block diagram illustrating an imaging apparatus according to an embodiment. (a)〜(c)は、色収差を示す説明図。(A)-(c) is explanatory drawing which shows a chromatic aberration. 一実施形態の算出テーブルを示す説明図。Explanatory drawing which shows the calculation table of one Embodiment. イメージセンサ上の位置を示す説明図。Explanatory drawing which shows the position on an image sensor. 画像補正方法を示すフローチャート。The flowchart which shows the image correction method. (a)、(b)は、色収差の検出しやすい条件を示す説明図。(A), (b) is explanatory drawing which shows the conditions which are easy to detect a chromatic aberration. 変形例の算出テーブルを示す説明図。Explanatory drawing which shows the calculation table of a modification.

(第1実施形態)
以下、第1実施形態を図1〜図6に従って説明する。
図1に示す撮像装置1は、例えばデジタルスチルカメラである。この撮像装置1は、撮像部10と、アナログフロントエンド(Analog Front End:AFE)20と、画像処理部30と、メモリ50とを有している。
(First embodiment)
Hereinafter, a first embodiment will be described with reference to FIGS.
An imaging apparatus 1 illustrated in FIG. 1 is a digital still camera, for example. The imaging apparatus 1 includes an imaging unit 10, an analog front end (AFE) 20, an image processing unit 30, and a memory 50.

撮像部10は、撮像光学系(光学系)11と、イメージセンサ14とを有している。光学系11は、被写体からの光を集光するレンズ12と、絞り13とを有している。レンズ12は、例えば焦点距離の変更(変倍)が可能なズームレンズである。例えば、レンズ12はズームレンズ群とフォーカスレンズとを有する。このレンズ12は、被写体を撮影するための被写体像をイメージセンサ14の受光面に結像する。また、レンズ12では、例えば画像処理部30内のオートフォーカス(AF)制御部32の制御によってズームレンズ群が光軸方向に沿って移動される。これにより、レンズ12のズーム倍率(倍率)が調整される。また、レンズ12では、例えば上記AF制御部32の制御によってフォーカスレンズが光軸方向に沿って移動される。これにより、イメージセンサ14の受光面における被写体像のフォーカス(焦点)が調整される。   The imaging unit 10 includes an imaging optical system (optical system) 11 and an image sensor 14. The optical system 11 includes a lens 12 that collects light from the subject and a diaphragm 13. The lens 12 is a zoom lens that can change (magnify) the focal length, for example. For example, the lens 12 includes a zoom lens group and a focus lens. The lens 12 forms a subject image for photographing the subject on the light receiving surface of the image sensor 14. In the lens 12, for example, the zoom lens group is moved along the optical axis direction under the control of an autofocus (AF) control unit 32 in the image processing unit 30. Thereby, the zoom magnification (magnification) of the lens 12 is adjusted. In the lens 12, for example, the focus lens is moved along the optical axis direction by the control of the AF control unit 32. As a result, the focus of the subject image on the light receiving surface of the image sensor 14 is adjusted.

絞り13は、レンズ12を透過した光の量を被写体照度に応じて調整する。イメージセンサ14は、例えばベイヤ配列されたカラーフィルタと、光電変換部を含む複数の画素を備えた撮像素子とを有する。撮像素子としては、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどが用いられる。イメージセンサ14は、被写体像を光電変換して撮像信号(アナログ信号)を生成する。   The diaphragm 13 adjusts the amount of light transmitted through the lens 12 according to the subject illuminance. The image sensor 14 includes, for example, a Bayer array color filter and an image sensor including a plurality of pixels including a photoelectric conversion unit. As the image sensor, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like is used. The image sensor 14 photoelectrically converts the subject image to generate an imaging signal (analog signal).

AFE20は、例えばプリアンプやアナログ−デジタル変換回路(ADC)などを含む。AFE20は、イメージセンサ14から出力される撮像信号をデジタル信号に変換し、そのデジタル信号を画像データ(ベイヤデータ)として画像処理部30に出力する。   The AFE 20 includes, for example, a preamplifier and an analog-digital conversion circuit (ADC). The AFE 20 converts the imaging signal output from the image sensor 14 into a digital signal, and outputs the digital signal to the image processing unit 30 as image data (Bayer data).

画像処理部30は、信号処理部31と、AF制御部32と、画像補正部40とを有している。信号処理部31は、AFE20から入力されるRGB形式の画像データ(入力画像データ)に対して各種画像処理を施し、その処理後の画像データPDを画像補正部40に出力する。各種の画像処理は、例えばホワイトバランス調整やゲイン調整や欠陥信号の補正などの前処理、連続して撮影した画素間のずれを補正する手振れ補正処理などである。ここで、上記手振れ補正は、画像処理によって手振れを補正する技術であって、例えば短い露光時間で連続的に撮影した複数の画像についてずれ量を算出し、そのずれを補正するように複数の画像を位置合わせして合成することで手振れを補正する技術である。そして、信号処理部31は、上記手振れ補正で得られた手振れ量(上記画素間のずれ量)を示す手振れデータD1を画像補正部40に出力する。   The image processing unit 30 includes a signal processing unit 31, an AF control unit 32, and an image correction unit 40. The signal processing unit 31 performs various types of image processing on the RGB format image data (input image data) input from the AFE 20, and outputs the processed image data PD to the image correction unit 40. Various types of image processing include, for example, preprocessing such as white balance adjustment, gain adjustment, and defect signal correction, and camera shake correction processing that corrects a shift between continuously captured pixels. Here, the above-mentioned camera shake correction is a technique for correcting camera shake by image processing. For example, a plurality of images are calculated so that a shift amount is calculated for a plurality of images continuously shot with a short exposure time and the shift is corrected. This is a technique for correcting camera shake by aligning and composing images. Then, the signal processing unit 31 outputs camera shake data D1 indicating the amount of camera shake (the amount of shift between the pixels) obtained by the camera shake correction to the image correction unit 40.

また、信号処理部31は、上記入力画像データに基づいて、フォーカス状態を示すAF評価値を算出し、そのAF評価値をAF制御部32に出力する。詳述すると、信号処理部31は、入力画像データから輝度信号を抽出した後に、その輝度信号の画面内における高周波成分を積算することで、入力画像データのコントラスト強度を示すAF評価値を算出し、そのAF評価値をAF制御部32に出力する。ここで、AF制御部32は、上記AF評価値に基づいて被写体にピントを合致させるAF制御を実行する。すなわち、AF制御部32は、AF評価値に基づいて合焦位置(AF位置)を検出し、その合焦位置に上記レンズ12のフォーカスレンズを移動するように制御する。なお、上記AF制御としては、例えば公知の山登り方式のAF制御を用いることができる。   In addition, the signal processing unit 31 calculates an AF evaluation value indicating the focus state based on the input image data, and outputs the AF evaluation value to the AF control unit 32. Specifically, after extracting the luminance signal from the input image data, the signal processing unit 31 calculates an AF evaluation value indicating the contrast intensity of the input image data by integrating high-frequency components in the screen of the luminance signal. The AF evaluation value is output to the AF control unit 32. Here, the AF control unit 32 executes AF control for bringing the subject into focus based on the AF evaluation value. That is, the AF control unit 32 detects a focus position (AF position) based on the AF evaluation value, and controls to move the focus lens of the lens 12 to the focus position. As the AF control, for example, a well-known hill-climbing AF control can be used.

さらに、信号処理部31は、上記入力画像データ等に基づいて、その入力画像データにおけるAF位置(合焦位置)を検出し、そのAF位置の位置情報を含むAFデータD2を画像補正部40に出力する。   Further, the signal processing unit 31 detects the AF position (focus position) in the input image data based on the input image data and the like, and supplies the AF data D2 including the position information of the AF position to the image correction unit 40. Output.

画像補正部40には、画像データPDが信号処理部31から入力されるとともに、その画像データPDを撮影した際の撮影条件(具体的には、光学系11の条件)がAF制御部32等から入力される。画像補正部40は、上記入力画像データに対して各種の信号処理が施された画像データPDの色データを、色収差を利用して補正する。具体的には、画像補正部40は、色収差を利用して、画像データPDの色データをレンズ12に入射された入射光の色に近づけるように補正する。そして、画像補正部40は、補正後の補正画像データPD1をメモリ50に格納する。   The image correction unit 40 receives the image data PD from the signal processing unit 31, and the shooting conditions (specifically, the conditions of the optical system 11) when shooting the image data PD are the AF control unit 32 and the like. It is input from. The image correction unit 40 corrects the color data of the image data PD obtained by performing various signal processes on the input image data using chromatic aberration. Specifically, the image correction unit 40 corrects the color data of the image data PD so as to approach the color of incident light incident on the lens 12 using chromatic aberration. Then, the image correction unit 40 stores the corrected image data PD1 after correction in the memory 50.

ここで、画像補正部40における画像補正方法(画像処理方法)について簡単に説明する。まず、信号処理部31でホワイトバランス調整等の信号処理が施された画像データPDの色データは、上記信号処理等に起因してレンズ12に入射された入射光L1(図2(a)参照)の色との間に誤差が生じるため、被写体の実際の色と異なることは上述した。一方、レンズ12を利用した撮像装置1では、色収差と呼ばれる結像誤差が発生する。この色収差とは、図2(a)に示すように、レンズ12に入射光L1が入射されたときに、その入射光L1の光波LR,LG,LBの色の波長によりレンズ12を通過した場合の屈折率が異なることに起因して生じる収差である。このような色収差によって、例えば赤色(R)の波長成分を有する光波LRがイメージセンサ14の受光面に結像する結像位置(エッジ)、緑色(G)の波長成分を有する光波LGの結像位置、及び青色(B)の波長成分を有する光波LBの結像位置が互いに異なったものとなる。換言すると、RGB各色の波長成分を有する光波LR,LG,LBが結像する結像位置(エッジ)の差分が色収差となる。本明細書では、図2(b)及び図2(c)に示すように、緑色の光波LGの結像位置と赤色の光波LRの結像位置との差分(画素数)を「緑赤間の色収差」と称し、青色の光波LBの結像位置と緑色の光波LGの結像位置との差分(画素数)を「青緑間の色収差」と称する。このような色収差は、被写体60(ここでは、木)の色と光学系11の特性データ(レンズ12の屈折率及び倍率や絞り等)により一義的に決まる値である。例えば被写体60の任意の点61における色が薄い緑色の場合(図2(b)参照)と濃い緑色の場合(図2(c)参照)とについて説明する。なお、説明の簡便化のため、被写体60の点61における赤色と青色の成分は同一で緑色のみ異なる場合について説明する。まず、薄い緑色よりも濃い緑色の方が光の周波数が高いため、屈折率が高くなる。このため、被写体60が濃い緑色の場合(図2(c)参照)には、イメージセンサ14において、緑色の光波LGの結像位置が、被写体60が薄い緑色の場合(図2(b)参照)よりも青色の光波LBの結像位置に近い位置で検出される。すなわち、被写体60が濃い緑色の場合には、薄い緑色の場合と比べて、青緑間の色収差が小さくなる一方で、緑赤間の色収差が大きくなる。このように、被写体60の色の違いによって、RGB各色の光波LR,LG,LBのイメージセンサ14における結像位置が異なり、青緑間及び緑赤間の色収差が異なる。このため、このような色収差(具体的には、青緑間及び緑赤間の色収差)を検出することによって、レンズ12に入射された入射光L1の色を判断することができ、ひいては被写体60の色を判断することができる、とも言える。そこで、上記画像補正部40では、色収差を検出し、その色収差を利用して画像データPDの色データをレンズ12に入射された入射光L1の色(被写体60の色)に近づけるように補正する。   Here, an image correction method (image processing method) in the image correction unit 40 will be briefly described. First, the color data of the image data PD subjected to signal processing such as white balance adjustment in the signal processing unit 31 is incident light L1 incident on the lens 12 due to the signal processing or the like (see FIG. 2A). As described above, it is different from the actual color of the subject. On the other hand, in the imaging device 1 using the lens 12, an imaging error called chromatic aberration occurs. As shown in FIG. 2A, this chromatic aberration is when the incident light L1 is incident on the lens 12 and passes through the lens 12 with the wavelength of the light waves LR, LG, LB of the incident light L1. This aberration is caused by the difference in refractive index. Due to such chromatic aberration, for example, an imaging position (edge) where a light wave LR having a red (R) wavelength component forms an image on the light receiving surface of the image sensor 14 and an imaging of a light wave LG having a green (G) wavelength component. The position and the imaging position of the light wave LB having the blue (B) wavelength component are different from each other. In other words, the difference between the imaging positions (edges) at which the light waves LR, LG, and LB having wavelength components of RGB colors are imaged is chromatic aberration. In this specification, as shown in FIGS. 2B and 2C, the difference (number of pixels) between the imaging position of the green light wave LG and the imaging position of the red light wave LR is expressed as “between green and red. The difference (number of pixels) between the image formation position of the blue light wave LB and the image formation position of the green light wave LG is referred to as “chromatic aberration”. Such chromatic aberration is a value uniquely determined by the color of the subject 60 (here, wood) and the characteristic data of the optical system 11 (the refractive index, magnification, aperture, etc. of the lens 12). For example, a case where the color at an arbitrary point 61 of the subject 60 is light green (see FIG. 2B) and a case where the color is dark green (see FIG. 2C) will be described. For simplification of description, a case where the red and blue components at the point 61 of the subject 60 are the same and only green is different will be described. First, since the frequency of light is higher in darker green than in light green, the refractive index is higher. Therefore, when the subject 60 is dark green (see FIG. 2C), in the image sensor 14, the image formation position of the green light wave LG is when the subject 60 is light green (see FIG. 2B). ) Is detected at a position closer to the imaging position of the blue light wave LB. That is, when the subject 60 is dark green, the chromatic aberration between blue-green is reduced while the chromatic aberration between green and red is increased compared to the case of light green. As described above, depending on the color of the subject 60, the imaging positions of the RGB light waves LR, LG, and LB in the image sensor 14 are different, and the chromatic aberration between blue-green and green-red is different. For this reason, by detecting such chromatic aberration (specifically, chromatic aberration between blue-green and green-red), the color of the incident light L1 incident on the lens 12 can be determined. It can be said that the color can be judged. Therefore, the image correction unit 40 detects chromatic aberration and uses the chromatic aberration to correct the color data of the image data PD so as to approach the color of the incident light L1 incident on the lens 12 (the color of the subject 60). .

次に、画像補正部40の内部構成例を説明する。
図1に示すように、画像補正部40は、色収差抽出回路41と、色データ算出回路42と、差分回路43と、重み付け回路44と、乗算回路45と、補正回路46とを有している。
Next, an example of the internal configuration of the image correction unit 40 will be described.
As shown in FIG. 1, the image correction unit 40 includes a chromatic aberration extraction circuit 41, a color data calculation circuit 42, a difference circuit 43, a weighting circuit 44, a multiplication circuit 45, and a correction circuit 46. .

色収差抽出回路41には、信号処理部31から画像データPD及びAFデータD2が入力される。色収差抽出回路41は、画像データPD及びAFデータD2に基づいて、画像データPDの所定の位置(色収差抽出位置)における色収差を抽出する。そして、色収差抽出回路41は、抽出した色収差とその色収差のイメージセンサ14上の検出位置を示す位置情報とを色データ算出回路42に出力するとともに、上記色収差抽出位置を示す位置データD3を重み付け回路44に出力する。   Image data PD and AF data D <b> 2 are input from the signal processing unit 31 to the chromatic aberration extraction circuit 41. The chromatic aberration extraction circuit 41 extracts chromatic aberration at a predetermined position (chromatic aberration extraction position) of the image data PD based on the image data PD and the AF data D2. Then, the chromatic aberration extraction circuit 41 outputs the extracted chromatic aberration and position information indicating the detection position of the chromatic aberration on the image sensor 14 to the color data calculation circuit 42, and weights the position data D3 indicating the chromatic aberration extraction position. 44.

色データ算出回路42は、上記抽出された色収差と、その色収差のイメージセンサ14上の検出位置と、上記画像データPDを撮影した際の撮影条件(光学系11の条件)とに基づいて、RGB各色の色情報(光の強さ)を含む色データD4を算出する。詳述すると、色データ算出回路42は、上記抽出された色収差から、レンズ12に入射された入射光L1の色に対応する色データD4を算出するための算出テーブル42Aを有している。この算出テーブル42Aは、図3に示すように、レンズ12のズーム倍率(倍率)や絞り等の光学系11の特性データ、色収差を抽出したイメージセンサ14上の位置、青緑間の色収差及び緑赤間の色収差と、RGB各色の色情報を含む色データD4との関係を示すテーブルである。具体的には、算出テーブル42Aでは、レンズ12の倍率(1倍〜h倍)、絞り(1.0〜j)、イメージセンサ14上の検出位置(1〜k:図4参照)、青緑間の色収差(1画素〜m画素)及び緑赤間の色収差(1画素〜n画素)の数値の全ての組み合わせに対してそれぞれ1つの色データD4が対応付けられている。すなわち、レンズ12の倍率や絞りの光学系11の撮影条件と、イメージセンサ14上の検出位置と、色収差(青緑間及び緑赤間の色収差)とを含む入力パラメータが決まると、算出テーブル42Aに基づいて一意的にRGB各色の色情報が決定され色データD4が算出される。   The color data calculation circuit 42 performs RGB based on the extracted chromatic aberration, the detection position of the chromatic aberration on the image sensor 14, and the shooting condition when shooting the image data PD (condition of the optical system 11). Color data D4 including color information (light intensity) of each color is calculated. Specifically, the color data calculation circuit 42 has a calculation table 42A for calculating color data D4 corresponding to the color of the incident light L1 incident on the lens 12 from the extracted chromatic aberration. As shown in FIG. 3, the calculation table 42A includes characteristics data of the optical system 11 such as the zoom magnification (magnification) of the lens 12 and the aperture, the position on the image sensor 14 from which chromatic aberration is extracted, chromatic aberration between green and green, and green It is a table | surface which shows the relationship between the chromatic aberration between red, and the color data D4 containing the color information of each color of RGB. Specifically, in the calculation table 42A, the magnification of the lens 12 (1 to h times), the diaphragm (1.0 to j), the detection position on the image sensor 14 (1 to k: see FIG. 4), blue green One color data D4 is associated with each combination of numerical values of the chromatic aberration (1 pixel to m pixel) between and the chromatic aberration between green and red (1 pixel to n pixel). That is, when input parameters including the magnification of the lens 12 and the photographing condition of the optical system 11 of the aperture, the detection position on the image sensor 14, and chromatic aberration (chromatic aberration between blue-green and green-red) are determined, the calculation table 42A includes Based on this, color information for each color of RGB is uniquely determined, and color data D4 is calculated.

ここで、上述したように、色収差は、被写体の色(入射光L1の色)と光学系11の特性データ(レンズ12の屈折率及び倍率や絞り等)により一義的に決まる値である。換言すると、色収差と光学系11の特性データによって被写体の色(入射光L1の色)を一義的に判断することができる。そこで、色データ算出回路42では、光学系11(レンズ12及び絞り13)の性能評価時等に取得される光学系11の特性データに基づいて、その光学系11(レンズ12)に対応した算出テーブル42Aを予め準備し、その算出テーブル42Aを用いて色収差から入射光L1の色を示す色データD4を算出するようにした。上記屈折率はレンズ12固有の特性値であって固定値であるため上記入力パラメータには含まれていないが、その屈折率に応じて色データD4(入射光L1の色)と色収差との関係が変わるため、上記算出テーブル42Aにはレンズ12の屈折率が反映されている。換言すると、算出テーブル42Aでは、レンズ12の屈折率に基づいて、撮影条件となる光学系11の特性データ及び上記色収差と色データD4とが対応付けられている。すなわち、算出テーブル42Aは、レンズ12固有の屈折率に基づき決定される「レンズ12固有の色収差」及び撮影条件となる「光学系11の特性データ」と、レンズ12に入射された入射光L1の色を示す「色データD4」との関係を示すように生成されている。   Here, as described above, the chromatic aberration is a value uniquely determined by the color of the subject (the color of the incident light L1) and the characteristic data of the optical system 11 (the refractive index, magnification, aperture, etc. of the lens 12). In other words, the color of the subject (the color of the incident light L1) can be uniquely determined from the chromatic aberration and the characteristic data of the optical system 11. Therefore, in the color data calculation circuit 42, calculation corresponding to the optical system 11 (lens 12) is performed based on the characteristic data of the optical system 11 acquired at the time of evaluating the performance of the optical system 11 (lens 12 and aperture 13). A table 42A is prepared in advance, and color data D4 indicating the color of the incident light L1 is calculated from chromatic aberration using the calculation table 42A. Since the refractive index is a characteristic value unique to the lens 12 and is a fixed value, it is not included in the input parameter. However, the relationship between the color data D4 (color of the incident light L1) and chromatic aberration according to the refractive index. Therefore, the refractive index of the lens 12 is reflected in the calculation table 42A. In other words, in the calculation table 42A, based on the refractive index of the lens 12, the characteristic data of the optical system 11 that is a photographing condition, the chromatic aberration, and the color data D4 are associated with each other. That is, the calculation table 42A includes “the chromatic aberration inherent to the lens 12” determined based on the refractive index inherent to the lens 12 and “characteristic data of the optical system 11” serving as a photographing condition, and the incident light L1 incident on the lens 12. It is generated so as to show a relationship with “color data D4” indicating a color.

なお、入力パラメータ内のイメージセンサ14上の検出位置は、イメージセンサ14(撮像素子)の各画素に付与された番号で表わされている。本例では、図4に示すように、例えばイメージセンサ14の左上の画素、つまり1行1列目の画素に対して「1」が付与され、さらに1行目の画素に対して左から順番に番号(ここでは、「2」〜「15」)が付与されている。続いて、イメージセンサ14の2行1列目の画素に対して次番号(ここでは、「16」)が付与され、さらに2行目の画素に対して左から順番に番号が付与されている。以下同様に、イメージセンサ14の全画素に番号が付与され、イメージセンサ14の右下の画素の番号が「k」となる。また、図3では、図面の簡略化のために、色データD4におけるRGB各色の色情報を「XXX」と示しているが、実際には、RGB各色の色情報は10進数で表わすと、例えば「0」〜「255」の値で表わされる。   The detection position on the image sensor 14 in the input parameter is represented by a number assigned to each pixel of the image sensor 14 (imaging device). In this example, as shown in FIG. 4, for example, “1” is assigned to the upper left pixel of the image sensor 14, that is, the pixel in the first row and the first column, and the pixels in the first row are sequentially added from the left. Are given numbers (here, “2” to “15”). Subsequently, the next number (here, “16”) is assigned to the pixel in the second row and the first column of the image sensor 14, and the number is assigned to the pixels in the second row in order from the left. . Similarly, all pixels of the image sensor 14 are numbered, and the number of the lower right pixel of the image sensor 14 is “k”. Further, in FIG. 3, for simplification of the drawing, the color information of each RGB color in the color data D4 is shown as “XXX”, but actually, the color information of each RGB color is represented by a decimal number, for example, It is represented by a value from “0” to “255”.

差分回路43には、色データ算出回路42で算出された色データD4と、信号処理部31から出力された画像データPDとが入力される。差分回路43は、色収差の検出位置において、画像データPDの色データと上記色データD4との差分値D5を算出し、その差分値を乗算回路45に出力する。   The difference circuit 43 receives the color data D4 calculated by the color data calculation circuit 42 and the image data PD output from the signal processing unit 31. The difference circuit 43 calculates a difference value D5 between the color data of the image data PD and the color data D4 at the chromatic aberration detection position, and outputs the difference value to the multiplication circuit 45.

重み付け回路44には、信号処理部31からの手振れデータD1及びAFデータD2と、上記色収差抽出回路41からの位置データD3とが入力される。この重み付け回路44は、手振れデータD1と、AFデータD2と、位置データD3とに基づいて、上記色収差抽出回路41で抽出された色収差の正確性(信頼性)を示す重み値D6を算出する。そして、重み付け回路44は、算出した重み値D6を乗算回路45に出力する。   The weighting circuit 44 receives camera shake data D1 and AF data D2 from the signal processing unit 31, and position data D3 from the chromatic aberration extraction circuit 41. The weighting circuit 44 calculates a weight value D6 indicating the accuracy (reliability) of the chromatic aberration extracted by the chromatic aberration extraction circuit 41 based on the camera shake data D1, the AF data D2, and the position data D3. Then, the weighting circuit 44 outputs the calculated weight value D6 to the multiplication circuit 45.

乗算回路45は、差分回路43からの差分値D5と、重み付け回路44からの重み値D6との乗算値を算出し、その乗算値を補正値D7として補正回路46に出力する。
補正回路46は、乗算回路45からの補正値D7に基づいて、画像データPD全体の色データを補正した補正画像データPD1を生成する。そして、補正回路46は、補正画像データPD1及び補正値D7をメモリ50に出力する。
The multiplication circuit 45 calculates a multiplication value of the difference value D5 from the difference circuit 43 and the weight value D6 from the weighting circuit 44, and outputs the multiplication value as the correction value D7 to the correction circuit 46.
The correction circuit 46 generates corrected image data PD1 obtained by correcting the color data of the entire image data PD based on the correction value D7 from the multiplication circuit 45. Then, the correction circuit 46 outputs the corrected image data PD1 and the correction value D7 to the memory 50.

なお、本実施形態において、重み付け回路44及び乗算回路45は補正値生成回路の一例である。
次に、画像補正部40の動作(画像補正方法)について詳述する。
In the present embodiment, the weighting circuit 44 and the multiplication circuit 45 are examples of a correction value generation circuit.
Next, the operation (image correction method) of the image correction unit 40 will be described in detail.

図5に示すステップS1及びステップS2において、色収差抽出回路41は、信号処理部31から入力される画像データPDから色収差を抽出する色収差検出位置として、色収差を検出(抽出)しやすい位置を選択する。ここで、色収差を検出しやすい条件について説明する。詳述すると、図6(a)に示すように、画像データPD(イメージセンサ13)の中心から離れるほど、つまり画像の外縁に近づくほど、色収差は顕著になる。このため、画像の中心から離れるほど色収差を検出しやすい。また、図6(b)に示すように、ピントが合っている合焦位置(AF位置)では、画像のエッジ(境界)が強いため、AF位置に近づくほど色収差を検出しやすい。さらに、手振れが少ない方が画像のエッジが検出しやすいため、手振れが少ないほど色収差を検出しやすい。なお、図6(b)において、実線枠がAF位置(合焦位置)であり、破線枠がAF位置の候補である。   In step S1 and step S2 shown in FIG. 5, the chromatic aberration extraction circuit 41 selects a position where chromatic aberration is easily detected (extracted) as a chromatic aberration detection position for extracting chromatic aberration from the image data PD input from the signal processing unit 31. . Here, conditions for easily detecting chromatic aberration will be described. More specifically, as shown in FIG. 6A, the chromatic aberration becomes more prominent as the distance from the center of the image data PD (image sensor 13), that is, the closer to the outer edge of the image. For this reason, it is easier to detect chromatic aberration as the distance from the center of the image increases. Further, as shown in FIG. 6B, since the edge (boundary) of the image is strong at the in-focus position (AF position) that is in focus, it is easier to detect chromatic aberration as it approaches the AF position. Furthermore, since the edge of an image is easier to detect when there is less camera shake, the smaller the camera shake, the easier it is to detect chromatic aberration. In FIG. 6B, the solid line frame is the AF position (focus position), and the broken line frame is the AF position candidate.

そこで、図5に示したステップS1では、まず、AF位置に近い色収差抽出位置の候補が複数選択される。すなわち、AF位置又はAF位置に近い位置が色収差抽出位置の候補として複数選択される。続いて、ステップS2では、上記選択された複数の候補の中から、画像中心から遠い位置の候補が色収差抽出位置として選択される。具体的には、上記選択された複数の色収差抽出位置の候補の中から、画像データPD(イメージセンサ13)の中心から最も離れた位置の候補が色収差抽出位置として選択される。これにより、色収差を検出しやすい位置(具体的には、AF位置に近く、且つ画像の中心から離れた位置)が色収差抽出位置として選択される。   Therefore, in step S1 shown in FIG. 5, first, a plurality of chromatic aberration extraction position candidates close to the AF position are selected. That is, a plurality of AF positions or positions close to the AF position are selected as chromatic aberration extraction position candidates. Subsequently, in step S2, a candidate far from the center of the image is selected as a chromatic aberration extraction position from among the plurality of selected candidates. Specifically, the candidate of the position farthest from the center of the image data PD (image sensor 13) is selected as the chromatic aberration extraction position from among the plurality of selected chromatic aberration extraction position candidates. Thereby, a position where chromatic aberration is easily detected (specifically, a position close to the AF position and away from the center of the image) is selected as the chromatic aberration extraction position.

次いで、ステップS3において、色収差抽出回路41は、上記選択した色収差抽出位置における色収差を抽出する。具体的には、色収差抽出回路41は、上記色収差抽出位置においてRGB各色の光波LR,LG,LB(図2参照)の結像位置(エッジ)を検出し、それらエッジの差分値から色収差を抽出(算出)する。より具体的には、色収差抽出回路41は、青色の光波LBのエッジと緑色の光波LGのエッジとの差分値から青緑間の色収差を算出するとともに、緑色の光波LGのエッジと赤色の光波LRのエッジとの差分値から緑赤間の色収差を算出する。   Next, in step S3, the chromatic aberration extraction circuit 41 extracts chromatic aberration at the selected chromatic aberration extraction position. Specifically, the chromatic aberration extraction circuit 41 detects the imaging positions (edges) of the light waves LR, LG, and LB (see FIG. 2) of each RGB color at the chromatic aberration extraction position, and extracts chromatic aberration from the difference value of these edges. (calculate. More specifically, the chromatic aberration extraction circuit 41 calculates chromatic aberration between blue and green from the difference value between the edge of the blue light wave LB and the edge of the green light wave LG, and the edge of the green light wave LG and the red light wave. Chromatic aberration between green and red is calculated from the difference value from the edge of LR.

次に、ステップS4において、色データ算出回路42は、算出テーブル42Aに基づいて、上記色収差抽出位置で抽出された色収差から、レンズ12に入射された入射光L1の色に対応する色データD4を算出する。具体的には、上記抽出された色収差と、その色収差のイメージセンサ14上の検出位置と、上記画像データPDを撮影した際の光学系11の条件(具体的には、レンズ12の倍率及び絞り)とを入力パラメータとして算出テーブル42Aから色データD4を算出する。これにより、レンズ12固有の色収差及び光学系11の条件から、レンズ12に入射された入射光L1の色に対応する色データD4を算出することができる。   Next, in step S4, the color data calculation circuit 42 obtains color data D4 corresponding to the color of the incident light L1 incident on the lens 12 from the chromatic aberration extracted at the chromatic aberration extraction position based on the calculation table 42A. calculate. Specifically, the extracted chromatic aberration, the detection position of the chromatic aberration on the image sensor 14, and the conditions of the optical system 11 when the image data PD is captured (specifically, the magnification and aperture of the lens 12) ) As input parameters, the color data D4 is calculated from the calculation table 42A. Thereby, the color data D4 corresponding to the color of the incident light L1 incident on the lens 12 can be calculated from the chromatic aberration inherent to the lens 12 and the condition of the optical system 11.

続いて、ステップS5において、差分回路43は、上記色収差抽出位置における画像データPDの色データと、先のステップS4で算出された色データD4との差分値D5を算出する。この差分値D5により、画像データPDの色と入射光L1の色との誤差を判断することができる。   Subsequently, in step S5, the difference circuit 43 calculates a difference value D5 between the color data of the image data PD at the chromatic aberration extraction position and the color data D4 calculated in the previous step S4. Based on the difference value D5, an error between the color of the image data PD and the color of the incident light L1 can be determined.

次いで、ステップS6において、重み付け回路44は、先のステップS3で算出された色収差が正確な値であるか否かを示す重み値D6を生成する。具体的には、重み付け回路44は、先のステップS3で抽出された色収差が、検出しやすい条件で検出された信頼性の高い色収差であるか否かに応じて、上記差分値D5を重み付けする重み値D6を生成する。詳述すると、重み付け回路44は、色収差抽出回路41からの位置データD3に基づいて、先のステップS2で選択された色収差抽出位置と画像データPDの中心位置との間の距離を算出し、その距離に応じて第1の値A1を生成する。この第1の値A1は、例えば、「0」〜「1」の値であって、上記色収差抽出位置が画像データPDの中心位置から離れているほど「1」に近づく値である。また、重み付け回路44は、信号処理部31からのAFデータD2と上記位置データD3とに基づいて、上記色収差抽出位置とAF位置(合焦位置)との間の距離を算出し、その距離に応じて第2の値A2を生成する。この第2の値A2は、例えば、「0」〜「1」の値であって、上記色収差抽出位置がAF位置(合焦位置)に近づくほど「1」に近づく値である。さらに、重み付け回路44は、信号処理部31からの手振れデータD1に基づいて、第3の値A3を生成する。この第3の値A3は、例えば、「0」〜「1」の値であって、手振れ量が少ないほど「1」に近づく値である。そして、重み付け回路44は、第1の値A1と、第2の値A2と、第3の値A3とを乗算した値を重み値D6(=A1×A2×A3)として算出する。この重み値D6は、先のステップS3において色収差を検出したときの条件が色収差を検出しやすい条件(色収差抽出位置が画像中心から遠く離れて且つAF位置に近く、手振れが少ないという条件)であるほど「1」に近づく。   Next, in step S6, the weighting circuit 44 generates a weight value D6 indicating whether or not the chromatic aberration calculated in the previous step S3 is an accurate value. Specifically, the weighting circuit 44 weights the difference value D5 according to whether or not the chromatic aberration extracted in the previous step S3 is a highly reliable chromatic aberration detected under conditions that allow easy detection. A weight value D6 is generated. More specifically, the weighting circuit 44 calculates the distance between the chromatic aberration extraction position selected in the previous step S2 and the center position of the image data PD based on the position data D3 from the chromatic aberration extraction circuit 41, and A first value A1 is generated according to the distance. The first value A1 is, for example, a value from “0” to “1”, and is a value that approaches “1” as the chromatic aberration extraction position is further away from the center position of the image data PD. The weighting circuit 44 calculates a distance between the chromatic aberration extraction position and the AF position (focus position) based on the AF data D2 from the signal processing unit 31 and the position data D3, and sets the distance to the distance. In response, the second value A2 is generated. The second value A2 is, for example, a value from “0” to “1”, and is a value that approaches “1” as the chromatic aberration extraction position approaches the AF position (focus position). Further, the weighting circuit 44 generates the third value A3 based on the camera shake data D1 from the signal processing unit 31. The third value A3 is, for example, a value from “0” to “1”, and is a value that approaches “1” as the camera shake amount decreases. Then, the weighting circuit 44 calculates a value obtained by multiplying the first value A1, the second value A2, and the third value A3 as a weight value D6 (= A1 × A2 × A3). This weight value D6 is a condition that the chromatic aberration is easily detected in the previous step S3 (a condition that the chromatic aberration extraction position is far from the center of the image and close to the AF position, and there is little camera shake). The closer to "1".

次に、ステップS7において、乗算回路45は、差分値D5と重み値D6とを乗算して補正値D7を算出する。すなわち、乗算回路45は、差分値D5を重み値D6で重み付け(補正)した補正値D7を生成する。ここで、重み値D6で差分値D5を重み付けする理由を説明する。上記ステップS3で色収差を正確に抽出できた場合には、その色収差と光学系11の条件とによって一義的に入射光L1の色を判断することができる。しかしながら、色収差は、常に正確に検出できるわけではなく、その検出条件によって正確性(信頼性)が低くなる。そこで、色収差を検出しやすい条件で色収差を検出した場合ほど、つまりステップS3で検出された色収差の正確性(信頼性)が高いほど「1」に近づく重み値D6を生成し、その重み値D6で差分値D5を重み付けするようにした。これにより、検出された色収差の正確性が高いほど、補正値D7は差分値D5に近い値になる。反対に、検出された色収差の正確性が低いほど、補正値D7は「0」に近い値になる。   Next, in step S7, the multiplication circuit 45 multiplies the difference value D5 and the weight value D6 to calculate a correction value D7. That is, the multiplication circuit 45 generates a correction value D7 obtained by weighting (correcting) the difference value D5 with the weight value D6. Here, the reason why the difference value D5 is weighted by the weight value D6 will be described. If chromatic aberration can be accurately extracted in step S3, the color of the incident light L1 can be uniquely determined based on the chromatic aberration and the conditions of the optical system 11. However, chromatic aberration cannot always be accurately detected, and the accuracy (reliability) decreases depending on the detection conditions. Therefore, a weight value D6 that approaches “1” is generated as the chromatic aberration is detected under conditions that facilitate the detection of chromatic aberration, that is, the accuracy (reliability) of the chromatic aberration detected in step S3 is higher, and the weight value D6 is generated. Thus, the difference value D5 is weighted. Thus, the higher the accuracy of the detected chromatic aberration, the closer the correction value D7 is to the difference value D5. On the other hand, the lower the accuracy of the detected chromatic aberration, the closer the correction value D7 is to “0”.

続いて、ステップS8において、補正回路46は、補正値D7を用いて、画像データPD全体の色データを補正して補正画像データPD1を生成する。具体的には、補正回路46は、画像データPDの各画素の色データに上記補正値D7を加算することで、画像データPD全体の色データを補正して補正画像データPD1を生成する。ここで、上記補正値D7は、ステップS3で検出された色収差の正確性が高いほど差分値D5に近い値になる。このため、検出しやすい条件で色収差が検出された場合には、その色収差から算出された色データD4と画像データPDの色データとの差分値D5に近い補正値D7によって画像データPD全体の色データが補正される。これにより、補正後の補正画像データPD1の色を入射光L1の色に近づけることができ、ひいては補正画像データPD1の色を被写体の色に近づけることができる。なお、上記補正処理に使用した補正値D7(及び差分値D5)は、1点の色収差抽出位置から抽出された色収差に基づいて生成されたものである。但し、画像データPDの色データと入射光L1の色との誤差は画像データPD全体で略同じになる。このため、上記補正値D7を用いて画像データPD全体の色データを補正することにより、補正画像データPD1全体の色を被写体の色に近づけることができる。   Subsequently, in step S8, the correction circuit 46 corrects the color data of the entire image data PD using the correction value D7 to generate corrected image data PD1. Specifically, the correction circuit 46 adds the correction value D7 to the color data of each pixel of the image data PD, thereby correcting the color data of the entire image data PD to generate corrected image data PD1. Here, the correction value D7 is closer to the difference value D5 as the accuracy of the chromatic aberration detected in step S3 is higher. For this reason, when chromatic aberration is detected under easy-to-detect conditions, the color of the entire image data PD is determined by the correction value D7 close to the difference value D5 between the color data D4 calculated from the chromatic aberration and the color data of the image data PD. Data is corrected. Thereby, the color of the corrected image data PD1 after correction can be brought close to the color of the incident light L1, and as a result, the color of the corrected image data PD1 can be brought close to the color of the subject. The correction value D7 (and difference value D5) used in the correction process is generated based on the chromatic aberration extracted from one chromatic aberration extraction position. However, the error between the color data of the image data PD and the color of the incident light L1 is substantially the same for the entire image data PD. Therefore, by correcting the color data of the entire image data PD using the correction value D7, the color of the entire corrected image data PD1 can be brought close to the color of the subject.

そして、補正画像データPD1がメモリ50に格納されるとともに、補正値D7がメモリ50に格納される。このように補正値D7をメモリ50に格納しておくことで、次の画像データPDが生成されたときに、新たに補正値D7を生成することなく、メモリ50から読み出した上記補正値D7によって次の画像データPDを補正することができる。なお、補正値D7は、例えば撮像装置1による撮影時(画像データPDの生成時)に毎回算出するようにしてもよいし、撮像装置1を起動した後の最初の撮影時のみに行うようにしてもよい。   Then, the corrected image data PD1 is stored in the memory 50, and the correction value D7 is stored in the memory 50. By storing the correction value D7 in the memory 50 in this way, when the next image data PD is generated, the correction value D7 read from the memory 50 is used without generating a new correction value D7. The next image data PD can be corrected. Note that the correction value D7 may be calculated every time, for example, at the time of shooting by the imaging device 1 (when the image data PD is generated), or only at the first shooting after the imaging device 1 is activated. May be.

以上説明した本実施形態によれば、以下の効果を奏することができる。
(1)画像データPDから色収差を抽出し、その色収差から入射光L1の色に対応する色データD4を算出し、その色データD4と画像データPDの色データとの差分値D5に応じて画像データPDを補正するようにした。これにより、撮像装置1が有するレンズ12固有の色収差に基づいて入射光L1の色を判断することができ、その入射光L1の色に近づくように画像データPDを補正することができる。
According to this embodiment described above, the following effects can be obtained.
(1) Chromatic aberration is extracted from the image data PD, color data D4 corresponding to the color of the incident light L1 is calculated from the chromatic aberration, and an image is displayed according to the difference value D5 between the color data D4 and the color data of the image data PD. The data PD was corrected. Accordingly, the color of the incident light L1 can be determined based on the chromatic aberration inherent in the lens 12 included in the imaging device 1, and the image data PD can be corrected so as to approach the color of the incident light L1.

(2)抽出された色収差の正確性(信頼性)が高いほど差分値D5に近い値になる補正値D7を生成し、その補正値D7で画像データPDを補正するようにした。これにより、色収差の正確性に応じて、つまり検出しやすい条件で色収差が抽出されたか否かに応じて差分値D5が補正されるため、画像データPDに対する補正精度を向上させることができる。すなわち、補正値D7で画像データPDを補正することにより、その補正後の補正画像データPD1の色を入射光L1の色により近づけることができる。   (2) A correction value D7 that is closer to the difference value D5 as the accuracy (reliability) of the extracted chromatic aberration is higher is generated, and the image data PD is corrected with the correction value D7. As a result, the difference value D5 is corrected according to the accuracy of chromatic aberration, that is, whether or not chromatic aberration is extracted under conditions that are easy to detect, so that the correction accuracy for the image data PD can be improved. That is, by correcting the image data PD with the correction value D7, the color of the corrected image data PD1 after the correction can be made closer to the color of the incident light L1.

(3)色収差抽出位置と画像データPDの中心位置との間の距離と、色収差抽出位置と合焦位置(AF位置)との間の距離と、画像データPDにおける手振れ量とに基づいて、色収差の正確性を示す重み値D6を生成し、その重み値D6で差分値D5を補正して補正値D7を生成するようにした。これにより、複数のパラメータ(2つの距離情報と手振れ量)で色収差の正確性を判断することができるため、その判断精度を向上させることができる。   (3) Chromatic aberration based on the distance between the chromatic aberration extraction position and the center position of the image data PD, the distance between the chromatic aberration extraction position and the focus position (AF position), and the amount of camera shake in the image data PD. The weight value D6 indicating the accuracy of the correction is generated, and the correction value D7 is generated by correcting the difference value D5 with the weight value D6. As a result, the accuracy of chromatic aberration can be determined using a plurality of parameters (two distance information and the amount of camera shake), so that the determination accuracy can be improved.

(4)色データ算出回路42では、レンズ12の屈折率に基づいて、撮影条件となる光学系11の特性データ(レンズ12の倍率や絞り等)及び色収差と、入射光L1の色に対応する色データD4とが対応付けられた算出テーブル42Aを用意するようにした。これにより、色収差及び光学系11の撮影条件さえ決まれば、一意的に色データD4が決定されるため、色収差から色データD4を容易に算出することができる。   (4) The color data calculation circuit 42 corresponds to the characteristic data of the optical system 11 (magnification and aperture of the lens 12) and chromatic aberration, which are imaging conditions, and the color of the incident light L1, based on the refractive index of the lens 12. A calculation table 42A associated with the color data D4 is prepared. As a result, the color data D4 is uniquely determined as long as the chromatic aberration and the photographing condition of the optical system 11 are determined, so that the color data D4 can be easily calculated from the chromatic aberration.

(他の実施形態)
なお、上記実施形態は、これを適宜変更した以下の態様にて実施することもできる。
・上記実施形態では、色データD4を算出する際に入力パラメータとなる複数のパラメータ(レンズ12の倍率、絞り、イメージセンサ14上の検出位置、青緑間の色収差、緑赤間の色収差)の全てを変数とした。これに限らず、例えば上記複数のパラメータのうち、レンズ12の倍率、絞り、及びイメージセンサ14上の検出位置を固定した状態で被写体を撮影し、そのときに生成された画像データPDから補正値D7を生成するようにしてもよい。このようなキャリブレーション(校正)を行うことにより、図7に示すように、色収差から色データD4を算出するための算出テーブル42Aのデータ量を減らすことができる。図7に示した算出テーブル42Aでは、図3に示した算出テーブル42Aとの違いを明確にするために、レンズ12の倍率、絞り、及びイメージセンサ14上の検出位置についても図示しているが、実際にはこれらの情報は算出テーブル42Aから省略することができる。すなわち、この場合の算出テーブル42Aでは、レンズ12の屈折率に基づいて、色収差と色データD4とが対応付けられている。そして、色データ算出回路42では、図7に示した算出テーブル42Aに基づいて、色収差抽出回路41で抽出された色収差のみを入力パラメータとして上記色データD4が算出される。なお、このように光学系11の撮影条件を固定した撮影時に生成された補正値D7は、その後の通常の撮影によって得られた画像データPDに対する補正に利用することができる。
(Other embodiments)
In addition, the said embodiment can also be implemented in the following aspects which changed this suitably.
In the above embodiment, all of the plurality of parameters (the magnification of the lens 12, the aperture, the detection position on the image sensor 14, the chromatic aberration between blue and green, and the chromatic aberration between green and red) that are input parameters when calculating the color data D4. Was a variable. For example, the subject is photographed with the magnification of the lens 12, the aperture, and the detection position on the image sensor 14 being fixed, and the correction value is calculated from the image data PD generated at that time. D7 may be generated. By performing such calibration, the amount of data in the calculation table 42A for calculating the color data D4 from the chromatic aberration can be reduced as shown in FIG. In the calculation table 42A shown in FIG. 7, the magnification of the lens 12, the diaphragm, and the detection position on the image sensor 14 are also shown in order to clarify the difference from the calculation table 42A shown in FIG. Actually, these pieces of information can be omitted from the calculation table 42A. That is, in the calculation table 42A in this case, the chromatic aberration and the color data D4 are associated with each other based on the refractive index of the lens 12. Then, the color data calculation circuit 42 calculates the color data D4 using only the chromatic aberration extracted by the chromatic aberration extraction circuit 41 as an input parameter based on the calculation table 42A shown in FIG. The correction value D7 generated at the time of shooting with the shooting conditions of the optical system 11 fixed in this way can be used for correction of the image data PD obtained by normal shooting thereafter.

・あるいは、上記キャリブレーション時に、予め設定された「基準となる色」の被写体を撮影し、そのときに生成された画像データPDから補正値D7を生成するようにしてもよい。これによれば、レンズ12に入射される入射光L1の色が限定されるため、その入射光L1の色に対応する色データD4も限定されることになる。このため、色収差から色データD4を算出するための算出テーブル42Aのデータ量を更に減らすことができる。   Alternatively, at the time of the calibration, an object having a preset “reference color” may be photographed, and the correction value D7 may be generated from the image data PD generated at that time. According to this, since the color of the incident light L1 incident on the lens 12 is limited, the color data D4 corresponding to the color of the incident light L1 is also limited. For this reason, the data amount of the calculation table 42A for calculating the color data D4 from the chromatic aberration can be further reduced.

・上記実施形態の重み付け回路44では、電子式の手振れ補正(画像処理による手振れ補正)から得られた手振れ量を利用して重み値D6を算出するようにした。これに限らず、例えば光学式の手振れ補正や撮像素子シフト式の手振れ補正等から得られた手振れ量を利用して重み値D6を算出するようにしてもよい。   In the weighting circuit 44 of the above embodiment, the weight value D6 is calculated using the amount of camera shake obtained from electronic camera shake correction (camera shake correction by image processing). For example, the weight value D6 may be calculated using an amount of camera shake obtained from optical camera shake correction or image sensor shift type camera shake correction.

・上記実施形態における手振れデータD1及び第3の値A3を省略するようにしてもよい。この場合には、第1の値A1及び第2の値A2のみから重み値D6が生成される。
・上記実施形態では、色収差抽出位置とAF位置との間の距離に応じて第2の値A2を生成するようにした。これに限らず、例えばユーザがマニュアルで被写体にピントを合致させた合焦位置と色収差抽出位置との間の距離に応じて第2の値A2を生成するようにしてもよい。すなわち、AF位置に限らず合焦位置であれば、その合焦位置と色収差抽出位置との間の距離に応じて第2の値A2を生成するようにしてもよい。
In the above embodiment, the camera shake data D1 and the third value A3 may be omitted. In this case, the weight value D6 is generated only from the first value A1 and the second value A2.
In the above embodiment, the second value A2 is generated according to the distance between the chromatic aberration extraction position and the AF position. For example, the second value A2 may be generated according to the distance between the focus position where the user manually focuses the subject and the chromatic aberration extraction position. That is, not only the AF position but the in-focus position, the second value A2 may be generated according to the distance between the in-focus position and the chromatic aberration extraction position.

・上記実施形態における重み値D6を省略してもよい、すなわち差分値D5の重み値D6による重み付け(補正)を省略してもよい。この場合には、差分回路43で算出された差分値D5で画像データPDを補正する。   In the above embodiment, the weight value D6 may be omitted, that is, the weighting (correction) of the difference value D5 by the weight value D6 may be omitted. In this case, the image data PD is corrected with the difference value D5 calculated by the difference circuit 43.

・上記実施形態では、色収差抽出位置を1箇所選択し、その選択した色収差抽出位置で抽出された色収差に基づいて色データD4を算出し、その色データD4に基づく差分値D5と重み値D6とから補正値D7を生成するようにした。これに限らず、例えば色収差抽出位置を複数箇所選択し、それら選択した複数の色収差抽出位置でそれぞれ抽出された色収差に基づいて色データD4を算出し、それら複数の色データD4にそれぞれ基づく差分値D5を算出する。そして、上記抽出された複数の色収差のそれぞれの正確性を示す複数の重み値D6を算出し、上記差分値D5を対応する重み値D6で重み付けすることにより複数の補正値D7を生成するようにしてもよい。この場合には、例えば複数の補正値D7の平均値で画像データPDを補正するようにしてもよい。   In the above embodiment, one chromatic aberration extraction position is selected, color data D4 is calculated based on the chromatic aberration extracted at the selected chromatic aberration extraction position, and a difference value D5 and a weight value D6 based on the color data D4 are calculated. From this, the correction value D7 is generated. Not limited to this, for example, a plurality of chromatic aberration extraction positions are selected, color data D4 is calculated based on the chromatic aberration extracted at each of the selected chromatic aberration extraction positions, and a difference value based on each of the plurality of color data D4 is calculated. D5 is calculated. Then, a plurality of weight values D6 indicating the accuracy of the plurality of extracted chromatic aberrations are calculated, and a plurality of correction values D7 are generated by weighting the difference value D5 with a corresponding weight value D6. May be. In this case, for example, the image data PD may be corrected with an average value of a plurality of correction values D7.

・上記実施形態の撮像装置1を、静止画撮影機能を有するデジタルビデオカメラ等に具体化してもよい。
・上記実施形態では、画像補正処理を実行する処理を区分してブロックとして図1に示した。すなわち、画像補正処理は、図1に示すように、色収差抽出回路41と、色データ算出回路42と、差分回路43と、重み付け回路44と、乗算回路45と、補正回路46とによって実行される。なお、これら図1に示す各部は、画像補正部40において実行される処理を説明するために区分して示すものであり、これら各処理を実行するハードウェアが存在する必要はなく、これら処理をプログラムに従って実行可能な構成であればよい。
The imaging device 1 of the above embodiment may be embodied in a digital video camera or the like having a still image shooting function.
In the above embodiment, the process for executing the image correction process is divided into blocks and shown in FIG. That is, the image correction process is executed by a chromatic aberration extraction circuit 41, a color data calculation circuit 42, a difference circuit 43, a weighting circuit 44, a multiplication circuit 45, and a correction circuit 46, as shown in FIG. . Note that these units shown in FIG. 1 are shown separately to explain the processing executed in the image correction unit 40, and it is not necessary to have hardware for executing these processings. Any configuration that can be executed according to a program may be used.

1 撮像装置
11 光学系
12 レンズ
13 絞り
14 イメージセンサ(撮像素子)
30 画像処理部(画像処理回路)
31 信号処理部
40 画像補正部
41 色収差抽出回路
42 色データ算出回路
42A 算出テーブル
43 差分回路
44 重み付け回路
45 乗算回路
46 補正回路
60 被写体
PD 画像データ
D5 差分値
D6 重み値
D7 補正値
L1 入射光
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Optical system 12 Lens 13 Aperture 14 Image sensor (imaging element)
30 Image processing unit (image processing circuit)
31 Signal Processing Unit 40 Image Correction Unit 41 Chromatic Aberration Extraction Circuit 42 Color Data Calculation Circuit 42A Calculation Table 43 Difference Circuit 44 Weighting Circuit 45 Multiplication Circuit 46 Correction Circuit 60 Subject PD Image Data D5 Difference Value D6 Weight Value D7 Correction Value L1 Incident Light

Claims (8)

撮像素子から出力されるデータに対して所定の信号処理が施されて生成された画像データから色収差を抽出する色収差抽出回路と、
前記色収差に基づいて、前記撮像素子に結像するレンズに入射される入射光の色に対応する色データを算出する色データ算出回路と、
前記色データと、前記画像データの前記色収差を抽出した位置における色データとの差分値を算出する差分回路と、
前記差分値に応じて前記画像データを補正する補正回路と、
を有する画像処理回路。
A chromatic aberration extraction circuit that extracts chromatic aberration from image data generated by performing predetermined signal processing on data output from the image sensor;
A color data calculation circuit that calculates color data corresponding to the color of incident light incident on the lens that forms an image on the imaging device, based on the chromatic aberration;
A difference circuit that calculates a difference value between the color data and color data at a position where the chromatic aberration of the image data is extracted;
A correction circuit for correcting the image data according to the difference value;
An image processing circuit.
前記差分値から補正値を生成する補正値生成回路を有し、
前記補正値生成回路は、前記色収差の信頼性が高いほど前記差分値に近い値になる前記補正値を生成し、
前記補正回路は、前記補正値に基づいて前記画像データを補正することを特徴とする請求項1に記載の画像処理回路。
A correction value generating circuit for generating a correction value from the difference value;
The correction value generation circuit generates the correction value that is closer to the difference value as the reliability of the chromatic aberration is higher,
The image processing circuit according to claim 1, wherein the correction circuit corrects the image data based on the correction value.
前記補正値生成回路は、前記色収差を抽出した抽出位置と前記画像データの中心位置との間の距離と、前記抽出位置と合焦位置との間の距離とに応じて前記差分値を補正して前記補正値を生成することを特徴とする請求項2に記載の画像処理回路。   The correction value generation circuit corrects the difference value according to a distance between an extraction position where the chromatic aberration is extracted and a center position of the image data, and a distance between the extraction position and a focus position. The image processing circuit according to claim 2, wherein the correction value is generated. 前記補正値生成回路は、前記画像データにおける手振れ量に応じて前記差分値を補正して前記補正値を生成することを特徴とする請求項3に記載の画像処理回路。   The image processing circuit according to claim 3, wherein the correction value generation circuit generates the correction value by correcting the difference value according to a camera shake amount in the image data. 前記色データ算出回路は、
前記レンズの屈折率に基づいて、前記色収差と前記色データとが対応付けられた算出テーブルを有し、
前記算出テーブルに基づいて、前記色収差から前記色データを算出することを特徴とする請求項1〜4のいずれか1つに記載の画像処理回路。
The color data calculation circuit includes:
A calculation table in which the chromatic aberration and the color data are associated with each other based on the refractive index of the lens;
The image processing circuit according to claim 1, wherein the color data is calculated from the chromatic aberration based on the calculation table.
前記色データ算出回路は、
前記レンズの屈折率に基づいて、前記レンズを含む光学系の撮影条件となる特性データ及び前記色収差と前記色データとが対応付けられた算出テーブルを有し、
前記算出テーブルに基づいて、前記色収差及び前記光学系の撮影条件から前記色データを算出することを特徴とする請求項1〜4のいずれか1つに記載の画像処理回路。
The color data calculation circuit includes:
Based on the refractive index of the lens, it has a calculation table in which the characteristic data as the photographing condition of the optical system including the lens and the chromatic aberration and the color data are associated
5. The image processing circuit according to claim 1, wherein the color data is calculated from the chromatic aberration and an imaging condition of the optical system based on the calculation table.
撮像素子から出力されるデータに対して所定の信号処理が施されて生成された画像データから色収差を抽出し、
前記色収差に基づいて、前記撮像素子に結像するレンズに入射される入射光の色に対応する色データを算出し、
前記色データと、前記画像データの前記色収差を抽出した位置における色データとの差分値を算出し、
前記差分値に応じて前記画像データを補正する、
ことを特徴とする画像処理方法。
Chromatic aberration is extracted from image data generated by performing predetermined signal processing on the data output from the image sensor,
Based on the chromatic aberration, calculate color data corresponding to the color of incident light incident on the lens that forms an image on the imaging device;
Calculating a difference value between the color data and the color data at the position where the chromatic aberration of the image data is extracted;
Correcting the image data according to the difference value;
An image processing method.
撮像素子と、
被写体を前記撮像素子に結像するレンズを含む光学系と、
前記撮像素子から出力されるデータに対して所定の信号処理を施して画像データを生成する信号処理部と、
前記画像データから色収差を抽出する色収差抽出回路と、
前記色収差に基づいて、前記レンズに入射される入射光の色に対応する色データを算出する色データ算出回路と、
前記色データと、前記画像データの前記色収差を抽出した位置における色データとの差分値を算出する差分回路と、
前記差分値に応じて前記画像データを補正する補正回路と、
を有することを特徴とする撮像装置。
An image sensor;
An optical system including a lens that forms an image of a subject on the image sensor;
A signal processing unit that performs predetermined signal processing on data output from the image sensor to generate image data;
A chromatic aberration extraction circuit for extracting chromatic aberration from the image data;
A color data calculation circuit that calculates color data corresponding to the color of incident light incident on the lens based on the chromatic aberration;
A difference circuit that calculates a difference value between the color data and color data at a position where the chromatic aberration of the image data is extracted;
A correction circuit for correcting the image data according to the difference value;
An imaging device comprising:
JP2012216868A 2012-09-28 2012-09-28 Image processing circuit, image processing method, and imaging apparatus Active JP5942755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012216868A JP5942755B2 (en) 2012-09-28 2012-09-28 Image processing circuit, image processing method, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012216868A JP5942755B2 (en) 2012-09-28 2012-09-28 Image processing circuit, image processing method, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2014072676A true JP2014072676A (en) 2014-04-21
JP5942755B2 JP5942755B2 (en) 2016-06-29

Family

ID=50747510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012216868A Active JP5942755B2 (en) 2012-09-28 2012-09-28 Image processing circuit, image processing method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5942755B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220634A (en) * 2014-05-19 2015-12-07 株式会社ソシオネクスト Image processing system, image processing system control method, and imaging apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028041A (en) * 2005-07-14 2007-02-01 Nikon Corp Image processing apparatus
JP2009055610A (en) * 2007-08-23 2009-03-12 Samsung Electronics Co Ltd Method and apparatus for correcting chromatic aberration of image
JP2009268033A (en) * 2008-04-30 2009-11-12 Canon Inc Image processing device, imaging device, control method, program, and memory medium
JP2011101129A (en) * 2009-11-04 2011-05-19 Canon Inc Image processing apparatus control method therefor
WO2011074104A1 (en) * 2009-12-17 2011-06-23 キヤノン株式会社 Image processing device and image capture apparatus using same
JP2011155454A (en) * 2010-01-27 2011-08-11 Fujifilm Corp Image pickup device, image processor, image processing method, and program
JP2012129932A (en) * 2010-12-17 2012-07-05 Canon Inc Image processing method, image processing program, image processing device, and imaging device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028041A (en) * 2005-07-14 2007-02-01 Nikon Corp Image processing apparatus
JP2009055610A (en) * 2007-08-23 2009-03-12 Samsung Electronics Co Ltd Method and apparatus for correcting chromatic aberration of image
JP2009268033A (en) * 2008-04-30 2009-11-12 Canon Inc Image processing device, imaging device, control method, program, and memory medium
JP2011101129A (en) * 2009-11-04 2011-05-19 Canon Inc Image processing apparatus control method therefor
WO2011074104A1 (en) * 2009-12-17 2011-06-23 キヤノン株式会社 Image processing device and image capture apparatus using same
JP2011155454A (en) * 2010-01-27 2011-08-11 Fujifilm Corp Image pickup device, image processor, image processing method, and program
JP2012129932A (en) * 2010-12-17 2012-07-05 Canon Inc Image processing method, image processing program, image processing device, and imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220634A (en) * 2014-05-19 2015-12-07 株式会社ソシオネクスト Image processing system, image processing system control method, and imaging apparatus

Also Published As

Publication number Publication date
JP5942755B2 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
JP5225151B2 (en) Imaging apparatus and image processing method
JP5361535B2 (en) Imaging device
JP6173156B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6516429B2 (en) Distance measuring device, imaging device, and distance measuring method
TW200833089A (en) Camera module, electronic apparatus and method of manufacturing them
US20180182075A1 (en) Image processing apparatus, image capturing apparatus, method of image processing, and storage medium
JP2012049773A (en) Imaging apparatus and method, and program
US9307168B2 (en) Image capture apparatus and method for controlling image capture apparatus in which defective pixels are indicated
JP5528139B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5990008B2 (en) Imaging apparatus and control method thereof
JP2011160255A5 (en)
JP2011211329A (en) Imaging apparatus and control method thereof, image processing apparatus and control method thereof, and image processing program
JP2014048620A5 (en)
JP6555990B2 (en) Distance measuring device, imaging device, and distance measuring method
JP2016105568A (en) Imaging apparatus
JP2015220634A (en) Image processing system, image processing system control method, and imaging apparatus
JP5173664B2 (en) Image processing apparatus and image processing method
WO2019202984A1 (en) Image capturing device, distance measuring method, distance measuring program, and recording medium
JP5942755B2 (en) Image processing circuit, image processing method, and imaging apparatus
JP6987524B2 (en) Control device, image pickup device, control method, program, and storage medium
CN114518641A (en) Image pickup apparatus, lens apparatus, control method thereof, and storage medium
JP5489545B2 (en) Imaging system and imaging method
JP4321317B2 (en) Electronic camera, camera system, and black spot correction method for electronic camera
JP5597273B2 (en) Imaging apparatus and image processing method
JP6102119B2 (en) Correlation calculation device, focus detection device, and electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150528

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R150 Certificate of patent or registration of utility model

Ref document number: 5942755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150