JP6651916B2 - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP6651916B2
JP6651916B2 JP2016045408A JP2016045408A JP6651916B2 JP 6651916 B2 JP6651916 B2 JP 6651916B2 JP 2016045408 A JP2016045408 A JP 2016045408A JP 2016045408 A JP2016045408 A JP 2016045408A JP 6651916 B2 JP6651916 B2 JP 6651916B2
Authority
JP
Japan
Prior art keywords
light
ray angle
correction
light flux
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016045408A
Other languages
Japanese (ja)
Other versions
JP2017163315A (en
JP2017163315A5 (en
Inventor
考洋 荒尾
考洋 荒尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sigma Inc
Original Assignee
Sigma Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sigma Inc filed Critical Sigma Inc
Priority to JP2016045408A priority Critical patent/JP6651916B2/en
Publication of JP2017163315A publication Critical patent/JP2017163315A/en
Publication of JP2017163315A5 publication Critical patent/JP2017163315A5/ja
Application granted granted Critical
Publication of JP6651916B2 publication Critical patent/JP6651916B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像信号に対して適切な補正処理を行う画像処理方法に関する。   The present invention relates to an image processing method for performing an appropriate correction process on an image signal.

CMOS、CCD等の撮像素子では、撮影レンズを透過して受光面に結像した被写体像が光電変換されることで画像データに変換され、出力される。これにより得られる画像データにおいては、様々な影響によって偽色や色ムラが発生してしまう。   2. Description of the Related Art In an image sensor such as a CMOS or a CCD, a subject image transmitted through a photographing lens and formed on a light receiving surface is photoelectrically converted into image data and output. In the image data obtained as a result, false colors and color unevenness occur due to various effects.

特に色ムラの原因は複数考えられるが、主な要因としては撮像素子の各画素に入射する光線の入射角が挙げられる。すなわち、入射する光線の入射角が大きくなり斜めからの入射になるほど、色ムラによる画質の劣化が大きくなる。   In particular, there are a plurality of possible causes of color unevenness, but the main factor is an incident angle of a light beam incident on each pixel of the image sensor. That is, as the incident angle of the incident light beam becomes larger and the light beam becomes obliquely incident, the deterioration of the image quality due to color unevenness becomes larger.

このような問題点を解決するために、従来より色ムラの補正に関する種々の技術が提案されている。   In order to solve such problems, various techniques relating to correction of color unevenness have been conventionally proposed.

例えば、特許文献1に開示の発明では、撮像装置を、撮影画像データの信号値のむらを補正するための補正項を撮影条件に対応させて記憶する第1記憶手段と、前記第1記憶手段に記憶されている補正項のうち撮影画像データを取得した際の撮影条件と近い補正項を用いて撮影画像データの補正項を補間計算する第2記憶手段と、第1計算手段が計算した撮影画像データの補正項を用いて撮影画像データの信号値のむらを補正する補正手段とを有する構成としている。   For example, in the invention disclosed in Patent Literature 1, the imaging device stores a correction term for correcting unevenness in signal values of captured image data in association with a shooting condition, and the first storage unit includes: A second storage unit that interpolates and calculates a correction term of the captured image data using a correction term that is close to the imaging condition when the captured image data was acquired among the stored correction terms, and a captured image calculated by the first calculation unit Correction means for correcting the unevenness of the signal value of the captured image data using the correction term of the data.

また、特許文献2に開示の発明では、撮像装置は、撮像画像信号を、設定された補正量に応じて画質補正する補正部を備える。集光レンズ光学系を通して固体撮像素子に入射してくる入射光線束は、集光レンズの集光作用により固体撮像素子の受光面の一点に結像するように円錐形状に収束される。補正量は、入射光線束の円錐形状の周壁面と固体撮像素子の受光面中心を通りその受光面に垂直な平面とが交差して得られる2本の光線が成す角度幅である像光方向角度幅と、像光方向角度幅を二等分する中心線の受光面の法線との成す角である入射角度とに応じて規定される構成としている。   Further, in the invention disclosed in Patent Document 2, the imaging apparatus includes a correction unit that corrects the image quality of the captured image signal in accordance with the set correction amount. An incident light beam incident on the solid-state imaging device through the condensing lens optical system is converged into a conical shape so that an image is formed on one point of the light receiving surface of the solid-state imaging device by the condensing action of the condensing lens. The correction amount is an image light direction that is an angular width formed by two light beams obtained by intersecting a conical peripheral wall surface of the incident light beam and a plane passing through the center of the light receiving surface of the solid-state imaging device and perpendicular to the light receiving surface. The configuration is defined in accordance with the angle width and the angle of incidence, which is the angle formed by the center line dividing the angle width of the image light direction into two and the normal to the light receiving surface.

特開2012−244239号公報JP 2012-244239 A 特許5597776号公報Japanese Patent No. 5597776

しかしながら、上記の従来技術では以下のような問題点があった。すなわち、特許文献1に開示の発明では、最大像高入射時の各光線角により得られる中心光線角とF値を用いて補正項の補間計算を行っていた。この場合、画像中心からの像高に対して光線角が単調増加するレンズであれば問題ないが、一部のレンズでは口径食(ケラレ)等の影響により光線角が単調増加とならないものがあり、そのようなレンズに対しては補正項の補間が不適切に行われてしまう可能性があった。   However, the above prior art has the following problems. That is, in the invention disclosed in Patent Document 1, the interpolation calculation of the correction term is performed using the central ray angle and the F value obtained from each ray angle at the maximum image height incidence. In this case, there is no problem if the ray angle monotonically increases with respect to the image height from the center of the image. However, some lenses do not have a monotonically increasing ray angle due to vignetting (vignetting) and the like. In such a lens, there is a possibility that the interpolation of the correction term is inappropriately performed.

また、特許文献2に開示の発明では、記憶部に格納された像高毎にグループ分けされた補正量に対し、像高毎にグループ分けされた光線入射角情報に基づいて補正量を選択していた。この場合、像高(入射光線角度)に応じて変化する入射光線角度に基づいて発生する色ムラに対しては有効であるが、像高に依存せず、画像中心に対して点対称とならないような非対称性の色ムラに対しては補間が不適切に行われてしまう可能性があった。   Further, according to the invention disclosed in Patent Document 2, a correction amount is selected based on light incident angle information grouped by image height with respect to a correction amount grouped by image height stored in a storage unit. I was In this case, it is effective for color unevenness generated based on the incident light angle that changes according to the image height (incident light angle), but does not depend on the image height and is not point-symmetric with respect to the center of the image. Interpolation may be inappropriately performed on such asymmetric color unevenness.

本発明はこのような状況に鑑みてなされたものであり、撮影条件(入射光線の状態)に応じて変化する画像位置毎の色ムラを適切に補正可能な画像処理方法を提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide an image processing method capable of appropriately correcting color unevenness at each image position that changes according to a shooting condition (state of an incident light beam). And

上記目的を達成するために、本発明を実施の画像処理方法は、光束中心光線角度及び光束面積を算出する光束情報算出工程と、算出した光束中心光線角度及び光束面積に基づいてそれぞれ第1の補正係数及び第2の補正係数を算出する補正係数算出工程と、第1及び第2の補正係数を用いて画像信号に補正処理を行う補正処理工程と、を含み、光束中心光線角度は撮影レンズを透過し受光面に結像した結像光束の任意の像高における上光線及び下光線と受光面の法線とが成す角度であり以下の条件で表せ、光束面積は結像光束の受光面上の任意の像高における面積であることを特徴とする。
尚、光束中心光線角度をθcとすると、
この光束中心光線角度θcは以下の式で求められる。
θc=(θlower(h)+θupper(h))/2
−θSTDlower(h)+θSTDupper(h))/2
ここで、
θlower(h)は像高hにおける下光線角度、
θupper(h)は像高hにおける上光線角度、
θSTDlower(h)は像高hにおける基準レンズの下光線角度、
θSTDupper(h)は像高hにおける基準レンズの上光線角度
In order to achieve the above object, an image processing method embodying the present invention includes a luminous flux information calculating step of calculating a luminous flux center ray angle and a luminous flux area, and a first step based on the calculated luminous flux center ray angle and the luminous flux area, respectively. A correction coefficient calculating step of calculating a correction coefficient and a second correction coefficient; and a correction processing step of performing a correction processing on an image signal using the first and second correction coefficients. expressed by an angle der Ri following conditions forming the upper ray and the lower ray and the normal of the light receiving surface in the transmission and any image height of the imaged imaging light beam on the light receiving surface of the light flux area of the light receiving imaging light flux It is characterized by an area at an arbitrary image height on the surface.
In addition, assuming that the luminous flux center ray angle is θc,
The luminous flux center ray angle θc is obtained by the following equation.
θc = (θlower (h) + θupper (h)) / 2
−θSTDlower (h) + θSTDupper (h)) / 2
here,
θlower (h) is the lower ray angle at the image height h,
θupper (h) is the upper ray angle at the image height h,
θSTDrawer (h) is the lower ray angle of the reference lens at the image height h,
θSTDupper (h) is the upper ray angle of the reference lens at the image height h

さらに本発明を実施の画像処理方法は、光束情報算出工程が、結像光束の光線角度に関する光線角度情報に基づいて、受光面に対応する光束中心光線角度のマップを作成する光束中心光線角度マップ作成工程を含み、光線角度情報は少なくとも、上光線角度及び下光線角度を有することを特徴とする。   Further, in the image processing method embodying the present invention, the luminous flux information calculating step creates a map of the luminous flux central ray angle corresponding to the light receiving surface based on the ray angle information relating to the ray angle of the imaging light flux. The method includes a creating step, wherein the light beam angle information includes at least an upper light beam angle and a lower light beam angle.

さらに本発明を実施の画像処理方法は、光束情報算出工程が、光線角度情報から結像光束の受光面の光軸中心における中心光束面積を算出する中心光束面積算出工程と、周辺光量落ちに関する周辺光量落ち情報と中心光束面積とに基づいて、受光面に対応する光束面積のマップを作成する光束面積マップ作成工程とを含むことを特徴とする。   Further, in the image processing method embodying the present invention, the luminous flux information calculating step includes: a central luminous flux area calculating step of calculating a central luminous flux area at the optical axis center of the light receiving surface of the imaging luminous flux from the ray angle information; A light flux area map creating step of creating a map of the light flux area corresponding to the light receiving surface based on the light intensity drop information and the central light flux area.

さらに本発明を実施の画像処理方法は、光束中心光線角度及び光束面積を算出する光束情報算出工程と、算出した光束中心光線角度及び光束面積に基づいてそれぞれ第1の補正係数及び第2の補正係数を算出する補正係数算出工程と、第1及び第2の補正係数を用いて画像信号に補正処理を行う補正処理工程と、を含み、光束中心光線角度は撮影レンズを透過し受光面に結像した結像光束の任意の像高における上光線及び下光線と受光面の法線とが成す角度である上光線角度と下光線角度との平均値であり、光束面積は結像光束の受光面上の任意の像高における面積であり、光束情報算出工程が、結像光束の光線角度に関する光線角度情報に基づいて、受光面に対応する光束中心光線角度のマップを作成する光束中心光線角度マップ作成工程を含み、光線角度情報は少なくとも、上光線角度及び下光線角度を有し、光線角度情報がさらに、結像光束のサジタル光線と受光面の法線とが成す角度であるサジタル光線角度を有し、光束情報算出工程は、光線角度情報に基づいて結像光束に内接する四角形の面積を算出し、受光面に対応する光束面積のマップを作成する光束面積マップ作成工程を含むことを特徴とする。 Further, in the image processing method embodying the present invention, the light flux information calculating step of calculating the light flux center light ray angle and the light flux area, and the first correction coefficient and the second correction respectively based on the calculated light flux center light ray angle and the light flux area A correction coefficient calculating step of calculating a coefficient, and a correction processing step of performing a correction processing on the image signal using the first and second correction coefficients. The average value of the upper ray angle and the lower ray angle, which is the angle formed between the upper ray and the lower ray and the normal of the light receiving surface at an arbitrary image height of the formed imaging light flux, and the light flux area is the light receiving area of the imaging light flux. The area at an arbitrary image height on the surface, and the luminous flux information calculating step creates a map of the luminous flux central ray angle corresponding to the light receiving surface based on the ray angle information relating to the ray angle of the imaging light flux. Map creation process Wherein the ray angle information at least, has an upper beam angle and lower ray angle, ray angle information further includes a sagittal ray angle is an angle formed between the normal of the sagittal rays and the light receiving surface of the imaging light beam, The luminous flux information calculating step includes a luminous flux area map creating step of calculating a square area inscribed in the imaging luminous flux based on the ray angle information and creating a luminous flux area map corresponding to the light receiving surface.

さらに本発明を実施の画像処理方法は、補正係数算出工程が、光束中心光線角度と受光面を所定の数に分割して得られる複数のブロック内にそれぞれ設けられた代表点における光束中心光線角度に係る第1の補正項とから、代表点における第1の補正係数を算出する第1の補正係数算出工程と、光束面積と代表点における光束面積に係る第2の補正項とから、代表点における第2の補正係数を算出する第2の補正係数算出工程とを含むことを特徴とする。   Further, in the image processing method embodying the present invention, in the correction coefficient calculating step, the luminous flux center ray angle and the luminous flux center ray angle at a representative point provided in each of a plurality of blocks obtained by dividing the light receiving surface into a predetermined number. A first correction coefficient calculating step of calculating a first correction coefficient at the representative point from the first correction term according to the above, and a second correction term relating to the luminous flux area and the luminous flux area at the representative point. And a second correction coefficient calculating step of calculating a second correction coefficient.

さらに本発明を実施の画像処理方法は、第1及び第2の補正係数に基づいて、全ての受光面に対する第1及び第2の補正係数を線形補間により算出する補正係数補間工程をさらに含み、補正処理工程において、補正係数補間工程により算出された第1及び第2の補正係数を用いて補正処理を行うことを特徴とする。   Further, the image processing method embodying the present invention further includes a correction coefficient interpolation step of calculating first and second correction coefficients for all light receiving surfaces by linear interpolation based on the first and second correction coefficients, In the correction processing step, the correction processing is performed using the first and second correction coefficients calculated in the correction coefficient interpolation step.

さらに本発明を実施の画像処理方法は、補正処理工程において、第1及び第2の補正係数を代表点と対応するブロック内に一律に適用して補正処理を行うことを特徴とする。   Further, the image processing method embodying the present invention is characterized in that in the correction processing step, the correction processing is performed by uniformly applying the first and second correction coefficients to a block corresponding to the representative point.

本発明を実施の画像処理方法によれば、撮影条件(入射光線の状態)に応じて変化する画像位置毎の色ムラを適切に補正可能な画像処理方法を提供することができる。   According to the image processing method embodying the present invention, it is possible to provide an image processing method capable of appropriately correcting color unevenness at each image position that changes according to a shooting condition (state of an incident light beam).

本発明の一実施形態である画像処理方法を実装した撮像装置の主要な構成を示したブロック図である。FIG. 1 is a block diagram illustrating a main configuration of an imaging device implementing an image processing method according to an embodiment of the present invention. 画素中の受光面に形成された結像光束の形状(面積)を説明する模式図である。FIG. 3 is a schematic diagram illustrating a shape (area) of an image forming light beam formed on a light receiving surface in a pixel. 図1に示した撮像装置において色ムラ補正を行うための主要な構成を示したブロック図である。FIG. 2 is a block diagram illustrating a main configuration for performing color unevenness correction in the imaging device illustrated in FIG. 1. ROM171に格納されている光線角度情報及び周辺光量落ち情報を含むデータテーブルの一例である。5 is an example of a data table including light beam angle information and peripheral light intensity drop information stored in a ROM 171. 上下光線角度と主光線角度を説明する模式図である。It is a schematic diagram explaining an upper and lower ray angle and a principal ray angle. ROM171に格納されている代表点情報を含むデータテーブルの一例である。5 is an example of a data table including representative point information stored in a ROM 171. バイリニア補間の原理を説明する模式図である。FIG. 3 is a schematic diagram illustrating the principle of bilinear interpolation. ROM171に格納されている光線角度情報を含むデータテーブルの一例である。5 is an example of a data table including ray angle information stored in a ROM 171. 結像光束の内接四角形の面積を求める式を説明するための概念図である。It is a conceptual diagram for demonstrating the formula | equation which calculates | requires the area of the inscribed quadrangle of an imaging light beam.

以下、添付の図面に従って、本発明を実施するための最良の形態について説明する。なお、この実施の形態により本発明が限定されるものではない。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the accompanying drawings. The present invention is not limited by the embodiment.

図1に示すブロック図には、本発明の一実施形態である画像処理方法を実装した撮像装置の主要な構成が示されている。   FIG. 1 is a block diagram showing a main configuration of an imaging apparatus in which an image processing method according to an embodiment of the present invention is mounted.

100は撮影レンズであり、詳しくは、カメラ本体200に着脱可能な交換レンズである。撮影レンズ100内には、ズームレンズ110とフォーカスレンズ120とを有している。これらは図中においてそれぞれ1枚のレンズで描写しているが、これに限らない。また、これら以外のレンズを有していてもよい。ズームレンズ110とフォーカスレンズ120はズーム制御部140とフォーカス制御部150とにそれぞれ接続されており、レンズの駆動や位置検出等の制御が行われる。   Reference numeral 100 denotes a photographing lens, and more specifically, an interchangeable lens that is detachable from the camera body 200. The photographing lens 100 has a zoom lens 110 and a focus lens 120. These are depicted with one lens in the figure, but are not limited to this. Moreover, you may have a lens other than these. The zoom lens 110 and the focus lens 120 are connected to a zoom control unit 140 and a focus control unit 150, respectively, and control such as lens driving and position detection is performed.

130は撮影レンズ100内に設けられた絞りユニットであり、絞り制御部160に接続されている。絞り制御部160は絞りユニット130の絞り値(F値)を制御する。   Reference numeral 130 denotes an aperture unit provided in the photographing lens 100, and is connected to the aperture control unit 160. The aperture control unit 160 controls the aperture value (F value) of the aperture unit 130.

170はレンズCPUであり、後述するメインCPU240と協働して上述した各種制御部の制御内容を決定し、指示を出す。また、レンズCPU170は撮影レンズ100のズーム位置、フォーカス位置、F値等の撮影条件を各種制御部から取得し、メインCPU240に出力する。また、不図示のメモリ部に格納されたレンズIDを必要に応じてメインCPU240に出力する。   Reference numeral 170 denotes a lens CPU, which determines the control contents of the various control units described above in cooperation with a main CPU 240 described later and issues an instruction. Further, the lens CPU 170 obtains shooting conditions such as a zoom position, a focus position, and an F value of the shooting lens 100 from various control units, and outputs the obtained shooting conditions to the main CPU 240. Further, it outputs the lens ID stored in the memory unit (not shown) to the main CPU 240 as needed.

200はカメラ本体であり、不図示の機構により撮影レンズ100を装着可能となっている。210は撮像素子であり、撮影レンズ100により集光された光線を受光して光電変換し、画像信号として出力する。本実施形態の撮像素子210はCMOSイメージセンサが用いられている。   Reference numeral 200 denotes a camera body, to which the photographing lens 100 can be attached by a mechanism (not shown). Reference numeral 210 denotes an image sensor, which receives a light beam condensed by the photographing lens 100, performs photoelectric conversion, and outputs an image signal. A CMOS image sensor is used as the image sensor 210 of the present embodiment.

この撮像素子210の受光面は多数の画素から構成されている。これらの画素は、その内部において、入射光の波長により光電変換される深さの違いを用いることで、単一画素からRGBの各色信号値からなる画像信号を出力可能な垂直色分離型のイメージセンサである。本実施形態の撮像素子210には、画素から読み出した色信号値を増幅するゲイン可変アンプやゲイン値を補正するためのゲイン補正回路、アナログ画像信号をデジタル変換するA/Dコンバータが内蔵されている。   The light receiving surface of the image sensor 210 is composed of many pixels. These pixels have a vertical color separation type image in which a single pixel can output an image signal composed of each color signal value of RGB by using a difference in depth at which photoelectric conversion is performed depending on the wavelength of incident light. It is a sensor. The image sensor 210 of the present embodiment incorporates a variable gain amplifier for amplifying a color signal value read from a pixel, a gain correction circuit for correcting a gain value, and an A / D converter for digitally converting an analog image signal. I have.

220は色ムラ補正部であり、撮像素子210から出力された画像信号に対して色ムラ補正に係る画像処理を行う。色ムラ補正部220における色ムラ補正について詳しくは後述する。   Reference numeral 220 denotes a color unevenness correction unit that performs image processing related to color unevenness correction on an image signal output from the image sensor 210. The color unevenness correction in the color unevenness correction unit 220 will be described later in detail.

230は画像処理部であり、色ムラ補正部220から出力された画像信号に対して各種の一般的な画像処理を施す。ここで施される処理としては、例えば、画像信号から所定の形式のRAWデータを生成する処理や、ホワイトバランス処理、色再現処理がある。JPEG形式やTIFF形式の画像データへの現像処理も画像処理部230で行われる。   An image processing unit 230 performs various general image processing on the image signal output from the color unevenness correction unit 220. The processing performed here includes, for example, processing for generating RAW data in a predetermined format from an image signal, white balance processing, and color reproduction processing. The image processing unit 230 also performs development processing on image data in JPEG format or TIFF format.

240はメインCPUであり、撮像装置300全体の包括的な制御を行う。また、メインCPU240はレンズCPU170と電気的に接続されており、協働して撮影レンズ100の制御を行う。   Reference numeral 240 denotes a main CPU, which performs comprehensive control of the entire imaging device 300. The main CPU 240 is electrically connected to the lens CPU 170 and controls the photographing lens 100 in cooperation.

250は記録媒体I/Fであり、不図示の記録媒体との間でRAWデータや現像後の画像データの記録又は読み出しを行う。この記録媒体は、半導体メモリ等の着脱可能な記録媒体である。   Reference numeral 250 denotes a recording medium I / F, which records or reads RAW data or developed image data with a recording medium (not shown). This recording medium is a removable recording medium such as a semiconductor memory.

260はユーザI/Fであり、例えば、レリーズボタン、電源ボタン、コマンドダイヤル、十字キー等の操作部材を有している。ユーザがこれらの操作部材を操作すると、メインCPU240は所定の動作を行う指示を出す。   Reference numeral 260 denotes a user I / F, which has operation members such as a release button, a power button, a command dial, and a cross key. When the user operates these operation members, the main CPU 240 issues an instruction to perform a predetermined operation.

270は画像表示部であり、画像処理部230で処理された画像データや、不図示の記録媒体から読み出された画像データ等を表示する。   An image display unit 270 displays image data processed by the image processing unit 230, image data read from a recording medium (not shown), and the like.

なお、上述したゲイン可変アンプ、ゲイン補正回路、A/Dコンバータを内蔵していない撮像素子210を採用する場合には、これらのデバイスを個別に搭載すればよい。   When the image pickup device 210 which does not include the above-described variable gain amplifier, gain correction circuit, and A / D converter is employed, these devices may be individually mounted.

次に、補正の対象となる色ムラの発生原因について考察する。   Next, the cause of the color unevenness to be corrected will be considered.

従来から、入射光線角度とF値が色ムラに影響を与えることが知られている。入射光線角度が大きいほど画素への入射光が斜めになり、結像光束が画素から外れたり隣接画素へ漏れ込んだりすることで色ムラが起きる。   Conventionally, it has been known that the angle of incident light and the F value affect color unevenness. The larger the angle of the incident light beam, the more the incident light to the pixel becomes oblique, and the color of the image becomes non-uniform due to the image light flux deviating from the pixel or leaking into the adjacent pixel.

また、結像光束の形状は撮影レンズ100のF値に応じて変化する。すなわち、撮影レンズ100のF値が大きく(暗く)なると結像光束の面積が小さくなり、F値が小さく(明るく)なると結像光束の面積が大きくなる。結像光束の面積が大きいと、それだけ隣接画素への漏れ込みが発生しやすくなり色ムラが起きる。この特性が維持されている範囲においては、色ムラは結像光束の入射角度とF値に依存する。   Further, the shape of the imaging light beam changes according to the F-number of the photographing lens 100. That is, the area of the imaging light flux decreases as the F value of the imaging lens 100 increases (darkens), and the area of the imaging light flux increases as the F value decreases (brightens). If the area of the image forming light beam is large, leakage into adjacent pixels is apt to occur and color unevenness occurs. In a range where this characteristic is maintained, the color unevenness depends on the incident angle and the F-number of the image forming light beam.

しかしながら、使用する撮影レンズ100によっては、この結像光束に口径食が発生する場合がある。図2は画素中の受光面に形成された結像光束の形状(面積)を説明する模式図であり、口径食が発生した状態を示したものである。口径食が発生すると、結像光束の形状(面積)の変化特性に影響が生じ、結像光束は楕円形若しくは欠けた円形に近い形状となる。   However, vignetting may occur in the imaged light beam depending on the photographing lens 100 used. FIG. 2 is a schematic diagram for explaining the shape (area) of the image forming light beam formed on the light receiving surface in the pixel, and shows a state in which vignetting has occurred. When vignetting occurs, the change characteristics of the shape (area) of the imaged light beam are affected, and the imaged light beam has an elliptical shape or a shape close to a missing circle.

すなわち、本図に示すように、結像光束のサジタル方向の長さは依然としてF値に応じて変化するが、メリジオナル方向の長さは口径食によって制限されるため、F値がある値(本図の場合にはF2.0)より小さくなると変化しなくなる。結像光束のメリジオナル方向の長さは結像光束の上下光線の入射角から算出が可能であるが、上記の面積特性の変化により、色ムラ特性を精度よく評価するためには従来技術のような上下光線の入射角のみでは不十分であり、光束の面積を考慮することが必要となる。   That is, as shown in the figure, the length of the imaging light beam in the sagittal direction still changes according to the F value, but the length in the meridional direction is limited by vignetting. If it is smaller than F2.0 in the case of the figure, it does not change. The length of the imaging light beam in the meridional direction can be calculated from the incident angles of the upper and lower rays of the image light beam. It is not enough to use only the incident angles of the upper and lower rays, and it is necessary to consider the area of the luminous flux.

色ムラに影響を及ぼす入射光線角度は同じ像高ごとでは同じ値となる。そのため、色ムラは像高、すなわち画像中心からの距離に依存することが知られている。しかしながら、この色ムラが画像中心に対して非対称性を有している場合があり、より精度よく評価するためには像高にのみ依存する形での補正は望ましくない。   The incident light beam angle that affects color unevenness has the same value for each image height. Therefore, it is known that color unevenness depends on the image height, that is, the distance from the center of the image. However, in some cases, the color unevenness has asymmetry with respect to the center of the image. For more accurate evaluation, it is not desirable to perform correction in a form depending only on the image height.

この色ムラの非対称性は主に、撮像素子210を構成する画素構造の中心非対称性に因るものと考えることができる。近年の撮像素子は高画素化、画素ピッチ微細化が進み画素構造が高度に複雑化しており、その結果、画素内部では配線層や遮光層が複雑に入り組んでいる。そのような画素に対して結像光束の入射角度と入射方向が変化すると、画素内部構造により生じるケラレの特性も複雑に変化する。このケラレが各像高、各画素構造で様々に発生する結果、中心非対称の色ムラが生じると考えられる。   It can be considered that the asymmetry of the color unevenness is mainly caused by the central asymmetry of the pixel structure forming the image sensor 210. In recent years, the number of pixels and the pixel pitch have become finer in image sensors, and the pixel structure has become highly complicated. As a result, wiring layers and light-shielding layers have become complicated inside the pixels. When the incident angle and the incident direction of the imaging light beam change with respect to such a pixel, the characteristics of vignetting caused by the internal structure of the pixel also change in a complicated manner. This vignetting is variously generated at each image height and each pixel structure, and as a result, it is considered that asymmetric color unevenness occurs at the center.

これに加えて、画素構造やマイクロレンズアレイの製造誤差も色ムラに影響を与える要素となり得る。   In addition to this, manufacturing errors in the pixel structure and the microlens array can also be factors that affect color unevenness.

このような像高に依存しない色ムラに対しては、従来技術のように像高毎にグループ分けされた補正量を用いることでは不十分であり、画像信号を所定の数に分割して得られる複数のブロック毎に補正量を求めることが必要となる。   For such color unevenness that does not depend on the image height, it is not sufficient to use a correction amount grouped for each image height as in the related art, and the image signal is obtained by dividing the image signal into a predetermined number. It is necessary to determine the correction amount for each of a plurality of blocks.

(第1実施例)
次に、上述した非対称性を有する色ムラに対する補正処理を行うための画像処理の流れを説明する。図3は第1実施例において色ムラ補正に係る画像処理を行うための主要な構成を示したブロック図である。
(First embodiment)
Next, a flow of image processing for performing a correction process for the above-described asymmetric color unevenness will be described. FIG. 3 is a block diagram showing a main configuration for performing image processing related to color unevenness correction in the first embodiment.

レンズCPU170は、内部にROM171とRAM172を有している。このROM171には予め撮影レンズ100に固有の光線角度情報及び周辺光量落ち情報が格納されている。これらの情報について詳しくは後述する。また、RAM172にはズーム制御部140等から得られた各種撮影条件が記憶されている。   The lens CPU 170 has a ROM 171 and a RAM 172 inside. The ROM 171 stores light beam angle information and peripheral light intensity drop information specific to the photographing lens 100 in advance. Details of such information will be described later. The RAM 172 stores various photographing conditions obtained from the zoom control unit 140 and the like.

色ムラ補正部220は、内部に光束情報算出部221と補正係数算出部222とROM223と補正係数補間部224と補正処理部225とを有している。このROM223には、画像信号を所定の数に分割して得られる複数のブロック内に予め設けられた代表点に関する情報が格納されている。この代表点情報について詳しくは後述する。   The color unevenness correction unit 220 includes a luminous flux information calculation unit 221, a correction coefficient calculation unit 222, a ROM 223, a correction coefficient interpolation unit 224, and a correction processing unit 225. The ROM 223 stores information on representative points provided in advance in a plurality of blocks obtained by dividing an image signal into a predetermined number. Details of this representative point information will be described later.

光束情報算出部221は、ROM171から入力される光線角度情報及び周辺光量落ち情報、RAM172から入力される撮影条件、並びにROM223から入力される代表点情報を用いて光束中心光線角度及び光束面積を上述した全ての代表点の位置に対して算出し、光束中心光線角度マップ及び光束面積マップを作成する。   The luminous flux information calculation unit 221 calculates the luminous flux center ray angle and the luminous flux area using the ray angle information and the peripheral light intensity drop information input from the ROM 171, the imaging conditions input from the RAM 172, and the representative point information input from the ROM 223. The calculation is performed for the positions of all the representative points thus performed, and a light flux center ray angle map and a light flux area map are created.

次に補正係数算出部222は、作成した光束中心光線角度マップ及び光束面積マップ、並びにROM223に格納されている代表点情報を用いて各代表点における補正係数を算出する。この補正係数には、光束中心光線角度に基づく第1の補正係数と光束面積に基づく第2の補正係数とが含まれる。   Next, the correction coefficient calculation unit 222 calculates a correction coefficient at each representative point using the created light flux center ray angle map and light flux area map, and representative point information stored in the ROM 223. The correction coefficient includes a first correction coefficient based on the light beam center ray angle and a second correction coefficient based on the light beam area.

次に補正係数補間部224は、補正係数算出部222にて得られた各代表点における補正係数から画像信号全体の補正係数を補間計算により算出する。これにより、全ての画像信号に対応する補正係数が得られる。   Next, the correction coefficient interpolation unit 224 calculates the correction coefficient of the entire image signal from the correction coefficient at each representative point obtained by the correction coefficient calculation unit 222 by interpolation calculation. Thereby, correction coefficients corresponding to all image signals are obtained.

次に補正処理部225は、補正係数補間部224にて得られた補正係数を画像信号の信号値に適用することで色ムラ補正に係る画像処理が完了する。色ムラ補正が施された画像信号は色ムラ補正部220から画像処理部230へ送られる。   Next, the correction processing unit 225 applies the correction coefficient obtained by the correction coefficient interpolation unit 224 to the signal value of the image signal, thereby completing the image processing related to color unevenness correction. The image signal subjected to the color unevenness correction is sent from the color unevenness correction unit 220 to the image processing unit 230.

以上の構成を用いた色ムラ補正に係る画像処理について具体的に説明する。   Image processing related to color unevenness correction using the above configuration will be specifically described.

図4はROM171に格納されている光線角度情報及び周辺光量落ち情報の一例であり、一部数値を省略している。ROM171には光線角度情報として上下光線角度と主光線角度が含まれている。本図に示すように、光線角度情報と周辺光量落ち情報は像高と対応させたデータテーブルの形でROM171に格納されている。周辺光量落ち情報は、像高0(画像中心)における光量を1とした場合の各像高における光量の割合を表したものである。これらの情報は撮影レンズ100に固有のものであり、レンズ光学系の設計データから得られたものである。   FIG. 4 is an example of the light beam angle information and the peripheral light amount drop information stored in the ROM 171 and some of the numerical values are omitted. The ROM 171 contains upper and lower ray angles and principal ray angles as ray angle information. As shown in the figure, the light ray angle information and the peripheral light amount drop information are stored in the ROM 171 in the form of a data table corresponding to the image height. The peripheral light amount drop information indicates the ratio of the light amount at each image height when the light amount at image height 0 (image center) is set to 1. These pieces of information are specific to the taking lens 100 and are obtained from design data of the lens optical system.

図5は上下光線角度と主光線角度を説明する模式図である。本図に示すように、射出瞳を通過して撮像素子に入射した結像光束の上光線と結像点の法線(点線)との成す角度を上光線角度θupper、結像光束の下光線と結像点の法線との成す角度を下光線角度θlower、射出瞳の中心を通る主光線と結像点の法線との成す角度を主光線角度θchiefとし、それぞれ本図中に実線で記載してある。本実施形態では、結像点の法線より下側で成る角度をプラス、法線より上側で成る角度をマイナスと定義している。   FIG. 5 is a schematic diagram illustrating the upper and lower ray angles and the principal ray angle. As shown in the figure, the angle formed by the upper ray of the imaging light flux that has passed through the exit pupil and incident on the image sensor and the normal (dotted line) of the imaging point is the upper ray angle θupper, and the lower ray of the imaging light flux The lower ray angle θ lower is the angle formed by the normal of the imaging point and the lower ray angle θ lower, and the chief ray angle θ chief is the angle formed by the principal ray passing through the center of the exit pupil and the normal of the imaging point. It has been described. In the present embodiment, an angle formed below the normal line of the imaging point is defined as plus, and an angle formed above the normal line is defined as minus.

また、光線角度情報及び周辺光量落ち情報と像高との関係は撮影条件に応じても変化するので、ROM171内には撮影条件毎に異なるデータテーブルが複数格納されていることになる。どの条件におけるデータテーブルを格納するかは任意に選択可能であり、補正精度とROM171の容量等に応じて適宜選択すればよい。   Further, since the relationship between the ray angle information, the peripheral light amount drop information and the image height changes according to the imaging conditions, the ROM 171 stores a plurality of different data tables for each imaging condition. The condition under which the data table is stored can be arbitrarily selected, and may be appropriately selected according to the correction accuracy, the capacity of the ROM 171, and the like.

光束情報算出部221は、上述した光線角度情報及び周辺光量落ち情報と撮影時の撮影条件とを用いて光束中心光線角度及び光束面積を算出する。ここで光束中心光線角度は、ある像高における上下光線角度の平均値として得られる角度であり、光束中心光線は本図中に破線で記載したものである。   The luminous flux information calculation unit 221 calculates the luminous flux central ray angle and the luminous flux area using the above-described ray angle information, marginal light amount drop information, and shooting conditions at the time of shooting. Here, the luminous flux center ray angle is an angle obtained as an average value of the upper and lower ray angles at a certain image height, and the luminous flux center ray is indicated by a broken line in FIG.

この光束中心光線角度θcは以下の式1で求められる。
θc=(θlower(h)+θupper(h))/2
−θSTDlower(h)+θSTDupper(h))/2 ・・・(1)
ここで、
θlower(h)は像高hにおける下光線角度、
θupper(h)は像高hにおける上光線角度、
θSTDlower(h)は像高hにおける基準レンズの下光線角度、
θSTDupper(h)は像高hにおける基準レンズの上光線角度
である。
The luminous flux center ray angle θc is obtained by the following equation 1.
θc = (θlower (h) + θupper (h)) / 2
−θSTDlower (h) + θSTDupper (h)) / 2 (1)
here,
θlower (h) is the lower ray angle at the image height h,
θupper (h) is the upper ray angle at the image height h,
θSTDrawer (h) is the lower ray angle of the reference lens at the image height h,
θSTDupper (h) is the upper ray angle of the reference lens at the image height h.

また本実施形態において光束面積Sは、画素位置や波長によりそれぞれ異なる画素内の吸収深さの取り扱いを簡便にするために、光束面積を所定の深さにおける面積として正規化したものである。以後の説明では、光束面積と記載した場合には基本的にこの正規化された光束面積のことを指すものとする。   Further, in the present embodiment, the light flux area S is obtained by normalizing the light flux area as an area at a predetermined depth in order to simplify the handling of the absorption depth in the pixel which differs depending on the pixel position and the wavelength. In the following description, the term "luminous flux area" basically indicates the normalized luminous flux area.

レンズの透過率を考慮しない場合、周辺光量落ちは画像中心と任意像高との光束面積比に相当する。このため、各像高における光束面積は画像中心における光束面積S0と対応する周辺光量落ち情報とを乗算することで求められる。すなわち、以下の式2に示すように、
像高hにおける光束面積S
=中心光束面積S0×像高hにおける周辺光量落ち情報 ・・・(2)
となる。
When the transmittance of the lens is not considered, the peripheral light amount drop corresponds to the luminous flux area ratio between the center of the image and the arbitrary image height. Therefore, the luminous flux area at each image height can be obtained by multiplying the luminous flux area S0 at the center of the image by the corresponding peripheral light intensity drop information. That is, as shown in the following equation 2,
Luminous flux area S at image height h
= Center light flux area S0 × Peripheral light quantity drop information at image height h (2)
Becomes

中心光束面積S0は以下の式3で求められる。
S0=π×tan(θlower(0))^2 ・・・(3)
ここで、θlower(0)は像高0、すなわち画像中心における下光線角度である。なお、像高0であれば下光線角度と上光線角度は絶対値が等しくなるので、正負の符号を考慮しさえすればいずれの値を用いてもよい。
The central luminous flux area S0 is obtained by the following equation (3).
S0 = π × tan (θ lower (0)) ^ 2 (3)
Here, θlower (0) is the image height 0, that is, the lower ray angle at the center of the image. If the image height is 0, the lower ray angle and the upper ray angle have the same absolute value, and any value may be used as long as the sign is considered.

図4に示したデータテーブルの例では、各情報は像高1割刻みで格納されている。従って、まず光束情報算出部221はこの1割刻みの像高に対応した光束中心光線角度及び光束面積を算出する。   In the example of the data table shown in FIG. 4, each piece of information is stored at an image height of 10%. Therefore, first, the light flux information calculation unit 221 calculates the light flux center ray angle and the light flux area corresponding to the image height in increments of 10%.

図6はROM223に格納されている代表点情報の一例であり、一部数値を省略している。代表点情報は、各代表点の位置(i,j)とそれに対応する像高hを有している。代表点とは上述したように、画像信号を所定の数に分割して得られる複数のブロック内に設定した点である。本実施形態では、画像信号を60×40個(合計2400個)のブロックに分割し、最も左上のブロックを(1,1)、一つ下のブロックを(1,2)と順番に番号を振り、最後に最も右下のブロックを(60,40)としている。   FIG. 6 is an example of the representative point information stored in the ROM 223, and some numerical values are omitted. The representative point information includes the position (i, j) of each representative point and the image height h corresponding thereto. As described above, the representative point is a point set in a plurality of blocks obtained by dividing the image signal into a predetermined number. In the present embodiment, the image signal is divided into 60 × 40 (total 2,400) blocks, and the upper leftmost block is numbered (1,1), and the next lower block is numbered (1,2) in this order. Finally, the block at the bottom right is (60, 40).

また、代表点は各ブロックの中央画素としている。各ブロックの大きさは均等であるので、代表点の位置座標は一義的に決定される。   The representative point is the center pixel of each block. Since the size of each block is uniform, the position coordinates of the representative point are uniquely determined.

光束情報算出部221はROM223から上述した代表点情報を取得すると、各代表点の像高に対応する光束中心光線角度及び光束面積を補間計算により算出し、光束中心光線角度マップ及び光束面積マップを作成する。   When acquiring the above-described representative point information from the ROM 223, the light flux information calculation unit 221 calculates the light flux center ray angle and the light flux area corresponding to the image height of each representative point by interpolation calculation, and calculates the light flux center ray angle map and the light flux area map. create.

代表点情報にはさらに第1及び第2の補正項が各代表点と対応する形で格納されている。第1の補正項とは光束中心光線角度に係る補正項であり、予め光束中心光線角度と基準レンズで得られた画像信号との関係を例えば3次関数で多項式近似することで、それらの係数a1乃至d1として求められる。すなわち、3次の項の係数をa1、2次の項の係数をb1、1次の項の係数をc1、そして0次の項の係数をd1としている。第2の補正項とは光束面積に係る補正項であり、第1の補正項と同様に、光束面積と画像信号との関係を3次元多項式に近似することで係数a2乃至d2として求められる。すなわち、3次の項の係数をa2、2次の項の係数をb2、1次の項の係数をc2、そして0次の項の係数をd2としている。   The representative point information further stores first and second correction terms in a form corresponding to each representative point. The first correction term is a correction term related to the light beam center ray angle, and the coefficient between the light beam center ray angle and the image signal obtained by the reference lens is previously approximated by, for example, a polynomial using a cubic function. It is obtained as a1 to d1. That is, the coefficient of the third-order term is a1, the coefficient of the second-order term is b1, the coefficient of the first-order term is c1, and the coefficient of the zero-order term is d1. The second correction term is a correction term relating to the luminous flux area, and is obtained as coefficients a2 to d2 by approximating the relationship between the luminous flux area and the image signal to a three-dimensional polynomial, as in the first correction term. That is, the coefficient of the third-order term is a2, the coefficient of the second-order term is b2, the coefficient of the first-order term is c2, and the coefficient of the zero-order term is d2.

これらの補正項を各ブロックにおいてそれぞれ算出することで、本図に示した代表点情報のデータテーブルが得られる。なお、これらの補正項は各色情報について算出されるべきもので、例えば赤(R)、緑(G)、青(B)に対応した3種類、色比(R/G)、(B/G)に対応した2種類等となるが、図中のデータテーブルでは省略して1種類のみ記載している。   By calculating these correction terms in each block, the data table of the representative point information shown in this drawing is obtained. These correction terms are to be calculated for each color information. For example, three types corresponding to red (R), green (G), and blue (B), color ratio (R / G), (B / G ), But only one type is shown in the data table in FIG.

光束中心光線角度及び光束面積と色付き(色ムラ特性)との関係を算出することによって、撮影レンズ及び撮影条件が異なることで生じる色ムラ特性への影響を減じることが可能となる。また、上記を画像位置(代表点)毎に算出することによって、入射光束と撮像素子構造との関係により生じる色ムラ特性を捉えることが可能となる。   By calculating the relationship between the light beam center ray angle and the light beam area and the coloring (color unevenness characteristics), it is possible to reduce the influence on the color unevenness characteristics caused by different photographing lenses and photographing conditions. Further, by calculating the above for each image position (representative point), it becomes possible to capture the color non-uniformity characteristics caused by the relationship between the incident light beam and the imaging device structure.

補正係数算出部222は、光束情報算出部221で得られた光束中心光線角度θcと第1の補正項a1乃至d1とから以下の式4に従って第1の補正係数k1を算出する。
k1=a1×θc^3+b1×θc^2+c1×θc+d1 ・・・(4)
同様に第2の補正係数k2も、光束面積Sと第2の補正項a2乃至d2とから以下の式5に従って算出する。
k2=a2×S^3+b2×S^2+c2×S+d2 ・・・(5)
これにより、各ブロックの代表点位置における色ムラ補正の補正係数が得られる。
The correction coefficient calculation unit 222 calculates a first correction coefficient k1 from the luminous flux center ray angle θc obtained by the luminous flux information calculation unit 221 and the first correction terms a1 to d1 according to the following Expression 4.
k1 = a1 × θc ^ 3 + b1 × θc ^ 2 + c1 × θc + d1 (4)
Similarly, the second correction coefficient k2 is calculated from the light flux area S and the second correction terms a2 to d2 according to the following equation 5.
k2 = a2 × S ^ 3 + b2 × S ^ 2 + c2 × S + d2 (5)
As a result, a correction coefficient of color unevenness correction at the representative point position of each block is obtained.

続いて補正係数補間部224は、代表点に対して得られた各補正係数から画像信号全体に対応する補正係数を線形補間(バイリニア補間)により算出する。このバイリニア補間は、図7に示すように、4点の既知の値から未知の1点の値を求める補間法である。   Subsequently, the correction coefficient interpolation unit 224 calculates a correction coefficient corresponding to the entire image signal from each correction coefficient obtained for the representative point by linear interpolation (bilinear interpolation). This bilinear interpolation is an interpolation method for finding an unknown value at one point from four known values, as shown in FIG.

4点(x1,y1)、(x1,y2)、(x2,y1)及び(x2,y2)における値がそれぞれI11、I12、I21及びI22である場合を考える。このとき、バイリニア補間によれば、4点に囲まれる領域内の1点(x’,y’)における値I(x’,y’)は式6により求められることが知られている。   Consider a case where the values at four points (x1, y1), (x1, y2), (x2, y1), and (x2, y2) are I11, I12, I21, and I22, respectively. At this time, according to the bilinear interpolation, it is known that the value I (x ', y') at one point (x ', y') in the area surrounded by four points can be obtained by Expression 6.

上述したバイリニア補間により画像信号全体に対応する第1及び第2の補正係数が得られると、補正処理部225はそれらの補正係数を撮像素子210から得られた画像信号に乗算して適用することで色ムラ補正に係る画像処理が完了する。なお、補正項がRGB毎に取得してある場合には、得られた補正係数を対応するRGB信号値にそれぞれ適用することで補正処理が行われ、また、補正項が例えば色比R/G、B/G毎に取得してある場合には、対応する色比信号値にそれぞれ適用することで補正処理が行われる。   When the first and second correction coefficients corresponding to the entire image signal are obtained by the above-described bilinear interpolation, the correction processing unit 225 multiplies those correction coefficients by the image signal obtained from the image sensor 210 and applies the multiplied image. Thus, the image processing relating to the color unevenness correction is completed. When the correction term is acquired for each of RGB, the correction process is performed by applying the obtained correction coefficient to the corresponding RGB signal value, and the correction term is, for example, a color ratio R / G. , B / G, the correction process is performed by applying to each corresponding color ratio signal value.

補正処理が完了した画像信号は、上述したように後段の画像処理部230に送られ、各種の一般的な画像処理が施される。   The image signal on which the correction processing has been completed is sent to the subsequent image processing unit 230 as described above, and is subjected to various general image processing.

以上、本発明を実施の画像処理方法の第1実施例によれば、場所により異なる色ムラを光束中心光線角度と光束面積の関数であるとし、色ムラを補正するための補正量を光束中心光線角度と光束面積の3次関数と仮定している。そして、それら3次関数の係数(第1及び第2の補正項)として、基準レンズで得られた画像信号をそれぞれ光束中心光線角度と光束面積の3次関数で多項式近似した際に得られる係数を用いることとしている。   As described above, according to the first embodiment of the image processing method embodying the present invention, it is assumed that the color unevenness that varies depending on the location is a function of the light flux center ray angle and the light flux area, and the correction amount for correcting the color unevenness is the light flux center. It is assumed to be a cubic function of ray angle and luminous flux area. Then, as coefficients of these cubic functions (first and second correction terms), coefficients obtained when the image signal obtained by the reference lens is polynomial approximated by a cubic function of the luminous flux center ray angle and the luminous flux area, respectively. Is used.

これにより、色ムラを光束面積の関数としても捉えているので、メリジオナル方向(光束中心光線角度)だけでは捉えられない変化もサジタルを考慮した光束面積で捉えることが可能となり、色ムラ補正の精度が向上する。   As a result, color unevenness is also captured as a function of the luminous flux area, so that changes that cannot be captured only in the meridional direction (luminous flux center ray angle) can be captured in the luminous flux area taking sagittal into account, and the accuracy of color unevenness correction is improved. Is improved.

本出願人は、当初、メリジオナル方向の光線角や光線角幅だけでは説明できない色変化の挙動を捉えた際に、サジタル光線角の変化に注目したが、メリジオナル光線角幅とサジタル光線角幅の比では色変化との相関が得られなかった。さらに検討を重ねた結果、メリジオナル光線角幅とサジタル光線角幅の積、つまり光束の面積であれば色変化との相関を得ることを見出した。これはF値によって画像の色付きが変化する現象に相当すると解釈でき、F値を像高毎の光束面積に置き換えることで像高毎の色付きの変化を取り扱うことが可能になる。さらに、光束面積が大きいほど(F値が小さく明るいレンズほど)画素内部構造に起因するケラレや隣接画素への斜入射が起きやすく、画素構造が中心非対称であることによる色付きの方向依存性を扱ううえで有用な情報となる。   The present applicant initially focused on the change in the sagittal ray angle when capturing the behavior of color change that could not be explained by the ray angle and ray width in the meridional direction alone. No correlation with the color change was obtained in the ratio. As a result of further study, it was found that the product of the meridional beam angle width and the sagittal beam angle width, that is, the area of the luminous flux can be correlated with the color change. This can be interpreted as corresponding to a phenomenon in which the coloring of the image changes according to the F value. By replacing the F value with the luminous flux area for each image height, it becomes possible to handle the coloring change for each image height. Furthermore, the larger the luminous flux area (the smaller the F-number and the brighter the lens), the more easily vignetting due to the pixel internal structure and oblique incidence on adjacent pixels occur. This is useful information.

また、光束中心光線角度及び光束面積は像高に依存するが、第1及び第2の補正項は代表点毎に作成するので像高に非依存で変化させることができるため、像高に非依存の現象に由来する色ムラまでも適切に補正することが可能となる。   Although the central ray angle of the light beam and the area of the light beam depend on the image height, the first and second correction terms are created for each representative point and can be changed independently of the image height. It is possible to appropriately correct even the color unevenness resulting from the dependence phenomenon.

また、線形補間を利用して、得られた補正係数を画像信号全体に対して補間算出することで、必要とする第1及び第2の補正項のブロック数を抑えつつブロック境界での変化が滑らかになるように補正を行うことができる。   Further, by using the linear interpolation to calculate the obtained correction coefficients for the entire image signal by interpolation, the change at the block boundary can be reduced while the required number of blocks of the first and second correction terms is suppressed. Correction can be made so as to be smooth.

(第2実施例)
次に第2実施例について説明する。上述した第1実施例において光束面積は、式2に示したように画像中心における中心光束面積S0と周辺光量落ち情報を用いて算出していた。そしてこの周辺光量落ち情報は図4に示したように像高に対応したデータテーブルの形式でROM171に格納されていた。第2実施例においては光束面積を、結像光束に内接する四角形により近似することで算出する。光束面積の算出に係る部分以外は上述した第1実施例と同様であるので説明は省略する。
(Second embodiment)
Next, a second embodiment will be described. In the first embodiment described above, the luminous flux area was calculated using the central luminous flux area S0 at the center of the image and the peripheral light intensity drop information as shown in Expression 2. The marginal light amount drop information is stored in the ROM 171 in the form of a data table corresponding to the image height as shown in FIG. In the second embodiment, the light flux area is calculated by approximating the light flux area by a rectangle inscribed in the imaging light flux. Except for the portion related to the calculation of the luminous flux area, the configuration is the same as that of the first embodiment described above, and the description is omitted.

図8は第2実施例においてROM171に格納されている光線角度情報の一例であり、一部数値を省略している。上下光線角度及び主光線角度は上述した第1実施例と同義であるので説明を省略する。サジタル光線角度とは結像光束のサジタル光線と受光面の法線とがなす角度であり、他の光線角度情報と同様にレンズ光学系の設計データから得られる。これらの光線角度情報と像高との関係は撮影条件に応じても変化するので、ROM171内には撮影条件毎に異なるデータテーブルが複数格納される。 FIG. 8 shows an example of ray angle information stored in the ROM 171 in the second embodiment, and some numerical values are omitted. Since the upper and lower ray angles and the principal ray angle are the same as those in the first embodiment, the description is omitted. The sagittal ray angle is the angle between the sagittal ray of the imaged light beam and the normal to the light receiving surface, and is obtained from the design data of the lens optical system as with other ray angle information. Since the relationship between the ray angle information and the image height changes depending on the imaging conditions, the ROM 171 stores a plurality of different data tables for each imaging condition.

図9は上述した結像光束の内接四角形の面積を求める式を説明するための概念図である。本図に示したように、結像光束の周縁には各種の光線が入射している。すなわち、像高(メリジオナル)方向では画像中心に近い側には下光線、画像中心から遠い側には上光線が入射する。また、像高方向と垂直に交わるサジタル方向にはサジタル光線が入射する。さらに、結像光束内部の一点には主光線が入射する。   FIG. 9 is a conceptual diagram for explaining an equation for calculating the area of the inscribed rectangle of the image forming light beam. As shown in the figure, various light beams are incident on the periphery of the image forming light beam. That is, in the image height (meridional) direction, a lower ray is incident on a side closer to the image center, and an upper ray is incident on a side farther from the image center. Further, a sagittal ray is incident in a sagittal direction perpendicular to the image height direction. Further, a chief ray is incident on one point inside the imaging light beam.

このとき図中の結像光束に内接する三角形の面積Stを求めるには、像高方向を底辺、サジタル方向を高さと考えれば、それぞれ
底辺の長さ:(tan(θlower(h)−θchief(h))
−tan(θupper(h)−θchief(h)))
高さ:tan(θsagittal(h))
と表すことができる。
ここで、
θlower(h)は像高hにおける下光線角度、
θupper(h)は像高hにおける上光線角度、
θchief(h)は像高hにおける主光線角度、
θsagittal(h)は像高hにおけるサジタル光線角度幅
である。
At this time, in order to obtain the area St of the triangle inscribed in the imaged light beam in the figure, considering the image height direction as the base and the sagittal direction as the height, the length of the base is respectively: (tan (θlower (h) −θchief ( h))
−tan (θ upper (h) −θ chief (h)))
Height: tan (θ sagittal (h))
It can be expressed as.
here,
θlower (h) is the lower ray angle at the image height h,
θupper (h) is the upper ray angle at the image height h,
θchief (h) is the chief ray angle at the image height h,
θ sagittal (h) is the sagittal ray angle width at the image height h.

結像光束の形状はメリジオナル光線に対して概ね線対称であると考えれば、結像光束の内接四角形の面積は三角形の面積を2倍すればよく、内接四角形の面積Sは以下の式7で求められる。
S=(tan(θlower(h)−θchief(h))
−tan(θupper(h)−θchief(h)))
×tan(θsagittal(h)) ・・・(7)
Assuming that the shape of the image forming light beam is substantially line-symmetric with respect to the meridional light beam, the area of the inscribed rectangle of the image forming light beam may be twice the area of the triangle, and the area S of the inscribed rectangle is expressed by the following equation. 7 is required.
S = (tan (θ lower (h) −θ chief (h))
−tan (θ upper (h) −θ chief (h)))
× tan (θ sagittal (h)) (7)

上述した演算を光束情報算出部221が全ての代表点について行い、光束面積マップを作成する。これ以降の処理の流れは第1実施例と同様であるので説明は省略する。   The luminous flux information calculation unit 221 performs the above-described calculation for all representative points, and creates a luminous flux area map. The subsequent processing flow is the same as in the first embodiment, and a description thereof will be omitted.

以上、本発明を実施の画像処理方法の第2実施例によれば、周辺光量落ち情報を用いず、結像光束の内接四角形の面積をもって光束面積を近似している。周辺光量落ち情報には撮影レンズ100の透過率による光量減少分が含まれており、撮影レンズ100によっては誤差が大きくなる可能性がある。その一方で、上述した第2実施例であれば撮影レンズ100の透過率による影響を受けることがないという利点がある。   As described above, according to the second embodiment of the image processing method of the present invention, the light flux area is approximated by the area of the inscribed rectangle of the imaging light flux without using the peripheral light intensity drop information. The peripheral light amount drop information includes a light amount decrease due to the transmittance of the photographing lens 100, and an error may increase depending on the photographing lens 100. On the other hand, the second embodiment described above has an advantage that it is not affected by the transmittance of the taking lens 100.

変形例として、光束面積を内接四角形ではなく楕円形に近似してもよい。その場合であれば、楕円面積を求める公式を用いることで光束面積が得られる。その他にも適切な近似を用いることで光束面積を算出することが可能である。   As a modification, the luminous flux area may be approximated to an ellipse instead of an inscribed rectangle. In that case, the luminous flux area can be obtained by using the formula for obtaining the elliptical area. In addition, it is possible to calculate the luminous flux area by using an appropriate approximation.

なお、上述してきた実施形態の画像処理方法では、代表点に対して算出した補正係数を補正係数補間部224において線形補間(バイリニア補間)することにより全画像信号に対する補正係数を得ていたが、補間方法はこれに限らない。例えば、代表点に対する補正係数をその代表点が属するブロック内に一様に適用することで全画像信号に対する補正係数を得るようにしてもよい。この場合、色ムラの補正精度は低下することになるが、演算の負荷を低減することができる。また、補正係数補間部224は不要であるので、補正係数算出部222にて算出された補正係数は補正処理部225に直接送られることになる。   In the image processing method according to the above-described embodiment, the correction coefficients calculated for the representative points are linearly interpolated (bilinear interpolation) by the correction coefficient interpolation unit 224 to obtain the correction coefficients for all image signals. The interpolation method is not limited to this. For example, a correction coefficient for all image signals may be obtained by uniformly applying a correction coefficient for a representative point to a block to which the representative point belongs. In this case, the correction accuracy of the color unevenness is reduced, but the load of calculation can be reduced. Since the correction coefficient interpolation unit 224 is unnecessary, the correction coefficient calculated by the correction coefficient calculation unit 222 is directly sent to the correction processing unit 225.

以上で説明したように、本発明に記載の画像処理方法によれば、撮影条件(入射光線の状態)に応じて変化する画像位置ごとの色ムラを適切に補正可能な画像処理方法を提供することが可能となる。   As described above, the image processing method according to the present invention provides an image processing method capable of appropriately correcting color unevenness at each image position that changes according to a shooting condition (state of incident light). It becomes possible.

100 撮影レンズ、110 ズームレンズ、120 フォーカスレンズ、130 絞りユニット、140 ズーム制御部、150 フォーカス制御部、160 絞り制御部、170 レンズCPU、171 ROM、172 RAM、200 カメラ本体、210 撮像素子、220 色ムラ補正部、221 光束情報算出部、222 補正係数算出部、223 ROM、224 補正係数補間部、225 補正処理部、230 画像処理部、240 メインCPU、250 記憶媒体I/F、260 ユーザI/F、270 画像表示部、300 撮像装置 Reference Signs List 100 shooting lens, 110 zoom lens, 120 focus lens, 130 aperture unit, 140 zoom control unit, 150 focus control unit, 160 aperture control unit, 170 lens CPU, 171 ROM, 172 RAM, 200 camera body, 210 image sensor, 220 Color unevenness correction section, 221 light flux information calculation section, 222 correction coefficient calculation section, 223 ROM, 224 correction coefficient interpolation section, 225 correction processing section, 230 image processing section, 240 main CPU, 250 storage medium I / F, 260 user I / F, 270 Image display unit, 300 imaging device

Claims (7)

光束中心光線角度及び光束面積を算出する光束情報算出工程と、
算出した前記光束中心光線角度及び前記光束面積に基づいてそれぞれ第1の補正係数及び第2の補正係数を算出する補正係数算出工程と、
前記第1及び第2の補正係数を用いて画像信号に補正処理を行う補正処理工程と、
を含み、
前記光束中心光線角度は、撮影レンズを透過し受光面に結像した結像光束の任意の像高における上光線及び下光線と前記受光面の法線とが成す角度であり以下の条件式で表せ
前記光束面積は、前記結像光束の前記受光面上の任意の像高における面積であることを特徴とする画像処理方法。
尚、前記光束中心光線角度をθcとすると、
θcは以下の式で求められる。
θc=(θlower(h)+θupper(h))/2
−θSTDlower(h)+θSTDupper(h))/2
ここで、
θlower(h)は像高hにおける下光線角度、
θupper(h)は像高hにおける上光線角度、
θSTDlower(h)は像高hにおける基準レンズの下光線角度、
θSTDupper(h)は像高hにおける基準レンズの上光線角度
である。
Light flux information calculation step of calculating the light flux center ray angle and the light flux area,
A correction coefficient calculating step of calculating a first correction coefficient and a second correction coefficient based on the calculated light flux center ray angle and the calculated light flux area, respectively;
A correction processing step of performing correction processing on an image signal using the first and second correction coefficients;
Including
The light beam central ray angle, angle der Ri following condition formed between the normal line of the light receiving surface and the upper ray and the lower ray at an arbitrary image height of the imaging light beam formed on the light receiving surface through the photographic lens Can be represented by
The image processing method according to claim 1, wherein the light flux area is an area of the imaging light flux at an arbitrary image height on the light receiving surface.
In addition, assuming that the light beam center ray angle is θc,
θc is obtained by the following equation.
θc = (θlower (h) + θupper (h)) / 2
−θSTDlower (h) + θSTDupper (h)) / 2
here,
θlower (h) is the lower ray angle at the image height h,
θupper (h) is the upper ray angle at the image height h,
θSTDrawer (h) is the lower ray angle of the reference lens at the image height h,
θSTDupper (h) is the upper ray angle of the reference lens at the image height h .
前記光束情報算出工程は、
前記結像光束の光線角度に関する光線角度情報に基づいて、前記受光面に対応する光束中心光線角度のマップを作成する光束中心光線角度マップ作成工程を含み、
前記光線角度情報は少なくとも、前記上光線角度及び前記下光線角度を有する
ことを特徴とする請求項1に記載の画像処理方法。
The light flux information calculating step includes:
Based on light beam angle information on the light beam angle of the imaging light beam, including a light beam center ray angle map creating step of creating a map of the light beam center ray angle corresponding to the light receiving surface,
The image processing method according to claim 1, wherein the light ray angle information includes at least the upper light ray angle and the lower light ray angle.
前記光束情報算出工程は、
前記光線角度情報から前記結像光束の前記受光面の光軸中心における中心光束面積を算出する中心光束面積算出工程と、
周辺光量落ちに関する周辺光量落ち情報と前記中心光束面積とに基づいて、前記受光面に対応する光束面積のマップを作成する光束面積マップ作成工程とを含む
ことを特徴とする請求項2に記載の画像処理方法。
The light flux information calculating step includes:
A central light flux area calculating step of calculating a central light flux area at an optical axis center of the light receiving surface of the imaging light flux from the light ray angle information;
The method according to claim 2, further comprising a light flux area map creating step of creating a map of a light flux area corresponding to the light receiving surface based on the peripheral light quantity fall information regarding the peripheral light quantity fall and the center light flux area. Image processing method.
光束中心光線角度及び光束面積を算出する光束情報算出工程と、
算出した前記光束中心光線角度及び前記光束面積に基づいてそれぞれ第1の補正係数及び第2の補正係数を算出する補正係数算出工程と、
前記第1及び第2の補正係数を用いて画像信号に補正処理を行う補正処理工程と、
を含み、
前記光束中心光線角度は、撮影レンズを透過し受光面に結像した結像光束の任意の像高における上光線及び下光線と前記受光面の法線とが成す角度である上光線角度と下光線角度との平均値であり、
前記光束面積は、前記結像光束の前記受光面上の任意の像高における面積であり、
前記光束情報算出工程は、
前記結像光束の光線角度に関する光線角度情報に基づいて、前記受光面に対応する光束中心光線角度のマップを作成する光束中心光線角度マップ作成工程を含み、
前記光線角度情報は少なくとも、前記上光線角度及び前記下光線角度を有し、
前記光線角度情報はさらに、前記結像光束のサジタル光線と前記受光面の法線とが成す角度であるサジタル光線角度を有し、
光束情報算出工程は、
前記光線角度情報に基づいて前記結像光束に内接する四角形の面積を算出し、前記受光面に対応する光束面積のマップを作成する光束面積マップ作成工程を含む
ことを特徴とする画像処理方法。
Light flux information calculation step of calculating the light flux center ray angle and the light flux area,
A correction coefficient calculating step of calculating a first correction coefficient and a second correction coefficient based on the calculated light flux center ray angle and the calculated light flux area, respectively;
A correction processing step of performing correction processing on an image signal using the first and second correction coefficients;
Including
The light beam center ray angle is an upper ray angle and a lower ray angle, which are angles formed by upper rays and lower rays at an arbitrary image height of an imaging light flux transmitted through the imaging lens and imaged on the light receiving surface and a normal line of the light receiving face. It is the average value with the ray angle,
The light flux area is an area at an arbitrary image height on the light receiving surface of the imaging light flux,
The light flux information calculating step includes:
Based on light beam angle information on the light beam angle of the imaging light beam, a light beam center ray angle map creating step of creating a map of the light beam center ray angle corresponding to the light receiving surface,
The ray angle information has at least the upper ray angle and the lower ray angle,
The ray angle information further includes a sagittal ray angle that is an angle formed by a sagittal ray of the imaging light flux and a normal to the light receiving surface,
The luminous flux information calculation step includes:
An image processing method comprising: calculating an area of a quadrilateral inscribed in the imaging light flux based on the light ray angle information, and generating a light flux area map corresponding to the light receiving surface.
前記補正係数算出工程は、
前記光束中心光線角度と、前記受光面を所定の数に分割して得られる複数のブロック内にそれぞれ設けられた代表点における前記光束中心光線角度に係る第1の補正項とから、前記代表点における前記第1の補正係数を算出する第1の補正係数算出工程と、
前記光束面積と、前記代表点における前記光束面積に係る第2の補正項とから、前記代表点における前記第2の補正係数を算出する第2の補正係数算出工程とを含む
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理方法。
The correction coefficient calculation step,
From the first light beam angle and the first correction term relating to the light beam center ray angle at a representative point provided in each of a plurality of blocks obtained by dividing the light receiving surface into a predetermined number, the representative point A first correction coefficient calculating step of calculating the first correction coefficient in
A second correction coefficient calculating step of calculating the second correction coefficient at the representative point from the light flux area and a second correction term relating to the light flux area at the representative point. The image processing method according to claim 1.
前記第1及び第2の補正係数に基づいて、全ての前記受光面に対する前記第1及び第2の補正係数を線形補間により算出する補正係数補間工程をさらに含み、
前記補正処理工程において、前記補正係数補間工程により算出された前記第1及び第2の補正係数を用いて補正処理を行う
ことを特徴とする請求項5に記載の画像処理方法。
A correction coefficient interpolation step of calculating the first and second correction coefficients for all the light receiving surfaces by linear interpolation based on the first and second correction coefficients,
6. The image processing method according to claim 5, wherein in the correction processing step, a correction processing is performed using the first and second correction coefficients calculated in the correction coefficient interpolation step.
前記補正処理工程において、
前記第1及び第2の補正係数を前記代表点と対応する前記ブロック内に一律に適用して補正処理を行う
ことを特徴とする請求項5に記載の画像処理方法。
In the correction processing step,
The image processing method according to claim 5, wherein the first and second correction coefficients are uniformly applied to the block corresponding to the representative point to perform a correction process.
JP2016045408A 2016-03-09 2016-03-09 Image processing method Active JP6651916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016045408A JP6651916B2 (en) 2016-03-09 2016-03-09 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016045408A JP6651916B2 (en) 2016-03-09 2016-03-09 Image processing method

Publications (3)

Publication Number Publication Date
JP2017163315A JP2017163315A (en) 2017-09-14
JP2017163315A5 JP2017163315A5 (en) 2018-11-22
JP6651916B2 true JP6651916B2 (en) 2020-02-19

Family

ID=59853145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016045408A Active JP6651916B2 (en) 2016-03-09 2016-03-09 Image processing method

Country Status (1)

Country Link
JP (1) JP6651916B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3680827B2 (en) * 2002-08-27 2005-08-10 コニカミノルタフォトイメージング株式会社 Digital camera
JP5237059B2 (en) * 2008-11-14 2013-07-17 キヤノン株式会社 Focus detection apparatus and method, and imaging apparatus
JP2011049638A (en) * 2009-08-25 2011-03-10 Sony Corp Vignetting data calculation device, image capturing apparatus, and method of operating the vignetting data calculation device
JP5597776B2 (en) * 2011-12-28 2014-10-01 富士フイルム株式会社 Imaging device, image quality correction method thereof, interchangeable lens, and imaging device main body
TWI510100B (en) * 2012-03-29 2015-11-21 Novatek Microelectronics Corp Partial lens shading compensation method
JP2013247435A (en) * 2012-05-24 2013-12-09 Sigma Corp Imaging device

Also Published As

Publication number Publication date
JP2017163315A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
JP4952060B2 (en) Imaging device
JP5572765B2 (en) Solid-state imaging device, imaging apparatus, and focusing control method
CN103444185B (en) Color image element and imaging device
JP5361535B2 (en) Imaging device
CN103444183B (en) Color imaging element and imaging device
CN103842879B (en) Imaging device and the method for the sensitivity ratio that calculates phase differential pixel
JPWO2012117616A1 (en) Imaging apparatus and defective pixel correction method
CN103460703B (en) Color image capturing element and image capturing device
JPWO2013047111A1 (en) Imaging apparatus and focusing parameter value calculation method
US20050275904A1 (en) Image capturing apparatus and program
JPWO2012127702A1 (en) Color imaging device, imaging device, and imaging program
JP4295149B2 (en) Color shading correction method and solid-state imaging device
JP2010212761A (en) Image forming apparatus
JP5786355B2 (en) Defocus amount detection device and electronic camera
CN103460702B (en) Color image capturing element and image capturing device
JP2008118491A (en) Image processing device, solid photographing device, electronic device, image processing method, and image processing program
JP2004229055A (en) Image processor
JP2014215436A (en) Image-capturing device, and control method and control program therefor
JP6651916B2 (en) Image processing method
JP2011049472A (en) Solid-state image sensor and image pickup apparatus using the same
JP2012156882A (en) Solid state imaging device
JP6395790B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
JP6789810B2 (en) Image processing method, image processing device, and imaging device
JP6519276B2 (en) Image pickup apparatus and defect pixel correction method
JP7215729B2 (en) Imaging device and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181010

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R150 Certificate of patent or registration of utility model

Ref document number: 6651916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250