JP2009124524A - Imaging apparatus, and captured pixel data correcting method and program - Google Patents

Imaging apparatus, and captured pixel data correcting method and program Download PDF

Info

Publication number
JP2009124524A
JP2009124524A JP2007297451A JP2007297451A JP2009124524A JP 2009124524 A JP2009124524 A JP 2009124524A JP 2007297451 A JP2007297451 A JP 2007297451A JP 2007297451 A JP2007297451 A JP 2007297451A JP 2009124524 A JP2009124524 A JP 2009124524A
Authority
JP
Japan
Prior art keywords
pixel
correction
pixels
control signal
correction control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007297451A
Other languages
Japanese (ja)
Inventor
Tei Cho
テイ チョウ
Masaya Kinoshita
雅也 木下
Hiroki Otsuki
博樹 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007297451A priority Critical patent/JP2009124524A/en
Publication of JP2009124524A publication Critical patent/JP2009124524A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of appropriately correcting captured pixel data of pixels for the same color light of a solid-state imaging device to which a pixel-shaped-pixel technology is applied. <P>SOLUTION: An imaging apparatus includes a solid-state imaging device in which a plurality of pixels arrayed in a two-dimensional array shape are collected into sets each constituted of a plurality of predetermined pixels having the same array patterns of pixels and an imaging plane is provided to share a circuit required for pixel constitution for the plurality of predetermined pixel constituting each one set. The imaging apparatus further includes: a correction means for performing predetermined correction based on a correction control signal upon captured pixel data for each of the same color light made incident on pixels through an optical system; and a correction control signal calculation means which calculates the correction control signal for each of the same color light, respectively, in accordance with the difference of pixel positions within the array patterns for the plurality of predetermined pixels within the array pattern, and supplies the correction control signal to the correction means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、例えばCMOSイメージセンサなどの固体撮像素子を備える撮像装置、および、当該撮像装置からの撮像画素データの補正方法並びに当該補正方法を実行するプログラムに関する。   The present invention relates to an imaging device including a solid-state imaging device such as a CMOS image sensor, a correction method for imaged pixel data from the imaging device, and a program for executing the correction method.

例えばCCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子は、光電変換素子を含む画素セルの上方に色フィルタ、さらにその上に集光用のマイクロレンズが積層された構造となっている。そして、デジタルビデオカメラやデジタルスチルカメラなどの撮像装置においては、マイクロレンズの前に撮影レンズなどのレンズ系が設けられ、2次元アレイ状に複数の画素が配列されている固体撮像素子の撮像面に被写体像が結像される構成とされる。   For example, a solid-state image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor includes a color filter above a pixel cell including a photoelectric conversion element, and a condensing microlens thereon. Has a laminated structure. In an imaging device such as a digital video camera or a digital still camera, an imaging surface of a solid-state imaging device in which a lens system such as a photographing lens is provided in front of a microlens and a plurality of pixels are arranged in a two-dimensional array A subject image is formed on the screen.

ところで、一般的に、撮像装置においては、固体撮像素子の撮像面への入射光量が、レンズ系を起因として、固体撮像素子の撮像面の中央部より、撮像面の周辺部が低下するため、画像の中央部に比べ、画像の周辺部が暗くなるシェーディングと呼ばれる感度むら(不均一性)の現象が生じることが知られている。   By the way, in general, in the imaging device, the incident light amount to the imaging surface of the solid-state imaging device is caused by the lens system, the peripheral portion of the imaging surface is lower than the central portion of the imaging surface of the solid-state imaging device, It is known that a phenomenon of non-uniformity of sensitivity (non-uniformity) called shading occurs in which the peripheral part of the image becomes darker than the central part of the image.

このシェーディングは、主として、固体撮像素子の撮像面の前面側に設けられたマイクロレンズと撮影レンズとの光学的な関係により発生する。例えば、撮影レンズを通過した光線は、撮像面の周辺ほど、斜めに入射するようになるので、撮像面において撮影レンズの光軸から離れた周辺部分の領域では、画素の感光部(画素セル)に対し、本来の入射光線の一部しか入射しないようになり、光量が低下し、シェーディングが発生する。シェーディング現象は、固体撮像素子の撮像面上の画素位置の、撮像面と撮影レンズの光軸とが交わる位置(通常、撮像面の中心位置)からの距離に比例して発生する。つまり、撮影レンズの光軸中心位置からのずれに応じて光量が低下するたシェーディングが発生する。   This shading occurs mainly due to the optical relationship between the microlens provided on the front side of the imaging surface of the solid-state imaging device and the photographing lens. For example, the light beam that has passed through the photographic lens is incident obliquely toward the periphery of the imaging surface. Therefore, in the region of the peripheral portion away from the optical axis of the photographic lens on the imaging surface, the photosensitive portion (pixel cell) of the pixel. On the other hand, only a part of the original incident light is incident, the amount of light is reduced, and shading occurs. The shading phenomenon occurs in proportion to the distance from the position of the pixel position on the imaging surface of the solid-state imaging device to the position where the imaging surface and the optical axis of the photographing lens intersect (usually the center position of the imaging surface). That is, shading occurs in which the amount of light decreases according to the deviation of the photographing lens from the optical axis center position.

このようなシェーディングを補正するために、一般には、上記撮像素子からの撮像画素信号に対し、光軸中心からの距離に応じて求めた補正係数を画素値に乗じたり、補正係数からゲインを調整したりなどして、電気的に補正することが行われている(例えば特許文献1(特開2007−36696号公報)参照)。   In order to correct such shading, in general, the pixel value is multiplied by the correction coefficient obtained according to the distance from the center of the optical axis, or the gain is adjusted from the correction coefficient, for the image pickup pixel signal from the image pickup device. For example, Japanese Patent Application Laid-Open No. 2007-36696 discloses that electrical correction is performed.

シェーディング補正方法の例として、特許文献1では、光軸中心からの距離に応じて、記憶装置に記憶された補正データを読み出し、ゲイン調整を行い、補正を行う方法が示されている。また、撮像平面を上、下、左、右の4つの領域に分割し、各領域に対し重み付け付加、座標シフト、さらに回転処理を施し、光軸に対し正対せず角度を持ったような回転形状のシェーディング特性の補正を可能な方法もある。   As an example of a shading correction method, Patent Document 1 discloses a method of reading correction data stored in a storage device in accordance with a distance from the optical axis center, performing gain adjustment, and performing correction. In addition, the imaging plane is divided into four areas, upper, lower, left, and right. Each area is weighted, coordinate-shifted, and further rotated so that it does not face the optical axis but has an angle. There is also a method capable of correcting the shading characteristics of the rotational shape.

ところで、近年、ビデオカメラやデジタルスチルカメラ用に用いられるCCDイメージセンサやCMOSイメージセンサなどの固体撮像素子には、一層の高画素数化と小型化が同時に要求されている。小型化を保ちつつ高画素数化を進めると、当然のことながら1画素あたりの面積が小さくなるために画素感度の減少が懸念される。   In recent years, solid-state imaging devices such as CCD image sensors and CMOS image sensors used for video cameras and digital still cameras are required to have higher pixel counts and smaller sizes at the same time. If the number of pixels is increased while maintaining the size reduction, the area per pixel is naturally reduced, and there is a concern that the pixel sensitivity may decrease.

この問題を解決するために、従来は、回路・配線レイアウトの工夫あるいは製造プロセスの進化等によって、固体撮像素子の画素構成(フォトダイオードと、増幅トランジスタやリセットトランジスタなどを含む周辺回路からなる)におけるフォトダイオード部の占める割合をできるだけ大きくすることで、高画素数化と小型化の両立を図ってきた。   In order to solve this problem, in the past, in a pixel configuration of a solid-state imaging device (consisting of a photodiode, a peripheral circuit including an amplification transistor, a reset transistor, etc.) by devising a circuit / wiring layout or an evolution of a manufacturing process, etc. By increasing the proportion of the photodiode portion as much as possible, we have attempted to achieve both high pixel count and miniaturization.

しかしながら、固体撮像素子に対する近年の高画素数化と小型化の要求はますます強まり、同時に低照度における高画質化も注目されてきており、もはや上記対応だけでは、画質として満足できる画素感度を得る固体撮像素子を提供することが事実上不可能になってきている。   However, the recent demand for higher pixel count and smaller size for solid-state imaging devices has increased, and at the same time, higher image quality at low illuminance has attracted attention. It has become virtually impossible to provide a solid-state imaging device.

そこで、固体撮像素子におけるこの問題を回避するための技術として、画素を構成するために必要な回路の一部分、例えば増幅用トランジスタやリセット用トランジスタを、水平方向および/または垂直方向に隣接または近接する複数の画素の間で共有させることにより、1画素当たりの回路(配線を含む)を減らし、その減らした分だけ受光用フォトダイオードに割り当てる面積を大きくして、画素の感度を稼ぐ技術が注目されている(以降、この技術を画素共有技術と呼ぶ)。   Therefore, as a technique for avoiding this problem in the solid-state imaging device, a part of a circuit necessary for constituting a pixel, for example, an amplifying transistor and a resetting transistor are adjacent to or adjacent to each other in the horizontal direction and / or the vertical direction. A technology that increases the sensitivity of pixels by reducing the number of circuits (including wiring) per pixel by increasing the area allocated to the light-receiving photodiode by reducing the number of circuits (including wiring) shared by multiple pixels is drawing attention. (Hereinafter, this technology is referred to as pixel sharing technology).

例えば特許文献2(特許第3838665号公報)では、画素からの画素データの読出しに必要な増幅用トランジスタおよびリセット用トランジスタを、隣接する2個の画素で共有化し、当該増幅用トランジスタおよびリセット用トランジスタに接続されている2個の画素を時間をずらして順に選択することで、それぞれの画素から画素データを読み出すことで、1画素あたりのトランジスタ数を削減し、その分をフォトダイオードの面積に回すことで、画素の感度向上を実現する画素共有技術が開示されている。   For example, in Patent Document 2 (Japanese Patent No. 3838665), an amplification transistor and a reset transistor necessary for reading pixel data from a pixel are shared by two adjacent pixels, and the amplification transistor and the reset transistor are shared. By sequentially selecting two pixels connected to each other at different times, pixel data is read out from each pixel, thereby reducing the number of transistors per pixel and turning that amount to the area of the photodiode. Thus, a pixel sharing technique that improves the sensitivity of the pixel is disclosed.

ところで、画素共有技術を用いない一般的な固体撮像素子は、全ての画素が画一的に構成されるのが通常である。すなわち、一般的な固体撮像素子の画素構成は、画面のどの位置の画素をみても常に同じである。このため、一般的な固体撮像素子では、画素毎のフォトダイオードの、半導体構造上の周辺環境も、全ての画素で同じとなり、製造上のバラツキの要因を除けば、基本的には、光学的特性は全画素で共通といえる。   By the way, in a general solid-state imaging device that does not use the pixel sharing technique, all the pixels are usually configured uniformly. That is, the pixel configuration of a general solid-state imaging device is always the same regardless of the pixel at any position on the screen. For this reason, in a general solid-state image sensor, the peripheral environment on the semiconductor structure of the photodiode for each pixel is the same for all pixels, and basically, except for the factor of manufacturing variation, it is basically optical. The characteristics are common to all pixels.

しかしながら、上記特許文献2を始めとする「画素共有技術」を適用した固体撮像素子では、隣接あるいは近接する複数の画素間で回路を共有利用させるために、回路を共有する複数の画素を一つの単位として考えた場合には、当該単位は全て同じ構成となるが、当該単位内の各画素においては、当該単位内における画素配列位置により、半導体構造上の周辺環境が異なる。このために、画素共有技術を用いる固体撮像素子では、回路を共有する複数の画素の配列パターンに応じた繰り返しパターンをもって回路レイアウトが形成されることになる。   However, in the solid-state imaging device to which the “pixel sharing technology” including the above-mentioned Patent Document 2 is applied, in order to share and use a circuit between a plurality of adjacent or adjacent pixels, a plurality of pixels sharing a circuit are combined into one pixel. When considered as a unit, all the units have the same configuration, but the surrounding environment on the semiconductor structure differs for each pixel in the unit depending on the pixel arrangement position in the unit. For this reason, in a solid-state imaging device using a pixel sharing technique, a circuit layout is formed with a repetitive pattern corresponding to an arrangement pattern of a plurality of pixels sharing a circuit.

すなわち、回路を共有する複数の画素を単位としたとき、固体撮像素子上では、当該単位が、水平方向および垂直方向に、複数個、繰り返し配列されるものであるが、それら複数個の単位において、単位内の複数の画素の配列パターン上で同じ位置になる画素は、そのフォトダイオードの、半導体構造上の周辺環境配置は同一のものとなるため、光学的特性も揃うことになる。   That is, when a plurality of pixels sharing a circuit are used as a unit, a plurality of the units are repeatedly arranged in the horizontal direction and the vertical direction on the solid-state imaging device. The pixels at the same position on the arrangement pattern of a plurality of pixels in the unit have the same peripheral environment arrangement on the semiconductor structure of the photodiode, and therefore have the same optical characteristics.

しかし、回路を共有する複数の画素単位内の、当該画素の配列パターン上で異なる位置になる画素間、すなわち、前記単位内の隣接画素または近接画素間では、回路・レイアウトが異なるため、画素のフォトダイオードの半導体構造上の周辺環境配置も異なり、それら画素の画素特性がそれぞれ異なったものになることは避けられない。   However, since the circuit and layout are different between pixels at different positions on the arrangement pattern of the pixels in a plurality of pixel units sharing a circuit, that is, between adjacent pixels or adjacent pixels in the unit, The peripheral environment arrangement on the semiconductor structure of the photodiode is also different, and it is inevitable that the pixel characteristics of the pixels are different from each other.

このため、「画素共有技術」を適用した固体撮像素子で、全画面均一の被写体を撮像したとしても、前記単位内の隣接画素間で画素データ出力値が異なることになり、最終出力画像の品質が著しく低下してしまうという問題が発生する。   For this reason, even if a solid-state image sensor to which the “pixel sharing technology” is applied is used to capture an image of a subject that is uniform on the entire screen, the pixel data output value differs between adjacent pixels in the unit, and the quality of the final output image This causes a problem that the remarkably decreases.

以上のような画素共有技術にまつわる上記の問題を、回避するために、従来は、
A.画素レイアウトの工夫により、できるだけ光学的不均一性を軽減する
B.光学的不均一性が発生しても、出力画像に影響を与えないような組み合わせで画素共有させる
といった、固体撮像装置側の画素構造を工夫した技術が、特許文献3(特開2004−172950号公報)、特許文献4(特開205−110104号公報)、特許文献5(特開2006−73733号公報)、特許文献6(特開2006−157953号公報)など、多数開示されている。
In order to avoid the above problems related to the pixel sharing technology as described above,
A. Reduce optical non-uniformity as much as possible by devising pixel layout. Patent Document 3 (Japanese Patent Application Laid-Open No. 2004-172950) discloses a technique for devising the pixel structure on the solid-state imaging device side such that pixels are shared in a combination that does not affect the output image even if optical non-uniformity occurs. Publication No.), Patent Literature 4 (Japanese Patent Laid-Open No. 205-110104), Patent Literature 5 (Japanese Patent Laid-Open No. 2006-73733), Patent Literature 6 (Japanese Patent Laid-Open No. 2006-157953), etc.

上記の特許文献は、次の通りである。
特開2007−142697号公報 特許第3838665号公報 特開2004−172950号公報 特開205−110104号公報 特開2006−73733号公報 特開2006−157953号公報
The above-mentioned patent documents are as follows.
Japanese Patent Laid-Open No. 2007-142697 Japanese Patent No. 3838665 JP 2004-172950 A Japanese Patent Laid-Open No. 205-110104 JP 2006-73733 A JP 2006-157953 A

前述した特許文献1に開示されているシェーディングの補正技術においては、記憶装置には、モノクローム(単色)の画像の場合であれば、シェーディング補正のための1セットの補正データが記憶され、また、カラー画像の場合であれば、各色光毎に、シェーディング補正のための1セットの補正データ(したがって、カラー用の色光数に応じた複数セットのシェーディング補正のための補正データ)が記憶される。   In the shading correction technique disclosed in Patent Document 1 described above, in the case of a monochrome (single color) image, the storage device stores a set of correction data for shading correction. In the case of a color image, a set of correction data for shading correction is stored for each color light (thus, a plurality of sets of correction data for shading correction corresponding to the number of color lights for color).

そして、各色光用(モノクロームの場合の単色を含む。また、単色には、輝度値(明暗信号)のみの場合、つまり、いわゆる白黒の場合を含むものとする。この明細書において、以下同じ)の画素の光軸中心からの距離に応じて、記憶装置に記憶された当該色光用の補正係数算出テーブル(白黒のモノクロームの場合を含む。この明細書において、以下同じ)から補正データを読み出し、ゲイン調整を行い、補正を行うようにしている。   Pixels for each color light (including a single color in the case of monochrome. In addition, a single color includes a case of only a luminance value (brightness signal), that is, a so-called black and white case. In accordance with the distance from the optical axis center, the correction data is read out from the correction coefficient calculation table for the color light stored in the storage device (including the case of black and white monochrome; the same applies hereinafter), and gain adjustment is performed. To make corrections.

つまり、全画面に渡って、各色光用の画素におけるシェーディング特性が、それぞれ同じ特性を備えているという大前提の元で成り立つものである。   In other words, the shading characteristics of the pixels for each color light are established on the premise that they have the same characteristics over the entire screen.

このため、上述した画素共有技術を適用した固体撮像装置においても、上記の特許文献2〜6に開示されている技術を用いて、共有画素のそれぞれについての画素特性のばらつきをなくすようにする必要がある。   For this reason, even in a solid-state imaging device to which the above-described pixel sharing technique is applied, it is necessary to eliminate variations in pixel characteristics for each of the shared pixels by using the techniques disclosed in Patent Documents 2 to 6 described above. There is.

しかしながら、前述したように、上記特許文献3〜6などに開示されている技術は、いずれも、固体撮像素子側の画素構造を工夫したものである。このため、例えば、上記Aによる画素構造の工夫では、回路を共有する複数の画素(以下、回路を共有する複数の画素を共有画素と称する)の光学的不均一性を軽減させることはできても、完全になくすことはできない。   However, as described above, all of the techniques disclosed in Patent Documents 3 to 6 described above devise the pixel structure on the solid-state imaging device side. For this reason, for example, the pixel structure according to A can reduce the optical non-uniformity of a plurality of pixels sharing a circuit (hereinafter, a plurality of pixels sharing a circuit is referred to as a shared pixel). However, it cannot be completely eliminated.

したがって、画素共有技術を適用した固体撮像装置においては、従来は、共有画素を構成する複数の画素のそれぞれの画素特性のばらつきのために、上述したような従来のシェーディング補正技術を用いたとしても完全に補正することができず、その結果、補正後の信号にもある程度のレンズシェーディングが残り、出力画質を悪化させるという問題があった。   Therefore, in a solid-state imaging device to which the pixel sharing technique is applied, conventionally, even if the conventional shading correction technique as described above is used due to variations in pixel characteristics of a plurality of pixels constituting the shared pixel. There is a problem that the image cannot be completely corrected, and as a result, a certain amount of lens shading remains in the corrected signal, which deteriorates the output image quality.

また、共有画素のそれぞれについての画素特性のばらつきをなくすようにする、上記Aの方法または上記Bの方法のいずれの場合も、画素構成、レイアウト、あるいは、画素データの読出し構成にまで、固体撮像素子に対して、大きな制約を課すことになり、延いては、当該AまたはBの方法を適用した固体撮像素子の出力を処理する撮像装置全体に対しても大きな制約を課すことになってしまうという問題もある。   Further, in any case of the above method A or B, which eliminates variations in pixel characteristics for each of the shared pixels, solid-state imaging up to the pixel configuration, layout, or pixel data readout configuration A large restriction is imposed on the element, and accordingly, a large restriction is also imposed on the entire imaging apparatus that processes the output of the solid-state imaging element to which the method A or B is applied. There is also a problem.

同じ色光用の画素からの撮像画素データを補正する場合には、上述したシェーディングに限らず、一般的に、同じ特性として、全て同じ補正特性により補正するのが通常であり、共有画素技術を用いた固体撮像素子からの撮像画素データについての補正を行う場合には、上述したシェーディングの場合と同様の問題が残る。   When correcting imaging pixel data from pixels for the same color light, not only the above-described shading but generally correction is always performed using the same correction characteristics as the same characteristics. In the case of correcting the pixel data from the solid-state image sensor, the same problem as in the case of shading described above remains.

この発明は、上記の問題点にかんがみ、固体撮像素子側の画素構造を工夫するのではなく、画素共有技術を適用した固体撮像素子の同じ色光用の画素からの撮像画素データについての補正を適切に行うことにより、出力画質への影響を、より軽減することができるようにした撮像装置および撮像画素データ補正方法を提供することを目的とする。   In view of the above-mentioned problems, the present invention does not devise the pixel structure on the solid-state image sensor side, but appropriately corrects the image pixel data from the pixels for the same color light of the solid-state image sensor to which the pixel sharing technology is applied. An object of the present invention is to provide an imaging apparatus and an imaging pixel data correction method that can further reduce the influence on the output image quality.

上記の課題を解決するために、この発明は、
2次元アレイ状に配列される複数の画素を、画素の配列パターンが同一となる所定の複数個の画素ずつを1組みとし、各1組みを構成する前記所定の複数個の画素に対して画素構成に必要な回路を共有する構成とされた撮像面を備える固体撮像素子と、
光学系を通じて画素に入射する同一の色光毎に、前記画素からの撮像画素データについて、補正制御信号に基づいて所定の補正を行う補正手段と、
前記同一の色光毎についての前記補正制御信号を、前記各1組みを構成する前記所定の複数個の画素の、前記配列パターン内における各画素位置の違いに応じて、それぞれ算出して、前記補正手段に供給する補正制御信号算出手段と、
を備える撮像装置を提供する。
In order to solve the above problems, the present invention provides:
A plurality of pixels arranged in a two-dimensional array is formed as a set of a plurality of predetermined pixels having the same pixel arrangement pattern, and the pixels corresponding to the predetermined plurality of pixels constituting each set A solid-state imaging device including an imaging surface configured to share a circuit necessary for the configuration;
Correction means for performing predetermined correction on the imaged pixel data from the pixel for each identical color light incident on the pixel through the optical system based on a correction control signal;
The correction control signal for each of the same color light is calculated according to the difference in pixel position in the array pattern of the predetermined plurality of pixels constituting each set, and the correction is performed. Correction control signal calculation means to be supplied to the means;
An imaging apparatus comprising:

上述の構成のこの発明による撮像装置においては、画素の配列パターンが同一となる所定の複数個の画素ずつを1組みとして、これを共有画素とする。そして、この発明による撮像装置の補正制御信号生成手段は、同一の色光用画素であっても、共有画素の配列パターン内における各画素位置の違いに応じて異なる補正制御信号を生成する。   In the imaging apparatus according to the present invention having the above-described configuration, a predetermined plurality of pixels having the same pixel arrangement pattern are taken as one set, and these are used as shared pixels. The correction control signal generating means of the image pickup apparatus according to the present invention generates different correction control signals according to differences in pixel positions in the shared pixel array pattern even for the same color light pixel.

そして、補正手段は、補正制御信号生成手段で生成された、配列パターン内において対応する画素位置の画素データについての補正制御信号を用いて、各画素データについての補正処理を行う。これにより、共有画素を構成する複数個の画素のそれぞれにおける、その配列パターンに応じた画素位置に基づく画素特性の不均一性が補正されて、軽減される。   Then, the correction unit performs correction processing for each pixel data using the correction control signal for the pixel data at the corresponding pixel position in the array pattern generated by the correction control signal generation unit. Thereby, the non-uniformity of the pixel characteristics based on the pixel position corresponding to the arrangement pattern in each of the plurality of pixels constituting the shared pixel is corrected and reduced.

この発明によれば、画素の配列パターンが同一となる所定の複数個の画素ずつを1組みとして、これを共有画素とする固体撮像素子からの撮像データについて、同一の色光毎についての補正制御信号を、共有画素の、前記配列パターン内における各画素位置の違いに応じて、それぞれ生成して、補正手段に供給するようにするので、画素共有画素技術を適用した固体撮像素子を用いる撮像装置においても、適切な補正ができて、出力画質への影響を、より軽減することができる。   According to the present invention, a correction control signal for each of the same color light with respect to imaging data from a solid-state imaging device having a plurality of predetermined plurality of pixels having the same pixel arrangement pattern as a set and a shared pixel. In the image pickup apparatus using the solid-state image pickup device to which the pixel sharing pixel technology is applied, the common pixel is generated according to the difference in each pixel position in the array pattern and supplied to the correction unit. However, appropriate correction can be performed, and the influence on the output image quality can be further reduced.

以下、この発明による撮像装置の実施形態を、図を参照しながら説明する。   Hereinafter, embodiments of an imaging apparatus according to the present invention will be described with reference to the drawings.

図1は、この実施形態の撮像装置10の要部の構成例を示すブロック図であり、撮像レンズを備える光学系1と、固体撮像素子の例としてのCMOSイメージセンサ2と、アナログ信号処理部3と、デジタル信号処理部4と、カメラ制御マイクロコンピュータ(マイクロコンピュータはマイコンと略称する)5と、手ぶれセンサ6と、レンズ駆動用ドライバ部7と、ヒューマンインターフェースマイコン8と、ユーザーインターフェース9とを備えている。   FIG. 1 is a block diagram illustrating a configuration example of a main part of an imaging apparatus 10 according to this embodiment, an optical system 1 including an imaging lens, a CMOS image sensor 2 as an example of a solid-state imaging device, and an analog signal processing unit. 3, a digital signal processing unit 4, a camera control microcomputer (microcomputer is abbreviated as a microcomputer) 5, a camera shake sensor 6, a lens driving driver unit 7, a human interface microcomputer 8, and a user interface 9. I have.

光学系1は、手ぶれを補正するために撮像レンズを位置調整するためのアクチュエータを備える。このアクチュエータは、レンズ駆動用ドライバ部7からのレンズ駆動信号により駆動制御される。レンズ駆動用ドライバ部7は、カメラ制御マイコン5からの制御に基づき、レンズ駆動信号を生成して、アクチュエータを駆動制御する。   The optical system 1 includes an actuator for adjusting the position of the imaging lens in order to correct camera shake. This actuator is driven and controlled by a lens driving signal from the lens driving driver section 7. The lens driving driver unit 7 generates a lens driving signal based on control from the camera control microcomputer 5 and controls driving of the actuator.

また、この実施形態の撮像装置におけるレンズ系1は、焦点距離を短焦点側(広角側)から長焦点側(望遠側)まで可変することができるズーム機構を含んでいる。レンズ駆動用ドライバ部7は、カメラ制御マイコン5から受け取ったズーム制御信号により光学系1のズーム機構を制御するようにする。   In addition, the lens system 1 in the imaging apparatus of this embodiment includes a zoom mechanism that can change the focal length from the short focal side (wide angle side) to the long focal side (telephoto side). The lens driving driver unit 7 controls the zoom mechanism of the optical system 1 based on the zoom control signal received from the camera control microcomputer 5.

CMOSイメージセンサ2は、水平方向および垂直方向に多数個の画素が配列されたものであると共に、画素共有技術が適用されたものであり、また、カラー画像を得るために、色フィルタが、光入射側に配置されているものである。   The CMOS image sensor 2 is one in which a large number of pixels are arranged in the horizontal direction and the vertical direction and a pixel sharing technique is applied. In order to obtain a color image, a color filter is used as a light filter. It is arranged on the incident side.

図2は、このCMOSイメージセンサ2の撮像面における画素配列および色フィルタ配列の例を示すものである。図2(A)は、いわゆるベイヤー配列を示すもので、矩形の画素Psが、水平方向および垂直方向に多数個配列されると共に、1つ置きの水平方向の画素の行では、赤Rと緑Gの色フィルタが、交互に画素に対向するように配され、残りの1つ置きの水平方向の画素の行では、青Bと緑Gの色フィルタが、交互に画素に対抗するように配され、かつ、赤Rと青Bの色フィルタが配される画素が、垂直方向の画素の1列に含まれないように配されたものである。   FIG. 2 shows an example of a pixel array and a color filter array on the imaging surface of the CMOS image sensor 2. FIG. 2A shows a so-called Bayer arrangement, in which a large number of rectangular pixels Ps are arranged in the horizontal direction and the vertical direction, and red R and green are arranged in every other horizontal pixel row. G color filters are arranged to alternately face the pixels, and in the remaining horizontal rows of pixels, the blue B and green G color filters are arranged to alternately oppose the pixels. In addition, the pixels to which the red R and blue B color filters are arranged are arranged so as not to be included in one column of pixels in the vertical direction.

図2(B)および(C)は、ひし形形状の画素Pdを、水平方向および垂直方向に多数個、配列したものである。これは、見かけ上の画素ピッチを、水平方向および垂直方向において、図2(A)のベイヤー配列の場合よりも短くすることができる画素配置例である。ただし、図示のように、色フィルタの配置が、図2(B)と図2(C)とで異なるものである。   2B and 2C show a large number of rhombus-shaped pixels Pd arranged in the horizontal and vertical directions. This is an example of a pixel arrangement in which the apparent pixel pitch can be made shorter in the horizontal direction and the vertical direction than in the case of the Bayer array in FIG. However, as illustrated, the arrangement of the color filters is different between FIG. 2B and FIG. 2C.

すなわち、図2(B)の画素配列例では、1つ置きの水平方向の画素の行では、赤Rと青Bの色フィルタが交互に画素に対向し、かつ、赤Rと青Bの色フィルタが、垂直方向にも交互に画素に対向するように配されると共に、残りの1つ置きの水平方向の画素の行では、緑Gの色フィルタのみが、画素に対向するように配されたものである。   That is, in the pixel arrangement example of FIG. 2B, in every other horizontal pixel row, the red R and blue B color filters alternately face the pixels, and the red R and blue B colors. The filters are arranged so as to alternately face the pixels in the vertical direction, and only the green G color filter is arranged so as to face the pixels in every other horizontal row of pixels. It is a thing.

そして、図2(C)の画素配列例は、1つ置きの水平方向の画素の行では、赤Rと緑Gの色フィルタが交互に画素に対向するように配された行と、青Bと緑Gの色フィルタが交互に画素に対向するように配された行とが1行置きになるようにされると共に、残りの1つ置きの水平方向の画素の行では、緑Gの色フィルタのみが、画素に対向するように配され、かつ、赤Rと青Bの色フィルタが配される画素が、垂直方向の画素の1列に含まれないように配されたものである。   2C, in every other horizontal pixel row, red R and green G color filters are arranged so as to alternately face the pixels, and blue B And green G color filters are arranged alternately so as to be opposed to the pixels in every other row, and in every other horizontal row of pixels, the color of green G Only the filters are arranged so as to face the pixels, and the pixels where the red R and blue B color filters are arranged are arranged so as not to be included in one column of pixels in the vertical direction.

以上は、いわゆる単板の固体撮像素子の構成の場合の例であるが、図2(D)および図2(E)に示すように、赤R、緑G、青Bのそれぞれの色光毎に、1個の固体撮像素子、すなわち、赤色光用固体撮像素子Ir,緑色光用固体撮像素子Ig,青色光用固体撮像素子Ibが設けられる3板の構成とするようにすることもできる。図2(D)は、図2(A)の場合と同様に、矩形の画素が水平方向および垂直方向に多数個配列される固体撮像素子が用いられる場合であり、また、図2(E)は、図2(B),(C)の場合と同様に、ひし形の画素が水平方向および垂直方向に多数個配列される固体撮像素子が用いられる場合である。   The above is an example in the case of the configuration of a so-called single-plate solid-state imaging device. For each color light of red R, green G, and blue B, as shown in FIGS. One solid-state imaging device, that is, a solid-state imaging device Ir for red light, a solid-state imaging device Ig for green light, and a solid-state imaging device Ib for blue light may be provided as a three-plate configuration. FIG. 2D shows a case where a solid-state imaging device in which a large number of rectangular pixels are arranged in the horizontal direction and the vertical direction is used, as in FIG. 2A. Also, FIG. Is a case where a solid-state imaging device in which a large number of rhombus pixels are arranged in the horizontal direction and the vertical direction is used, as in the case of FIGS. 2B and 2C.

ここで、赤Rの色フィルタが対向された画素は、赤色光用の画素であり、青Bの色フィルタが対向された画素は、青色光用の画素であり、緑Gの色フィルタが対向された画素は、緑色光用の画素である。図2において、R,G,Bは、各色フィルタのみではなく、各色光用の画素をも示しているものとする。   Here, the pixel facing the red R color filter is a pixel for red light, the pixel facing the blue B color filter is a pixel for blue light, and the green G color filter is facing. These pixels are green light pixels. In FIG. 2, R, G, and B indicate not only each color filter but also each color light pixel.

なお、この例のようなカラー撮像素子ではなく、白黒用撮像素子の場合には、白黒光用の画素には色フィルタは対向して設けられないのは言うまでもない。また、図2(D)や図2(E)のような3板のイメージセンサの場合には、各色光用の固体撮像素子Ir,Ig,Ibのそれぞれの撮像面の全ての画素に対して、1色の色フィルタが対向して設けられることになる。いずれも、この発明の対象となるものである。   Needless to say, in the case of a monochrome imaging element instead of the color imaging element as in this example, the color filter is not provided opposite to the monochrome light pixel. In the case of a three-plate image sensor as shown in FIGS. 2D and 2E, for all pixels on the imaging surfaces of the solid-state imaging devices Ir, Ig, and Ib for each color light. One color filter is provided oppositely. Both are objects of the present invention.

この例のCMOSイメージセンサ2としては、図2(A)〜(E)のいずれの構成とすることも可能であるが、以下に説明するこの実施形態では、説明の簡単のため、図2(A)のベイヤー配列の場合とする。   The CMOS image sensor 2 of this example can have any of the configurations shown in FIGS. 2A to 2E. However, in this embodiment described below, for simplicity of explanation, FIG. In the case of the Bayer array of A).

そして、この実施形態では、CMOSイメージセンサ2からの出力は、例えば1チャンネルとされる。このCMOSイメージセンサからの1チャンネル読み出しの方法は、図3に示すような形で行われるものとする。つまり、図3に示すように、CMOSイメージセンサの多数の画素Psについて、その1行ずつ、左から順に一つのチャンネルで撮像画素データを順次に読み出し、1画面に渡って横方向に走査していき、1水平ライン分の全てを読み終えたところで次の行に移り、同様に横方向に走査しながら1画面全部を読み出していく。   In this embodiment, the output from the CMOS image sensor 2 is, for example, one channel. It is assumed that this one-channel reading method from the CMOS image sensor is performed as shown in FIG. That is, as shown in FIG. 3, for a large number of pixels Ps of the CMOS image sensor, the imaged pixel data is sequentially read out by one channel from the left, one row at a time, and scanned horizontally across one screen. When all the horizontal lines have been read, the process proceeds to the next line, and the entire screen is read while scanning in the horizontal direction.

したがって、この例の場合、CMOSイメージセンサ2からの出力画素シーケンスは、画素配列を横方向に走査した順番そのものとなる。   Therefore, in this example, the output pixel sequence from the CMOS image sensor 2 is the order in which the pixel array is scanned in the horizontal direction.

一般に、CMOSイメージセンサは、上述した1チャンネル読み出しだけでなく、多チャンネルの並列読み出しにも適しているが、この発明は、こういった読出し方式に本質的に左右されるものではない。そして、この実施形態においては、説明の都合上、読み出しについては図3に示したような読み出しシーケンスの場合の例について説明するが、もちろん、この発明の適用は、この読み出し形式に限ったものではなく、以下に説明する実施形態を、適宜、他の読み出し形式に適用することができる。   In general, the CMOS image sensor is suitable not only for the above-described 1-channel reading but also for multi-channel parallel reading, but the present invention is not essentially dependent on such a reading system. In this embodiment, for the sake of explanation, an example of the reading sequence as shown in FIG. 3 will be described for reading. Of course, the application of the present invention is not limited to this reading format. Instead, the embodiments described below can be applied to other readout formats as appropriate.

この実施形態のCMOSイメージセンサ2は、前述した画素共有技術が適用された画素構造となっている。図4(A)、図4(B)および図4(C)として、ベイヤー配列の場合における共有画素の配列パターンの3つの例を示す。   The CMOS image sensor 2 of this embodiment has a pixel structure to which the pixel sharing technique described above is applied. FIG. 4A, FIG. 4B, and FIG. 4C show three examples of shared pixel array patterns in the case of a Bayer array.

図4(A)、図4(B)および図4(C)のそれぞれにおいて、上段は、CMOSイメージセンサ2における共有画素の配列パターンを示しており、図上、太線で結んだ複数個の画素が共有画素である。   In each of FIG. 4A, FIG. 4B, and FIG. 4C, the upper stage shows an array pattern of shared pixels in the CMOS image sensor 2, and a plurality of pixels connected by thick lines in the figure. Is a shared pixel.

図4(A)、図4(B)および図4(C)のそれぞれにおいて、中段は、共有画素の画素配列パターン内における各画素位置毎の識別子(共有画素ID(Identification)と称することとする)を示している。   In each of FIGS. 4A, 4B, and 4C, the middle stage is referred to as an identifier (shared pixel ID (Identification)) for each pixel position in the pixel arrangement pattern of the shared pixels. ).

また、図4(A)、図4(B)および図4(C)のそれぞれにおいて、下段は、CMOSイメージセンサ2からの出力画素シーケンスを共有画素IDで表したものである。この下段の共有画素IDの出力シーケンスは、共有画素の配列パターンにのみ着目した場合であり、各画素に対応する色フィルタの違いについては、ここでは考慮していない。なお、当該下段の記載において、1H,2H,3H、・・・におけるHは、水平方向の行、つまり水平ラインを表している。   In each of FIGS. 4A, 4B, and 4C, the lower stage represents the output pixel sequence from the CMOS image sensor 2 by the shared pixel ID. This output sequence of the shared pixel ID in the lower stage is a case where attention is paid only to the arrangement pattern of the shared pixels, and the difference in the color filter corresponding to each pixel is not considered here. In the lower description, H in 1H, 2H, 3H,... Represents a horizontal row, that is, a horizontal line.

図4(A)の例は、垂直方向の2個の画素が共有画素とされる場合である。すなわち、この例においては、互いに隣接する2水平ラインの上下の2画素が共有画素となる。そして、共有画素関係を構成する隣接する2水平ラインのうちの第1の水平ライン(1H目、3H目、5H目、・・・)では、赤色光用の画素Rと、緑色光用の画素Gとが、交互に出現するものであり、また、共有画素関係を構成する隣接する2水平ラインのうちの第2の水平ライン(2H目、4H目、6H目、・・・)では、青色光用の画素Bと、緑色光用の画素Gとが、交互に出現するものである。この例では、各色光をも考慮して共有画素IDを定める。   The example of FIG. 4A is a case where two pixels in the vertical direction are shared pixels. That is, in this example, two pixels above and below two horizontal lines adjacent to each other are shared pixels. In the first horizontal line (1H, 3H, 5H,...) Of the two adjacent horizontal lines forming the shared pixel relationship, the red light pixel R and the green light pixel. G appear alternately, and in the second horizontal line (2H, 4H, 6H,...) Of the two adjacent horizontal lines constituting the shared pixel relationship, blue The light pixels B and the green light pixels G appear alternately. In this example, the shared pixel ID is determined in consideration of each color light.

したがって、共有画素IDは、図4(A)の中段に示すように、第1の水平ライン(1H目、3H目、5H目、・・・)では、赤色光用の画素Rに、ID「0」を割り当て、緑色光用の画素Gに、ID「1」を割り当てて、「0」と「1」とが交互に出現するものとなる。   Therefore, as shown in the middle part of FIG. 4A, the shared pixel ID is assigned to the red light pixel R on the first horizontal line (1H, 3H, 5H,...) “0” is assigned, ID “1” is assigned to the green light pixel G, and “0” and “1” appear alternately.

また、第2の水平ライン(2H目、4H目、6H目、・・・)では、緑色光用の画素Gに、ID「2」を割り当て、青色光用の画素Bに、ID「3」を割り当てて、「2」と「3」とが交互に出現するものとなる。   In the second horizontal line (2H, 4H, 6H,...), ID “2” is assigned to the green light pixel G, and ID “3” is assigned to the blue light pixel B. And “2” and “3” appear alternately.

したがって、共有画素IDで表わされる画素出力シーケンスは、図4(A)の下段に示すように、1H目、3H目、5H目、・・・の奇数水平ラインでは、「0」と「1」とが交互に出現し、2H目、4H目、6H目、・・・の偶数水平ラインでは、「2」と「3」とが交互に出現するものとなる。   Therefore, the pixel output sequence represented by the shared pixel ID is “0” and “1” in the odd horizontal lines of the 1H, 3H, 5H,... As shown in the lower part of FIG. Appear alternately, and “2” and “3” appear alternately on the 2H, 4H, 6H,... Even-numbered horizontal lines.

図4(B)の例は、図4(A)の例と同様に、垂直方向の2個の画素が共有画素とされる場合であるが、この例の場合には、水平方向の1画素毎に、共有画素を構成する画素が、垂直方向に1画素分ずれた画素位置のものとされている。この例においても、各色光をも考慮して共有画素IDを定めるには、図4(A)の例の場合と同様の4種のID「0」、「1」、「2」、「3」を割り当てることになる。   The example in FIG. 4B is a case where two pixels in the vertical direction are shared pixels, as in the example in FIG. 4A. In this example, one pixel in the horizontal direction is used. Each time, the pixels constituting the shared pixel are at pixel positions shifted by one pixel in the vertical direction. Also in this example, in order to determine the shared pixel ID in consideration of each color light, the same four types of IDs “0”, “1”, “2”, “3” as in the example of FIG. Will be assigned.

したがって、共有画素IDは、図4(B)の中段に示すように、図4(A)の例の場合と全く同様に各色光用画素に割り当てられ、共有画素IDで表わされる画素シーケンスも、図4(B)の下段に示すように、図4(A)の場合と全く同様とされる。   Therefore, as shown in the middle part of FIG. 4B, the shared pixel ID is assigned to each color light pixel in the same manner as in the example of FIG. 4A, and the pixel sequence represented by the shared pixel ID is As shown in the lower part of FIG. 4B, it is exactly the same as the case of FIG.

図4(C)の例は、垂直方向の4個のジグザグの配置位置の画素が、共有画素とされる場合である。すなわち、共有画素を構成する4個の画素は、4水平ラインに跨ったものとなる。   The example of FIG. 4C is a case where the pixels at the four zigzag arrangement positions in the vertical direction are shared pixels. In other words, the four pixels constituting the shared pixel extend over four horizontal lines.

そして、共有画素IDは、図4(C)の中段に示すように、この例の場合には、同じ赤色光用の画素Rであっても、共有画素として、異なる2水平ライン(4水平ラインの第1水平ラインと第3水平ライン)位置の2個が含まれるので、これら2個の赤色光用の画素Rに対して、ID「0」とID「4」の2個が割り当てられ、また、同様に、同じ赤色光用の画素Rであっても、共有画素として、異なる2水平ライン(4水平ラインの第2水平ラインと第4水平ライン)位置の2個が含まれるので、これら2個の青色光用の画素Bに対して、ID「3」とID「7」の2個が割り当てられる。   As shown in the middle part of FIG. 4C, the shared pixel ID is different from the two horizontal lines (four horizontal lines) as the shared pixel, even in the case of the same red light pixel R. Of the first horizontal line and the third horizontal line), two IDs “0” and ID “4” are assigned to these two red light pixels R, Similarly, even in the same red light pixel R, the shared pixels include two different horizontal line positions (second horizontal line and fourth horizontal line of the four horizontal lines). Two IDs “3” and “7” are assigned to the two pixels B for blue light.

そして、同じ緑色光用の画素Gは、共有画素を構成する4水平ラインのすべてに跨った位置の4個が含まれるので、これら4個の緑色光用の画素Gに対して、ID「1」とID「2」とID「5」とID「7」との4個が割り当てられる。   Since the same green light pixel G includes four pixels located at positions across all four horizontal lines constituting the shared pixel, the ID “1” is assigned to these four green light pixels G. ”, ID“ 2 ”, ID“ 5 ”, and ID“ 7 ”.

したがって、共有画素IDで表される画素出力シーケンスは、図4(C)の下段に示すように、共有画素を構成する4水平ラインの第1水平ラインでは、ID「0」とID「1」とが交互に出現し、前記4水平ラインの第2水平ラインでは、ID「2」とID「3」とが交互に出現し、前記4水平ラインの第3水平ラインでは、ID「4」とID「5」とが交互に出現し、前記4水平ラインの第4水平ラインでは、ID「6」とID「7」とが交互に出現するものとなり、かつ、これが4水平ライン毎に、繰り返しが出現するものとなる。   Therefore, as shown in the lower part of FIG. 4C, the pixel output sequence represented by the shared pixel ID is ID “0” and ID “1” in the first horizontal line of the four horizontal lines constituting the shared pixel. Appear alternately, ID “2” and ID “3” appear alternately on the second horizontal line of the four horizontal lines, and ID “4” appear on the third horizontal line of the four horizontal lines. ID “5” appears alternately, and in the fourth horizontal line of the four horizontal lines, ID “6” and ID “7” appear alternately, and this is repeated every four horizontal lines. Will appear.

この実施形態のCMOSイメージセンサ2における共有画素配列パターンとしては、図4(A),(B),(C)のいずれであってもよく、この実施形態では、CMOSイメージセンサ2は、例えば図4(A)の共有画素配列パターンの共有画素を備える構成とされる。   The shared pixel array pattern in the CMOS image sensor 2 of this embodiment may be any of FIGS. 4A, 4B, and 4C. In this embodiment, the CMOS image sensor 2 is, for example, a diagram. 4 (A) is provided with shared pixels of the shared pixel array pattern.

そして、光学系1に入射した光は、上述したような構成のCMOSイメージセンサ2において、光電変換された後に、電気信号として、すなわち、撮像画素データとして出力される。CMOSイメージセンサ2は、カメラ制御マイコン5からの制御信号により、読み出し開始/停止制御および読み出し位置制御などを行う。   The light incident on the optical system 1 is photoelectrically converted in the CMOS image sensor 2 having the above-described configuration, and then output as an electrical signal, that is, as image pickup pixel data. The CMOS image sensor 2 performs read start / stop control, read position control, and the like according to a control signal from the camera control microcomputer 5.

このCMOSイメージセンサ2からの、この例においては、1チャンネルの出力撮像画素データは、アナログ信号処理部3に供給されて、サンプルホールド、自動利得制御などの処理がなされた後、A/D(アナログ−デジタル)変換されて、デジタル信号処理部4に入力される。   In this example, the output imaging pixel data of one channel from the CMOS image sensor 2 is supplied to the analog signal processing unit 3 and subjected to processing such as sample hold and automatic gain control, and then A / D ( (Analog-digital) conversion and input to the digital signal processing unit 4.

なお、この例では、CMOSイメージセンサ2からのアナログ出力信号を、アナログ信号処理部3にて、サンプルホールド、自動利得制御、A/D変換する構成として説明したが、CMOSイメージセンサ2の内部にアナログ信号処理部3の構成を取り込んだ構成とするようにしてもよい。   In this example, the analog output signal from the CMOS image sensor 2 has been described as being configured to sample and hold, automatic gain control, and A / D conversion in the analog signal processing unit 3. The configuration of the analog signal processing unit 3 may be taken in.

デジタル信号処理部4は、アナログ信号処理部3から供給されてきた撮像画素信号RAW(生データ)をデジタル撮像画素データに変換すると共に、その変換後のデジタル撮像画素データに対して、カメラ制御マイコン5の指示に従って、様々な信号処理を行う。このデジタル信号処理部4で行われる各種信号処理には、ホワイトバランス処理やガンマ処理、色差信号処理などのいわゆるカメラ信号処理や、カメラ制御用の検波データ(画面内の撮像画像情報を示すデータ、例えば明るさやコントラスト、色合い等)の計算処理を含む。   The digital signal processing unit 4 converts the imaging pixel signal RAW (raw data) supplied from the analog signal processing unit 3 into digital imaging pixel data, and performs a camera control microcomputer on the converted digital imaging pixel data. Various signal processing is performed in accordance with the instructions in 5. Various signal processing performed in the digital signal processing unit 4 includes so-called camera signal processing such as white balance processing, gamma processing, and color difference signal processing, and detection data for camera control (data indicating captured image information in the screen, For example, brightness, contrast, hue, and the like) are included.

デジタル信号処理部4は、後述するように、基準タイミング信号発生器を備え、この基準タイミング信号発生器から各種タイミング信号を発生する。このタイミング信号には、撮像画像データについての水平同期信号HDおよび垂直同期信号VDを含み、デジタル信号処理部4は、これら水平同期信号HD、垂直同期信号VDおよびその他の必要なタイミング信号をCMOSイメージセンサ2に供給する。なお、図示は省略したが、デジタル信号処理部4の基準タイミング信号発生器からのタイミング信号は、カメラ制御マイコン5にも供給されている。   As will be described later, the digital signal processing unit 4 includes a reference timing signal generator, and generates various timing signals from the reference timing signal generator. The timing signal includes a horizontal synchronization signal HD and a vertical synchronization signal VD for the captured image data, and the digital signal processing unit 4 converts the horizontal synchronization signal HD, the vertical synchronization signal VD, and other necessary timing signals into a CMOS image. Supply to the sensor 2. Although not shown, the timing signal from the reference timing signal generator of the digital signal processing unit 4 is also supplied to the camera control microcomputer 5.

CMOSイメージセンサ2は、前述した図3の読み出し形式により各画素から撮像画素データを読み出すようにするが、そのための読み出し部および読み出しタイミング信号発生器を備えている。そして、CMOSイメージセンサ2の読み出しタイミング発生器は、デジタル信号処理部4から受けた前記水平同期信号HDおよび垂直同期信号VDに同期する読み出しタイミング信号を生成して、CMOSイメージセンサ2からの撮像画素データの読み出しを、カメラ制御マイコン5からの制御信号に基づいて行う。   The CMOS image sensor 2 reads the imaged pixel data from each pixel in the above-described readout format of FIG. 3, and includes a readout unit and a readout timing signal generator for that purpose. Then, the readout timing generator of the CMOS image sensor 2 generates a readout timing signal synchronized with the horizontal synchronization signal HD and the vertical synchronization signal VD received from the digital signal processing unit 4, and captures the image pickup pixels from the CMOS image sensor 2. Data is read based on a control signal from the camera control microcomputer 5.

そして、この実施形態では、デジタル信号処理部4は、さらに、共有画素の不均一性を補正するための構成としての、共有画素別シェーディング補正処理部を備えるが、この共有画素別シェーディング補正処理部の詳細については、後で詳述する。   In this embodiment, the digital signal processing unit 4 further includes a shading correction processing unit for each shared pixel as a configuration for correcting the non-uniformity of the shared pixel. The details of will be described later.

カメラ制御マイコン5は、デジタル信号処理部4から送られてきた検波データや手ぶれセンサ6から送られてくる撮像装置10の手ぶれ情報により、現在の撮像画像の状態を把握し、ヒューマンインターフェースマイコン8を経由して送られてくる各種設定モードに応じた制御を行う。すなわち、カメラ制御マイコン5は、読み出し領域指定データをCMOSイメージセンサ2に、撮像画像制御用データをデジタル信号処理部4に、レンズ制御データをレンズ駆動用ドライバ部7に、自動利得制御用のゲイン制御データをアナログ信号処理部3に、それぞれ供給する。   The camera control microcomputer 5 grasps the current state of the captured image based on the detection data sent from the digital signal processing unit 4 and the camera shake information of the imaging device 10 sent from the camera shake sensor 6, and the human interface microcomputer 8 Control is performed according to various setting modes sent via. That is, the camera control microcomputer 5 sets the read area designation data to the CMOS image sensor 2, the captured image control data to the digital signal processing unit 4, the lens control data to the lens driving driver unit 7, and the gain for automatic gain control. Control data is supplied to the analog signal processing unit 3, respectively.

CMOSイメージセンサ2は、CMOSイメージセンサ2の撮像面の撮像領域のうちの、読み出し領域指定データにより指定される任意の領域の信号を、読み出しタイミング信号によって順次読み出し、アナログ信号処理部3に出力する。   The CMOS image sensor 2 sequentially reads out signals of arbitrary areas designated by the read area designation data in the imaging area of the imaging surface of the CMOS image sensor 2, and outputs the signals to the analog signal processing unit 3. .

また、デジタル信号処理部4、レンズ駆動用ドライバ部7、アナログ信号処理部3は、カメラ制御マイコン5から送られてきた制御値に応じた処理を行い、所望の信号処理・タイミング発生・レンズ駆動・ゲイン処理が実現される。   The digital signal processing unit 4, the lens driving driver unit 7, and the analog signal processing unit 3 perform processing according to the control value sent from the camera control microcomputer 5, and perform desired signal processing / timing generation / lens driving.・ Gain processing is realized.

ユーザーインターフェース9は、ユーザーの操作入力を受け付けるためのキー操作部と、撮像装置10のモードや、カメラ情報を報知するためのディスプレイを備える。ユーザーが行うメニュー操作等についてはユーザーインターフェース9を介してヒューマンインターフェースマイコン8で制御される。   The user interface 9 includes a key operation unit for accepting user operation input, and a display for notifying the mode of the imaging device 10 and camera information. Menu operations and the like performed by the user are controlled by the human interface microcomputer 8 via the user interface 9.

ヒューマンインターフェースマイコン8は、ユーザーが現在どのような撮影モードやズーム倍率を選択しているのか、あるいはどのような制御を望んでいるのか等を、ユーザーインターフェース9を通じたユーザー操作指示入力に基づいて検知し、カメラ制御マイコン5に対して、検知出力をユーザー指示情報として送る。   The human interface microcomputer 8 detects, based on a user operation instruction input through the user interface 9, what kind of shooting mode and zoom magnification the user is currently selecting and what kind of control is desired. Then, the detection output is sent to the camera control microcomputer 5 as user instruction information.

同時に、カメラ制御マイコン5は、得られたカメラ制御情報(被写体距離やF値、ズーム位置、シャッタースピード、倍率等)をヒューマンインターフェースマイコン8に送信し、ユーザーインターフェース9のディスプレイを介して、現在のカメラの情報を、ユーザーに知らせるようにしている。これらのブロックの詳細については、この発明と直接関係無いためここでは省略する。   At the same time, the camera control microcomputer 5 transmits the obtained camera control information (subject distance, F value, zoom position, shutter speed, magnification, etc.) to the human interface microcomputer 8 and the current interface via the display of the user interface 9. The camera information is notified to the user. Details of these blocks are omitted here because they are not directly related to the present invention.

[デジタル信号処理部4の詳細構成例の説明]
図5は、デジタル信号処理部4の詳細構成例を示すものである。この例においては、デジタル信号処理部4は、カメラ信号前処理部41と、共有画素別シェーディング補正処理部42と、カメラ信号主処理部43と、基準タイミング信号発生器44と、通信インターフェース45とを備える。
[Description of Detailed Configuration Example of Digital Signal Processing Unit 4]
FIG. 5 shows a detailed configuration example of the digital signal processing unit 4. In this example, the digital signal processing unit 4 includes a camera signal preprocessing unit 41, a shared pixel-specific shading correction processing unit 42, a camera signal main processing unit 43, a reference timing signal generator 44, and a communication interface 45. Is provided.

基準タイミング信号発生器44は、前述した水平同期信号HDおよび垂直同期信号VDを発生して、CMOSイメージセンサ2に供給すると共に、画素タイミングの基準となる基準タイミング信号TGをカメラ信号前処理部41および共有画素別シェーディング補正処理部42に供給する。基準タイミング信号発生器44は、また、各種タイミング信号を、カメラ信号主処理部43に供給する。さらに、図示は省略したが、基準タイミング信号発生器44は、各種タイミング信号を、カメラ制御マイコン5にも供給する。   The reference timing signal generator 44 generates the horizontal synchronization signal HD and the vertical synchronization signal VD described above, supplies them to the CMOS image sensor 2, and supplies the reference timing signal TG, which serves as a reference for pixel timing, to the camera signal preprocessing unit 41. And supplied to the shared pixel-specific shading correction processing unit 42. The reference timing signal generator 44 also supplies various timing signals to the camera signal main processing unit 43. Further, although not shown, the reference timing signal generator 44 also supplies various timing signals to the camera control microcomputer 5.

通信インターフェース45は、カメラ信号主処理部43から得られる各種検波値DETを、カメラ制御マイコン5に供給する。カメラ制御マイコン5は、前述したように、受け取った各種検波値DETに基づいて、例えば自動利得制御信号などの制御信号を生成して、それぞれ対応する処理部に供給するようにする。   The communication interface 45 supplies various detection values DET obtained from the camera signal main processing unit 43 to the camera control microcomputer 5. As described above, the camera control microcomputer 5 generates a control signal such as an automatic gain control signal based on the received various detection values DET and supplies the control signal to the corresponding processing unit.

また、通信インターフェース45は、カメラ制御マイコン5からのカメラ信号処理制御用パラメータPmを受け取り、必要な制御信号をカメラ信号前処理部41、共有画素別シェーディング補正処理部42およびカメラ信号主処理部43に供給する。これにより、カメラ信号前処理部41、共有画素別シェーディング補正処理部42およびカメラ信号主処理部43は、カメラ制御マイコン5によって処理動作が制御できる構成とされている。   The communication interface 45 receives the camera signal processing control parameter Pm from the camera control microcomputer 5 and sends necessary control signals to the camera signal preprocessing unit 41, the shared pixel-specific shading correction processing unit 42, and the camera signal main processing unit 43. To supply. As a result, the camera signal preprocessing unit 41, the shared pixel-specific shading correction processing unit 42, and the camera signal main processing unit 43 are configured such that the processing operation can be controlled by the camera control microcomputer 5.

カメラ信号前処理部41は、アナログ信号処理部3からの撮像画像信号RAWを受け、シェーディング補正処理の前段として行っておくべき処理群を実行するもので、例えばデジタルクランプ処理などが含まれる。このカメラ信号前処理部41で行う処理群は、この発明とは直接には関係が無いので、ここでは、その詳細な説明は省略する。   The camera signal preprocessing unit 41 receives the captured image signal RAW from the analog signal processing unit 3 and executes a processing group that should be performed as a preceding stage of the shading correction processing, and includes, for example, a digital clamp processing. Since the processing group performed by the camera signal preprocessing unit 41 is not directly related to the present invention, a detailed description thereof is omitted here.

カメラ信号前処理部41の出力は、共有画素別シェーディング補正処理部42に供給される。共有画素別シェーディング補正処理部42では、共有画素を構成する画素のそれぞれ毎(共有画素IDが同じ画素毎)に、シェーディング補正処理を実行する。   The output of the camera signal preprocessing unit 41 is supplied to the shading correction processing unit 42 for each shared pixel. The shared pixel-specific shading correction processing unit 42 executes a shading correction process for each pixel constituting the shared pixel (for each pixel having the same shared pixel ID).

この実施形態においては、図6に示すように、撮像面の全画素領域AFLのうちの有効画素領域VFLの画素からの撮像画素データのみを、共有画素別シェーディング補正処理部42での処理対象とする。このため、カメラ信号前処理部41および共有画素別シェーディング補正処理部42には、アナログ信号処理部3から送られてくる撮像画素データが、有効画素領域VFLのものであるかどうかを示す領域指示情報Sflが、カメラ制御マイコン5から通信インターフェース45を通じて送られてくる。   In this embodiment, as shown in FIG. 6, only the imaged pixel data from the pixels in the effective pixel region VFL out of all the pixel regions AFL on the imaging surface are processed by the shading correction processing unit 42 for each shared pixel. To do. For this reason, the camera signal preprocessing unit 41 and the shared pixel-specific shading correction processing unit 42 indicate an area instruction indicating whether or not the imaging pixel data sent from the analog signal processing unit 3 is in the effective pixel area VFL. Information Sfl is sent from the camera control microcomputer 5 through the communication interface 45.

そして、この実施形態では、共有画素別シェーディング補正処理部42には、前述の図4を用いて説明した共有画素IDに関する情報、すなわち、共有画素ID設定情報Sidが、カメラ制御マイコン5から通信インターフェース45を通じて送られてくる。さらに、共有画素別シェーディング補正処理部42には、基準タイミング信号発生器44から、基準タイミング信号TG(画素クロックを含む)および水平同期信号HD、垂直同期信号VDが送られてくる。   In this embodiment, information related to the shared pixel ID described with reference to FIG. 4, that is, shared pixel ID setting information Sid is transmitted from the camera control microcomputer 5 to the communication interface in the shading correction processing unit 42 for each shared pixel. Sent through 45. Further, a reference timing signal TG (including a pixel clock), a horizontal synchronization signal HD, and a vertical synchronization signal VD are sent from the reference timing signal generator 44 to the shading correction processing unit 42 for each shared pixel.

共有画素別シェーディング補正処理部42の詳細な構成およびその処理動作は、後で詳述するが、概略を説明すると次のようになる。   The detailed configuration and processing operation of the shading correction processing unit 42 for each shared pixel will be described in detail later. The outline is as follows.

すなわち、共有画素別シェーディング補正処理部42では、この実施形態では、予め、撮影レンズを含む光学系1により生じるシェーディング特性を求めて、当該シェーディング特性に応じて、CMOSイメージセンサ2の撮像面上の画素からの撮像画素データを、撮像面の中央部の画素の明るさに合わせるように補正する補正制御信号、つまり、明るさを補正するためのゲイン制御信号を、撮影レンズの光軸中心からの距離位置における画素に対する補正制御信号として記憶しておく。同一の色光用画素であっても、共有画素IDが異なれば、異なる補正制御信号となる。   That is, in this embodiment, the shading correction processing unit 42 for each shared pixel obtains a shading characteristic generated by the optical system 1 including the photographing lens in advance, and on the imaging surface of the CMOS image sensor 2 according to the shading characteristic. A correction control signal for correcting the imaging pixel data from the pixel so as to match the brightness of the pixel at the center of the imaging surface, that is, a gain control signal for correcting the brightness, from the optical axis center of the photographing lens. This is stored as a correction control signal for the pixel at the distance position. Even if the pixels for the same color light are used, different correction control signals are generated if the shared pixel ID is different.

この補正制御信号は、この実施形態では、共有画素ID毎、つまり、共有画素を構成する複数個の画素のそれぞれに対応して記憶しておく。   In this embodiment, this correction control signal is stored for each shared pixel ID, that is, corresponding to each of a plurality of pixels constituting the shared pixel.

そして、入力撮像画素データが共有画素を構成する複数個の画素のいずれであるかにより、記憶されている複数個の補正制御信号の中から、参照する補正制御信号を選択する。また、入力撮像画素データの画素位置を、撮影レンズの光軸中心からの距離位置に変換し、その変換した距離位置により、予め記憶されている補正制御信号を検索して、それぞれの撮像画素データについての補正制御信号を得るようにする。   Then, a correction control signal to be referred to is selected from among a plurality of stored correction control signals depending on which of the plurality of pixels constituting the shared pixel is the input imaging pixel data. Also, the pixel position of the input imaging pixel data is converted into a distance position from the optical axis center of the imaging lens, and a correction control signal stored in advance is searched by the converted distance position, and each imaging pixel data is searched. A correction control signal for is obtained.

このため、まず、共有画素別シェーディング補正処理部42では、基準タイミング信号発生部44からの準タイミング信号TG(画素クロックを含む)および水平同期信号HD、垂直同期信号VDに基づいて、カメラ信号前処理部41から入力される撮像画素データPdが、有効画素領域VFLのどの位置の画素のデータであるかの座標位置情報を算出する。   For this reason, first, in the shading correction processing unit 42 for each shared pixel, based on the quasi-timing signal TG (including the pixel clock), the horizontal synchronization signal HD, and the vertical synchronization signal VD from the reference timing signal generation unit 44, Coordinate position information is calculated as to which position in the effective pixel area VFL the imaged pixel data Pd input from the processing unit 41 is.

そして、その画素の座標位置情報を、画像に発生するシェーディング特性の形態に対応した座標(撮影レンズの光軸中心からの距離位置の座標)に変換する。   Then, the coordinate position information of the pixel is converted into coordinates corresponding to the form of shading characteristics generated in the image (coordinates of the distance position from the optical axis center of the photographing lens).

また、共有画素別シェーディング補正処理部42では、共有画素ID設定情報Sid(共有画素IDの情報)により、カメラ信号前処理部41から入力される撮像画素データPdが、共有画素を構成する複数の画素のいずれであるかを検出し、予め記憶している補正制御信号の中から、変換座標(撮影レンズの光軸中心からの距離位置の座標)と、共有画素IDとにより定まる補正制御信号を選択して得る。   Further, in the shading correction processing unit 42 for each shared pixel, a plurality of imaging pixel data Pd input from the camera signal pre-processing unit 41 is configured by the shared pixel ID setting information Sid (shared pixel ID information). A correction control signal determined by conversion coordinates (coordinates of a distance position from the center of the optical axis of the photographing lens) and a shared pixel ID is detected from correction control signals stored in advance. Choose to get.

そして、共有画素別シェーディング補正処理部42では、得た補正制御信号を用いて、カメラ信号前処理部41から入力される撮像画素データPxのゲインを補正することで、シェーディング補正を行う。補正結果の撮像画素データPxcは、カメラ信号主処理部43に供給される。   Then, the shading correction processing unit 42 for each shared pixel performs shading correction by correcting the gain of the imaging pixel data Px input from the camera signal preprocessing unit 41 using the obtained correction control signal. The corrected imaging pixel data Pxc is supplied to the camera signal main processing unit 43.

カメラ信号主処理部43では、カメラ制御マイコン5からの通信インターフェース45を通じた制御指示に応じて、ノイズリダクション/欠陥補正/デモザイク/ホワイトバランス/解像度変換といった公知の技術で構成される、各種カメラ信号処理を行い、出力データとしての輝度データYおよび色データCを、後段のビデオ系処理ブロック(図示は省略)へと供給する。このカメラ信号主処理部43の詳細内容については、この発明とは直接関係無いため、ここでは省略する。   In the camera signal main processing unit 43, various camera signals configured by known techniques such as noise reduction / defect correction / demosaic / white balance / resolution conversion in response to a control instruction from the camera control microcomputer 5 through the communication interface 45. Processing is performed, and luminance data Y and color data C as output data are supplied to a subsequent video system processing block (not shown). The detailed contents of the camera signal main processing unit 43 are not directly related to the present invention, and are omitted here.

[共有画素別シェーディング補正処理部42の詳細構成例]
図7は、共有画素別シェーディング補正処理部42の詳細構成例を示すブロック図である。この例の共有画素別シェーディング補正処理部42は、本線信号としてカメラ信号前処理部41から送られてくる撮像画素データPxに対して設けられる遅延調整部421と、共有画素別ゲイン補正部422と、タイミング生成部423と、補正制御信号算出部424と、通信インターフェース425とを備える。
[Detailed Configuration Example of Shading Correction Processing Unit 42 by Shared Pixel]
FIG. 7 is a block diagram illustrating a detailed configuration example of the shared pixel-specific shading correction processing unit 42. The shading correction processing unit 42 for each shared pixel in this example includes a delay adjustment unit 421 provided for the imaging pixel data Px sent from the camera signal preprocessing unit 41 as a main line signal, a gain correction unit 422 for each shared pixel, , A timing generation unit 423, a correction control signal calculation unit 424, and a communication interface 425.

補正制御信号算出部424は、撮影レンズの光軸中心からの距離位置と、当該距離位置におけるシェーディング特性の補正制御信号(ゲイン制御信号)とを対応付けた対応テーブル(ルックアップテーブル)をN個(Nは2以上の整数)備える。すなわち、図7に示すように、補正制御信号算出部424は、N個のルックアップテーブルLUT1〜LUTNを備える。   The correction control signal calculation unit 424 has N correspondence tables (look-up tables) in which distance positions from the optical axis center of the photographing lens are associated with correction control signals (gain control signals) for shading characteristics at the distance positions. (N is an integer of 2 or more). That is, as shown in FIG. 7, the correction control signal calculation unit 424 includes N look-up tables LUT1 to LUTN.

ここで、補正制御信号算出部424が備えるルックアップテーブルの数Nは、この例では、共有画素IDの数またはその整数倍に等しい。これは、この実施形態の撮像装置のCMOSイメージセンサ2で取り扱う色光の数(色チャンネル数)に必ずしも等しいわけではなく、同一の色光であって、共有画素IDが異なるM(Mは2以上の整数)個の画素が存在する場合には、それぞれについて設けられることを意味している。つまり、CMOSイメージセンサ2で取り扱う色光の数(色チャンネル数)に、共有画素IDがM個存在する各色チャンネルについての(M−1)を、それぞれ加えた数に相当する。   Here, the number N of lookup tables included in the correction control signal calculation unit 424 is equal to the number of shared pixel IDs or an integral multiple thereof in this example. This is not necessarily equal to the number of color lights (number of color channels) handled by the CMOS image sensor 2 of the image pickup apparatus of this embodiment, but is the same color light and has different shared pixel IDs M (M is 2 or more). If there are (integer) pixels, it means that each pixel is provided. That is, it corresponds to the number obtained by adding (M−1) for each color channel having M shared pixel IDs to the number of color lights (number of color channels) handled by the CMOS image sensor 2.

この例では、図4(A)の場合であり、図8(A)〜(D)に示すように、共有画素IDは、「0」、「1」、「2」、「3」の4個である。すなわち、赤の色光用画素Rおよび青の色光用画素Bについては、共有画素IDが1個設定されるのに対して、緑の色光用画素Gについては、2個の共有画素IDが設定されるので、合計で4個となる。したがって、補正制御信号算出部42は、この例では、少なくとも4個のルックアップテーブルを備える。   This example is the case of FIG. 4A, and as shown in FIGS. 8A to 8D, the shared pixel ID is 4 of “0”, “1”, “2”, “3”. It is a piece. That is, for the red color light pixel R and the blue color light pixel B, one shared pixel ID is set, while for the green color light pixel G, two shared pixel IDs are set. Therefore, the total is 4. Therefore, the correction control signal calculation unit 42 includes at least four lookup tables in this example.

ここで、図8では、補正対象となる画素をPx_Oとして、丸で囲んで示し、その周囲の各色光用画素との対応関係を示している。この図8に示すように、この実施形態では、CMOSイメージセンサ2で扱う複数種の色光は、3種の色光(R,G,B)であるが、緑の色光については、共有画素IDが2個設定されるので、4個のルックアップテーブルを、補正制御信号算出部424は備えるものとなっている。   Here, in FIG. 8, the pixel to be corrected is denoted by Px_O and circled, and the corresponding relationship with the surrounding pixels for each color light is shown. As shown in FIG. 8, in this embodiment, the plurality of types of color light handled by the CMOS image sensor 2 are three types of color light (R, G, B), but the green pixel light has a shared pixel ID. Since two are set, the correction control signal calculation unit 424 includes four lookup tables.

ここで、図8(B)に示すように、共有画素ID=「1」の緑色光用画素Gは、左右に赤色光用の画素Rが、上下に青色光用の画素Bが配列されているものであり、これを以下、緑色光用画素G1とする。また、図8(C)に示すように、共有画素ID=「2」の緑色光用画素Gは、左右に青色光用の画素Bが、上下に赤色光用の画素Rが配列されているものであり、これを以下、緑色光用画素G2とする。   Here, as shown in FIG. 8B, in the green light pixel G with the shared pixel ID = “1”, the red light pixel R is arranged on the left and right, and the blue light pixel B is arranged on the top and bottom. This is hereinafter referred to as a green light pixel G1. Further, as shown in FIG. 8C, in the green light pixel G with the shared pixel ID = “2”, the blue light pixel B is arranged on the left and right, and the red light pixel R is arranged on the top and bottom. This is hereinafter referred to as a green light pixel G2.

図4(A)の例のベイヤー配列における共有画素のパターンを備える撮像装置において、シェーディング特性を、これら4種の色光用画素R,G1,G2,Bについて測定したところ、ズームレンズの望遠側端では、図9に示すような特性となり、ズームレンズの広角側端では、図10に示すような特性となった。なお、図9および図10において、横軸は、撮影レンズの光軸中心位置からの距離であり、横軸の中央が撮影レンズの光軸中心位置である。   In the imaging device having the shared pixel pattern in the Bayer array in the example of FIG. 4A, the shading characteristics were measured for these four types of color light pixels R, G1, G2, and B. Then, the characteristics shown in FIG. 9 were obtained, and the characteristics shown in FIG. 10 were obtained at the wide-angle end of the zoom lens. 9 and 10, the horizontal axis is the distance from the optical axis center position of the photographing lens, and the center of the horizontal axis is the optical axis center position of the photographing lens.

これらの図9および図10からも、緑色光用画素G1と、G2とでは、シェーディング特性が異なることが分かる。そして、この図9および図10に示されるように、シェーディング特性は、望遠側端と広角側端とで異なるので、補正制御信号算出部424が備えるルックアップテーブルとしては、4種の色光用画素R,G1,G2,Bであって、ズームレンズの望遠端用の4個、ズームレンズの広角端用の4個、の合計8個とするのが好ましい。   9 and 10 also show that the shading characteristics are different between the green light pixels G1 and G2. As shown in FIGS. 9 and 10, since the shading characteristics are different between the telephoto side end and the wide angle side end, the lookup table included in the correction control signal calculation unit 424 includes four types of color light pixels. R, G1, G2, and B are preferably a total of eight, four for the telephoto end of the zoom lens and four for the wide-angle end of the zoom lens.

しかし、この実施形態では、補正制御信号算出部424が備えるルックアップテーブルLUT1〜LUTNとしては、説明の簡単のため、4種の色光用画素R,G1,G2,Bについての4個(N=4)としている。   However, in this embodiment, as the look-up tables LUT1 to LUTN included in the correction control signal calculation unit 424, four color light pixels R, G1, G2, and B (N = N = 4) for the sake of simplicity of explanation. 4).

補正制御信号算出部424には、後述するように、タイミング生成部423からのテーブル選択信号SELが供給され、このテーブル選択信号SELにより、N個のルックアップテーブルLUT1〜LUTNのいずれを用いるかが選択制御される。   As will be described later, the correction control signal calculation unit 424 is supplied with a table selection signal SEL from the timing generation unit 423, and which of the N look-up tables LUT1 to LUTN is used based on the table selection signal SEL. Selection controlled.

なお、ルックアップテーブルLUT1〜LUTNの格納データは、使用するCMOSイメージセンサ2に採用するカラーフィルタパターンや共有画素パターンに応じたものとする必要があるので、カメラ制御マイコン5の制御により、書き換え可能の構成とされている。   The stored data in the look-up tables LUT1 to LUTN must be in accordance with the color filter pattern and shared pixel pattern employed in the CMOS image sensor 2 to be used, and can be rewritten under the control of the camera control microcomputer 5. It is made up of.

また、上述の説明では、ズームレンズの望遠側端と広角側端とにおけるシェーディング特性を考慮するようにしたが、さらに、望遠側端と広角側端との間の中央値近傍の標準焦点距離位置におけるシェーディングを考慮してもよい。その場合には、ズームレンズの望遠端用の4個、ズームレンズの広角端用の4個、標準焦点距離位置用の4個、の合計12個のルックアップテーブルを補正制御信号算出部424に設けるようにする。   In the above description, the shading characteristics at the telephoto end and the wide-angle end of the zoom lens are taken into account. Further, the standard focal length position near the median value between the telephoto end and the wide-angle end is used. The shading in may be taken into account. In that case, a total of 12 look-up tables including four for the telephoto end of the zoom lens, four for the wide-angle end of the zoom lens, and four for the standard focal length position are stored in the correction control signal calculation unit 424. Try to provide it.

そして、撮像装置において、撮影時にユーザーに設定されたズームレンズの焦点距離位置が、望遠側端、広角側端、標準焦点距離位置の間の位置であるときには、望遠端用、広角端用、標準焦点距離位置用、の3種のルックアップテーブルを用いて補間処理して、補正制御信号を生成するようにしてもよい。例えば、撮影時にユーザーに設定されたズームレンズの焦点距離位置が、望遠側端と標準焦点距離位置との間であれば、当該設定された焦点距離位置と、望遠側端との距離および標準焦点距離との距離のそれぞれにより重み付けをして、望遠端用と標準焦点距離位置用の2種のルックアップテーブルを用いて補間処理するようにすればよい。なお、前述した望遠側端用と、広角側端との2種のルックアップテーブルを用いる、ルックアップテーブルが8個の場合も、ズーム位置が望遠側端と広角側端との間の焦点距離位置であるときも、同様の補間処理をして補正制御信号を生成するようにすることができる。   In the imaging device, when the focal length position of the zoom lens set by the user at the time of shooting is a position between the telephoto end, the wide angle end, and the standard focal length position, the telephoto end, the wide angle end, and the standard The correction control signal may be generated by performing interpolation processing using three types of lookup tables for the focal length position. For example, if the focal length position of the zoom lens set by the user at the time of shooting is between the telephoto end and the standard focal length position, the distance between the set focal length position and the telephoto end and the standard focus What is necessary is just to perform an interpolation process using two types of look-up tables for the telephoto end and the standard focal length position by weighting each distance. Note that the zoom position is the focal length between the telephoto end and the wide-angle end even when the two types of look-up tables for the telephoto end and the wide-angle end are used. Even when it is the position, the same interpolation process can be performed to generate the correction control signal.

なお、レンズのズーム位置だけでなく、フォーカス位置、像高、絞り量、射出瞳位置、ストロボ発光量等の要素もシェーディング特性に影響があるので、これらの条件を加味して、より多数のルックアップテーブルを補正制御信号算出部424に設けても良い。その場合には、カメラ制御マイコン5は、上記の複数の要素の状態条件に応じたテーブル選択信号SELを生成し、当該生成したテーブル選択信号SELを、タイミング生成部423を通じて、補正制御信号算出部424に供給するようにしてもよい。タイミング生成部423は、画素タイミングに合わせて、テーブル選択信号SELを、補正制御信号算出部424に供給するようにする。   In addition to the zoom position of the lens, factors such as focus position, image height, aperture amount, exit pupil position, and strobe light emission also have an effect on shading characteristics. An uptable may be provided in the correction control signal calculation unit 424. In that case, the camera control microcomputer 5 generates a table selection signal SEL corresponding to the state conditions of the plurality of elements, and generates the generated table selection signal SEL through the timing generation unit 423. 424 may be supplied. The timing generation unit 423 supplies the table selection signal SEL to the correction control signal calculation unit 424 in accordance with the pixel timing.

補正制御信号算出部424は、また、CMOSイメージセンサ2の撮像面上における画素の座標位置から、ルックアップテーブルを参照するための、撮影レンズの光軸中心位置からの距離位置に変換する処理部を備える。   The correction control signal calculation unit 424 also converts a pixel coordinate position on the imaging surface of the CMOS image sensor 2 into a distance position from the optical axis center position of the photographing lens for referring to the lookup table. Is provided.

遅延調整部421は、タイミング生成部423および補正制御信号算出部424における処理遅延分を、入力撮像画素データPxに対して与えて、後述する共有画素別ゲイン補正部41での補正処理におけるタイミングを合わせるためのものである。   The delay adjustment unit 421 gives the processing delays in the timing generation unit 423 and the correction control signal calculation unit 424 to the input imaging pixel data Px, and sets the timing in the correction processing in the shared pixel-specific gain correction unit 41 described later. It is for matching.

タイミング生成部423は、基準タイミング信号発生部44からの基準タイミング信号TG、水平同期信号HDおよび垂直同期信号VDを受けると共に、カメラ制御マイコン5からの領域指示情報Sflを通信インターフェース425を通じて受けて、図3に示した読み出し方法にしたがって読み出される各画素について、撮像面上の座標位置を示すカウンタ信号CNTを生成する。   The timing generation unit 423 receives the reference timing signal TG, the horizontal synchronization signal HD, and the vertical synchronization signal VD from the reference timing signal generation unit 44, and also receives the area instruction information Sfl from the camera control microcomputer 5 through the communication interface 425. For each pixel read according to the reading method shown in FIG. 3, a counter signal CNT indicating the coordinate position on the imaging surface is generated.

基準タイミング信号から画素クロックが得られるので、有効画素領域において、垂直同期信号VDを基準として、画素クロックと、水平同期信号HDとをカウントすることにより、カウンタ信号CNTを得る。このカウンタ信号CNTは、有効画素領域の1フレームの何番目の水平ラインの何番目の画素であるかを示す信号(カウント値)が含まれている。タイミング生成部423は、生成したカウンタ信号CNTを、補正制御信号算出部424に供給する。   Since the pixel clock is obtained from the reference timing signal, the counter signal CNT is obtained by counting the pixel clock and the horizontal synchronization signal HD with reference to the vertical synchronization signal VD in the effective pixel region. The counter signal CNT includes a signal (count value) indicating what number pixel of which number horizontal line of one frame of the effective pixel region. The timing generation unit 423 supplies the generated counter signal CNT to the correction control signal calculation unit 424.

また、タイミング生成部423は、この例では、カメラ制御マイコン5からの共有画素ID設定情報Sidを受けて、ルックアップテーブルのテーブル選択信号SELを生成し、補正制御信号算出部424に供給するようにする。なお、前述したように、ズーム位置等を考慮する場合には、タイミング生成部423は、それらの情報を、カメラ制御マイコン5から受けて、ルックアップテーブルのテーブル選択信号SELを生成するようにする。   Further, in this example, the timing generation unit 423 receives the shared pixel ID setting information Sid from the camera control microcomputer 5, generates a table selection signal SEL of a lookup table, and supplies the table selection signal SEL to the correction control signal calculation unit 424. To. As described above, when considering the zoom position or the like, the timing generation unit 423 receives the information from the camera control microcomputer 5 and generates the table selection signal SEL of the lookup table. .

補正制御信号算出部424では、複数個のルックアップテーブルLUT1〜LUTNのうちから、テーブル選択信号SELにより選択された、共有画素IDに応じたルックアップテーブルが選択されて、当該選択されたルックアップテーブルから、シェーディング補正用の補正制御信号が、画素毎に後述のようにして読み出されて算出される。   In the correction control signal calculation unit 424, a lookup table corresponding to the shared pixel ID selected by the table selection signal SEL is selected from the plurality of lookup tables LUT1 to LUTN, and the selected lookup is performed. From the table, a correction control signal for shading correction is read and calculated for each pixel as described later.

この補正制御信号は、前述したように、ゲイン制御信号GCであり、これが共有画素別ゲイン補正部422に供給される。そして、共有画素別ゲイン補正部422において、遅延調整部421を通じた撮像画素データPxに、補正制御信号、すなわち、ゲイン制御信号GCが乗算されて、シェーディング補正がなされる。   As described above, this correction control signal is the gain control signal GC, which is supplied to the shared pixel-specific gain correction unit 422. Then, in the shared pixel-specific gain correction unit 422, the imaging pixel data Px that has passed through the delay adjustment unit 421 is multiplied by a correction control signal, that is, a gain control signal GC, and shading correction is performed.

なお、この実施形態では、補正のオン・オフが制御可能とされている。カメラ制御マイコン5は、この例では、ユーザーインターフェース9を通じたユーザーのシェーディング補正のオン・オフ切り替え指示操作に応じた補正オン・オフ信号を通信インターフェース425を通じてタイミング生成部423に供給する。   In this embodiment, the on / off of the correction can be controlled. In this example, the camera control microcomputer 5 supplies a correction on / off signal corresponding to the user's shading correction on / off switching instruction operation through the user interface 9 to the timing generation unit 423 through the communication interface 425.

タイミング生成部423は、この通信インターフェース425を通じたカメラ制御マイコン5からの補正オン・オフ信号SWを受けて、共有画素別ゲイン補正部422に供給する。共有画素別ゲイン補正部422では、補正オン・オフ信号SWが補正オンを示すものであるときには、補正制御信号算出部424からの補正制御信号としてのゲイン制御信号GCによりゲイン補正してシェーディング特性の補正を実行し、その補正後の撮像画素データPxcを、共有画素別シェーディング補正処理部42の出力信号として出力する。   The timing generation unit 423 receives the correction on / off signal SW from the camera control microcomputer 5 through the communication interface 425 and supplies the correction on / off signal SW to the shared pixel-specific gain correction unit 422. In the shared pixel-specific gain correction unit 422, when the correction on / off signal SW indicates correction on, the gain is corrected by the gain control signal GC as the correction control signal from the correction control signal calculation unit 424, and the shading characteristics are changed. Correction is executed, and the corrected imaged pixel data Pxc is output as an output signal of the shading correction processing unit 42 for each shared pixel.

また、補正オン・オフ信号SWが補正オフを示すものであるときには、共有画素別ゲイン補正部422では、撮像画素データについてのゲイン補正は行わず、遅延調整部421からの撮像画素データをそのまま、撮像画素データPxcとして出力する。   When the correction on / off signal SW indicates correction off, the shared pixel-specific gain correction unit 422 does not perform gain correction on the imaging pixel data, and uses the imaging pixel data from the delay adjustment unit 421 as it is. Output as imaging pixel data Pxc.

[補正制御信号算出部424の詳細構成例]
この実施形態の補正制御信号算出部424では、撮影レンズに起因して楕円状に周辺光量が低下する楕円シェーディング特性を補正するようにする。図11に、この実施形態における補正制御信号算出部424の構成例のブロック図を示す。
[Detailed Configuration Example of Correction Control Signal Calculation Unit 424]
In this embodiment, the correction control signal calculation unit 424 corrects an elliptical shading characteristic in which the peripheral light amount is reduced in an elliptical shape due to the photographing lens. FIG. 11 shows a block diagram of a configuration example of the correction control signal calculation unit 424 in this embodiment.

この図11に示すように、この実施形態の補正制御信号算出部424は、光軸中心座標シフト部4241と、座標軸回転部4242と、疑似距離計算部4243と、ゲイン算出部4244とを備えている。   As shown in FIG. 11, the correction control signal calculation unit 424 of this embodiment includes an optical axis center coordinate shift unit 4241, a coordinate axis rotation unit 4242, a pseudo distance calculation unit 4243, and a gain calculation unit 4244. Yes.

光軸中心座標シフト部4241は、タイミング信号生成部4からのカウンタ信号CNTを受けて、このカウンタ信号CNTが示す、撮像面の有効領域の左上隅を原点位置とする補正対象画素の座標位置情報(図12(A)参照)から、撮影レンズの光軸中心を原点とする座標情報(図12(B)参照)に変換する。この光軸中心座標シフト部4241からの、撮影レンズの光軸中心を原点とする座標情報に変換された補正対象画素の位置情報は、座標軸回転部4242に供給される。   The optical axis center coordinate shift unit 4241 receives the counter signal CNT from the timing signal generation unit 4, and indicates the coordinate position information of the correction target pixel with the upper left corner of the effective area of the imaging surface indicated by the counter signal CNT as the origin position. (See FIG. 12A) is converted into coordinate information (see FIG. 12B) with the optical axis center of the photographic lens as the origin. The position information of the correction target pixel converted from the optical axis center coordinate shift unit 4241 into the coordinate information with the optical axis center of the photographing lens as the origin is supplied to the coordinate axis rotation unit 4242.

座標軸回転部4242は、補正対象の楕円シェーディング特性の楕円の傾きに応じて、楕円の長軸方向、短軸方向が、水平方向、垂直方向に一致するように座標軸を回転させる処理を行う(図12(C)参照)。この座標軸回転部4242からの座標軸を回転させた補正対象画素の位置情報は、疑似距離計算部4243に供給される。   The coordinate axis rotation unit 4242 performs a process of rotating the coordinate axes so that the major axis direction and the minor axis direction of the ellipse coincide with the horizontal direction and the vertical direction according to the ellipse inclination of the ellipse shading characteristic to be corrected (see FIG. 12 (C)). The positional information of the correction target pixel obtained by rotating the coordinate axis from the coordinate axis rotation unit 4242 is supplied to the pseudo distance calculation unit 4243.

疑似距離計算部4243は、補正対象の楕円シェーディング特性の楕円の傾き(図12(D)参照)に応じた補正対象画素についての、ルックアップテーブルを参照する光軸からの距離座標情報(これを、以下、疑似距離情報という)を計算して、ゲイン算出処理部4244に供給する。   The pseudo distance calculation unit 4243 calculates distance coordinate information from the optical axis referring to the look-up table for the correction target pixel corresponding to the inclination of the ellipse of the ellipse shading characteristic to be corrected (see FIG. 12D). , Hereinafter referred to as pseudo distance information), and supplies it to the gain calculation processing unit 4244.

ゲイン算出処理部4244は、前述したN個、この例では、共有画素IDを考慮した4種の色光用画素R,G1,G2,Bについての4個のルックアップテーブルLUT1〜LUT4を備えている。以下、この4種の色光用画素R,G1,G2,Bのルックアップテーブルは、それぞれ、Rテーブル、G1テーブル、G2テーブル、Bテーブルと呼ぶことにする。   The gain calculation processing unit 4244 is provided with four look-up tables LUT1 to LUT4 for the N kinds of color light pixels R, G1, G2, and B in consideration of the shared pixel ID in the example described above. . Hereinafter, the lookup tables for the four types of color light pixels R, G1, G2, and B will be referred to as an R table, a G1 table, a G2 table, and a B table, respectively.

これらRテーブル、G1テーブル、G2テーブル、Bテーブルのシェーディング補正用のテーブル情報は、前述したように、カメラ制御マイコン5からのテーブル設定情報により、予め書き込まれており、また、この例では、適宜、書き換えることができるように構成されている。   The table information for shading correction of the R table, G1 table, G2 table, and B table is written in advance by the table setting information from the camera control microcomputer 5 as described above. It is configured so that it can be rewritten.

そして、このゲイン算出処理部4244には、タイミング生成部423からのテーブル選択信号SELが供給される。このテーブル選択信号SELは、この例では、Rテーブル、G1テーブル、G2テーブル、Bテーブルのそれぞれ用の4個のイネーブル信号R_TBLEN、G1_TBLEN、G2_TBLEN、B_TBLENからなる。   The gain calculation processing unit 4244 is supplied with the table selection signal SEL from the timing generation unit 423. In this example, the table selection signal SEL includes four enable signals R_TBLEN, G1_TBLEN, G2_TBLEN, and B_TBLEN for the R table, G1 table, G2 table, and B table, respectively.

そして、前述したように、この実施形態では、図4(A)の場合を取り扱っているので、ゲイン算出処理部4244では、図13に示すように、奇数番目の水平ラインにおいては、RテーブルとG1テーブルとが用いられて、補正制御信号が算出され、また、偶数番目の水平ラインにおいては、G2テーブルとBテーブルとが用いられて、補正制御信号が算出される。   As described above, in this embodiment, the case of FIG. 4A is handled. Therefore, in the gain calculation processing unit 4244, as shown in FIG. The correction control signal is calculated using the G1 table, and the correction control signal is calculated using the G2 table and the B table for even-numbered horizontal lines.

そして、図14(A)に示すように、奇数番目の水平ラインにおいては、画素クロックに同期して、補正対象画素は、赤色光用画素Rと、第1の緑色光用画素G1とが、1画素(ピクセル)毎に交互に現れるので、その共有画素IDに対応して、テーブル選択信号SEL、すなわち、Rテーブル、G1テーブル、G2テーブル、Bテーブルのそれぞれ用の4個のイネーブル信号R_TBLEN、G1_TBLEN、G2_TBLEN、B_TBLENは、図14(B)に示すようなものとなる。   Then, as shown in FIG. 14A, in the odd-numbered horizontal lines, the correction target pixel includes the red light pixel R and the first green light pixel G1 in synchronization with the pixel clock. Since each pixel (pixel) appears alternately, the table selection signal SEL, that is, four enable signals R_TBLEN for each of the R table, G1 table, G2 table, and B table, corresponding to the shared pixel ID, G1_TBLEN, G2_TBLEN, and B_TBLEN are as shown in FIG.

ここで、図14では、イネーブル信号がハイレベルのときルックアップテーブルがイネーブル状態(動作状態)とされ、イネーブル信号がローレベルのときルックアップテーブルがディスエーブル状態(非動作状態)とされる。   Here, in FIG. 14, when the enable signal is at a high level, the look-up table is enabled (operating state), and when the enable signal is at a low level, the look-up table is disabled (non-operating state).

すなわち、奇数番目の水平ラインにおいては、Rテーブル用のイネーブル信号R_TBLENは、奇数番目の画素のときに、Rテーブルをイネーブル状態(動作状態)とする状態となり、G1テーブル用のイネーブル信号G1_TBLENは、偶数番目の画素のときに、G1テーブルをイネーブル状態(動作状態)とする状態となる。そして、G2テーブルおよびBテーブルのイネーブル信号G2_TBLENおよびB_TBLENは、共に、G2テーブルおよびBテーブルをディスエーブル状態(非動作状態)とするものとなる。   That is, in the odd-numbered horizontal line, the R table enable signal R_TBLEN is in an enabled state (operating state) for the odd-numbered pixels, and the G1 table enable signal G1_TBLEN is For even-numbered pixels, the G1 table is in an enabled state (operating state). The G2 table and B table enable signals G2_TBLEN and B_TBLEN both turn the G2 table and B table into a disabled state (non-operating state).

次に、図14(C)に示すように、偶数番目の水平ラインにおいては、画素クロックに同期して、補正対象画素は、第2の緑色光用画素G2と、青色光用画素Bとが、1画素毎に交互に現れるので、その共有画素IDに対応して、テーブル選択信号SEL、すなわち、Rテーブル、G1テーブル、G2テーブル、Bテーブルのそれぞれ用の4個のイネーブル信号R_TBLEN、G1_TBLEN、G2_TBLEN、B_TBLENは、図14(D)に示すようなものとなる。   Next, as shown in FIG. 14C, in the even-numbered horizontal line, the correction target pixel includes the second green light pixel G2 and the blue light pixel B in synchronization with the pixel clock. Since each pixel appears alternately, corresponding to the shared pixel ID, a table selection signal SEL, that is, four enable signals R_TBLEN, G1_TBLEN for each of the R table, G1 table, G2 table, and B table, G2_TBLEN and B_TBLEN are as shown in FIG.

すなわち、偶数番目の水平ラインにおいては、G2テーブル用のイネーブル信号G2_TBLENは、奇数番目の画素のときに、G2テーブルをイネーブル状態(動作状態)とする状態となり、Bテーブル用のイネーブル信号B_TBLENは、偶数番目の画素のときに、Bテーブルをイネーブル状態(動作状態)とする状態となる。そして、RテーブルおよびG1テーブルのイネーブル信号R_TBLENおよびG1_TBLENは、共に、RテーブルおよびG1テーブルをディスエーブル状態(非動作状態)とするものとなる。   That is, in the even-numbered horizontal line, the enable signal G2_TBLEN for the G2 table is in a state in which the G2 table is enabled (operating state) for the odd-numbered pixels, and the enable signal B_TBLEN for the B table is At even-numbered pixels, the B table is in an enabled state (operating state). The R table and G1 table enable signals R_TBLEN and G1_TBLEN both turn the R table and the G1 table into a disabled state (non-operating state).

そして、ゲイン算出処理部4244では、イネーブル状態とされたルックアップテーブルが、疑似距離計算部4243からの疑似距離情報を参照情報として参照されて、対応するゲイン制御信号(共有画素別ゲイン制御信号)GCが、当該ルックアップテーブルから読み出されて出力され、共有画素別ゲイン補正部422に供給される。   In the gain calculation processing unit 4244, the enabled lookup table is referred to using the pseudo distance information from the pseudo distance calculation unit 4243 as reference information, and a corresponding gain control signal (shared pixel-specific gain control signal). The GC is read from the lookup table, output, and supplied to the shared pixel-specific gain correction unit 422.

[共有画素別ゲイン補正部422の構成例]
図15に、この実施形態における共有画素別ゲイン補正部422の構成例のブロック図を示す。この実施形態においては、共有画素別ゲイン補正部422は、シェーディング補正処理を実行する乗算器4221と、セレクタ4222とからなる。
[Configuration Example of Gain Correction Unit 422 by Shared Pixel]
FIG. 15 shows a block diagram of a configuration example of the shared pixel-specific gain correction unit 422 in this embodiment. In this embodiment, the shared pixel-specific gain correction unit 422 includes a multiplier 4221 that executes a shading correction process and a selector 4222.

遅延調整部421からの撮像画素データは、乗算器4221に供給されると共に、セレクタ4222の一方の入力端に供給される。乗算器4221には、補正制御信号算出部424からの共有画素別ゲイン制御信号GCが供給されて、補正対象の撮像画素データに乗算され、シェーディング補正処理が実行される。この補正処理がなされた撮像画素データは、乗算器4221からセレクタ4222の他方の入力端に供給される。   The imaging pixel data from the delay adjustment unit 421 is supplied to the multiplier 4221 and also supplied to one input terminal of the selector 4222. The multiplier 4221 is supplied with the shared pixel-specific gain control signal GC from the correction control signal calculation unit 424, and multiplies the pixel data to be corrected by the shading correction process. The imaged pixel data subjected to this correction processing is supplied from the multiplier 4221 to the other input terminal of the selector 4222.

セレクタ4222には、タイミング生成部423からの補正オン・オフ信号SWが供給されており、補正オン・オフ信号SWが補正オンを示すものであるときには、乗算器4221からのシェーディング補正された撮像画素データがこのセレクタ4222から出力され、また、補正オン・オフ信号SWが補正オフを示すものであるときには、遅延調整部421からの撮像画素データが、シェーディング補正処理されずに、そのままセレクタ4222から出力される。そして、このセレクタ4222の出力が、共有画素別シェーディング補正処理部42の出力Pxcとされる。   The selector 4222 is supplied with the correction on / off signal SW from the timing generation unit 423, and when the correction on / off signal SW indicates correction on, the imaging pixel subjected to the shading correction from the multiplier 4221 is displayed. When data is output from the selector 4222 and the correction on / off signal SW indicates correction off, the imaged pixel data from the delay adjustment unit 421 is output from the selector 4222 without being subjected to the shading correction process. Is done. The output of the selector 4222 is used as the output Pxc of the shading correction processing unit 42 for each shared pixel.

以上のようにして、この実施形態の撮像装置においては、固体撮像素子が共有画素技術を用いた構成となっていても、適切なシェーディング補正ができて、出力画質への影響を、より軽減することができる。   As described above, in the imaging apparatus of this embodiment, even when the solid-state imaging device is configured to use the shared pixel technology, appropriate shading correction can be performed, and the influence on the output image quality is further reduced. be able to.

[他の実施形態]
<ソフトウエア処理による構成>
上述した実施形態では、共有画素別シェーディング補正処理は、ハードウエアを用いた処理としたが、マイコンによるソフトウエア処理とすることもできる。例えば、図16は、そのソフトウエア処理とした場合における処理の流れを概要を示すフローチャートである。
[Other Embodiments]
<Configuration by software processing>
In the embodiment described above, the shading correction process for each shared pixel is a process using hardware, but may be a software process using a microcomputer. For example, FIG. 16 is a flowchart showing an outline of the flow of processing when the software processing is performed.

すなわち、マイコンは、先ず、補正対象画素の隣接画素の画素データを取得する(ステップS101)。  That is, the microcomputer first acquires pixel data of pixels adjacent to the correction target pixel (step S101).

次に、撮像面上での補正対象画素の座標位置を、画素クロック、水平同期信号HD、垂直同期信号VDをカウントすることにより算出する(ステップS102)。続いて、算出した撮像面での補正対象画素の座標位置を、撮影レンズの光軸からの距離座標位置(疑似距離座標位置)に変換する(ステップS103)。  Next, the coordinate position of the correction target pixel on the imaging surface is calculated by counting the pixel clock, the horizontal synchronization signal HD, and the vertical synchronization signal VD (step S102). Subsequently, the calculated coordinate position of the correction target pixel on the imaging surface is converted into a distance coordinate position (pseudo distance coordinate position) from the optical axis of the photographing lens (step S103).

次に、補正対象画素の共有画素IDを参照し、シェーディング補正に使用するルックアップテーブルを、予め用意されている複数のルックアップテーブルの中から選択する(ステップS104)。  Next, referring to the shared pixel ID of the correction target pixel, a lookup table used for shading correction is selected from a plurality of lookup tables prepared in advance (step S104).

そして、選択したルックアップテーブルを、ステップS103で求めた疑似距離座標位置情報で参照して、共有画素別ゲイン補正信号GCを取得する(ステップS105)。取得した共有画素別ゲイン補正信号GCを、補正対象画素の画素データと乗算する演算処理をして、ゲイン補正する(ステップS106)。これにより、シェーディング補正された撮像画素データが得られる。  Then, the selected lookup table is referred to by the pseudo distance coordinate position information obtained in step S103, and the shared pixel-specific gain correction signal GC is acquired (step S105). The gain correction is performed by performing a calculation process of multiplying the acquired pixel-specific gain correction signal GC by the pixel data of the correction target pixel (step S106). As a result, imaged pixel data subjected to shading correction is obtained.

次に、撮像画素データについての処理を終了するか否か判別し(ステップS107)、処理終了でなければ、ステップS101に戻り、このステップS101以降の処理を繰り返す。また、ステップS107で処理終了と判別したときには、この処理ルーチンを終了する。  Next, it is determined whether or not the process for the imaged pixel data is to be ended (step S107). If it is determined in step S107 that the process has ended, the process routine ends.

<対象撮像素子の変更>
なお、以上の実施形態の説明においては、固体撮像素子に対して配される色フィルタ、読み出しチャンネル、画素の共有方法については、例を限定して説明してきたが、もちろん、この発明は、これらの限定に限られるものではなく、この発明の主旨を外れない範囲で広く適用することが可能である。
<Change of target image sensor>
In the above description of the embodiment, the color filter, the readout channel, and the pixel sharing method arranged for the solid-state image sensor have been described with limited examples. The present invention is not limited to this limitation, and can be widely applied without departing from the gist of the present invention.

例えば、図4の例では、共有画素IDで表わした出力画素シーケンスは、色フィルタの色を考慮した場合であるが、固体撮像素子に対して配される色フィルタの各色を考慮しない場合には、図4(A),(B),(C)に示した共有画素の配列パターンの3つの例における共有画素ID、および、共有画素IDで表した出力画素シーケンスは、図17に示すようなものとなる。   For example, in the example of FIG. 4, the output pixel sequence represented by the shared pixel ID is a case where the color of the color filter is considered, but when each color of the color filter arranged for the solid-state image sensor is not considered. The shared pixel ID and the output pixel sequence represented by the shared pixel ID in the three examples of the shared pixel array pattern shown in FIGS. 4A, 4B, and 4C are as shown in FIG. It will be a thing.

なお、この図17の例は、例えば図2(D)や図2(E)のような3板式のイメージセンサを用いる場合における場合の例で、図17は赤色光用の固体撮像素子の場合を示したものである。   The example of FIG. 17 is an example in the case of using a three-plate type image sensor as shown in FIGS. 2D and 2E, for example, and FIG. 17 is a solid-state image sensor for red light. Is shown.

この例の場合、図17(A),(B),(C)のそれぞれ上段に示した共有画素の配列パターンの3つの例における共有画素IDは、それぞれ中段に示すようなものとなり、また、共有画素IDで表した出力画素シーケンスは、それぞれ下段に示すようなものとなる。   In the case of this example, the shared pixel IDs in the three examples of the array pattern of the shared pixels shown in the upper part of each of FIGS. 17A, 17B, and 17C are as shown in the middle part. The output pixel sequence represented by the shared pixel ID is as shown in the lower part of each.

そして、この場合には、図17の中段に示した共有画素IDに応じたルックアップテーブルを用意し、補正対象画素の共有画素IDに基づいてテーブル選択信号により、ルックアップテーブルを選択し、当該選択したルックアップテーブルを用いてシェーディング補正用の共有画素別ゲイン制御信号を得、シェーディング補正を実行する。   In this case, a lookup table corresponding to the shared pixel ID shown in the middle part of FIG. 17 is prepared, and a lookup table is selected by a table selection signal based on the shared pixel ID of the correction target pixel. A gain control signal for each shared pixel for shading correction is obtained using the selected lookup table, and shading correction is executed.

緑色光用の固体撮像素子や青色光用の固体撮像素子からの撮像画素データについてのシェーディング補正も、それぞれ用のルックアップテーブルを用意し、同様に行なうものである。   The shading correction for the imaging pixel data from the solid-state image pickup device for green light and the solid-state image pickup device for blue light is similarly performed by preparing a lookup table for each.

[その他の実施形態および変形例]
なお、以上の説明は、全て、シェーディング補正に、この発明を適用した場合であるが、前述もしたように、この発明の対象とする撮像画素データについての補正処理としては、シェーディング補正に限られるものではなく、従来、各色光毎に同一の補正をすればよいとされている補正処理を、共有画素技術を用いた固体撮像素子からの撮像画素データに対して施す場合の全てに適用可能である。
[Other Embodiments and Modifications]
Note that the above description is all about the case where the present invention is applied to shading correction. However, as described above, the correction processing for the imaging pixel data targeted by the present invention is limited to shading correction. However, it can be applied to all cases where the correction processing, which has been conventionally performed for each color light, should be performed on the image pixel data from the solid-state image sensor using the shared pixel technology. is there.

なお、カメラ信号処理LSI(Large−Scale Integration)は、複数のタイプの撮像素子に対応するのが一般的であるため、撮像素子によっては、
(1)共有画素技術を使用していて、共有画素別のシェーディングの差が大きい
(2)共有画素技術を使用しているが、共有画素別のシェーディングの差が小さい
(3)そもそも共有画素技術を使用していない
などの撮像素子群のバリエーションに対応しなくてはならない場合がある。
Since a camera signal processing LSI (Large-Scale Integration) generally corresponds to a plurality of types of image pickup devices, depending on the image pickup device,
(1) The shared pixel technology is used and the shading difference for each shared pixel is large (2) The shared pixel technology is used, but the shading difference for each shared pixel is small (3) The shared pixel technology in the first place There are cases where it is necessary to cope with variations in the image pickup device group such as not using the.

上述の実施形態では、上記(1)の場合に関して特化して説明してきたが、上記(2)あるいは上記(3)の撮像素子を、イメージセンサとして用いた場合には、共有画素別のルックアップテーブルに同じ補正データを書き込めばよい。あるいはテーブル選択信号SELが固定になるようにカメラ制御マイコンから設定し、特定のルックアップテーブルのみを使うようにしてもよい。   In the above-described embodiment, the case (1) has been described specifically. However, when the image sensor (2) or (3) is used as an image sensor, a lookup for each shared pixel is performed. Just write the same correction data in the table. Alternatively, the table selection signal SEL may be set from the camera control microcomputer so as to be fixed, and only a specific lookup table may be used.

なお、上述した実施形態の構成は、説明の都合上、図4(A)に示した共有画素パターンならびに読み出し方法に特化して説明してきたが、別の共有画素パターンや読み出し方法にも柔軟に対応できるように、タイミング生成部423等をプログラマブルに構成しておくのが望ましい。  Note that the configuration of the above-described embodiment has been described specifically for the shared pixel pattern and the reading method illustrated in FIG. 4A for convenience of description, but can be flexibly applied to another shared pixel pattern and the reading method. It is desirable to configure the timing generation unit 423 and the like in a programmable manner so that it can cope.

また、上述の実施形態の説明では、固体撮像素子は、CMOSイメージセンサとしたが、CCDイメージセンサでもよい。   In the above description of the embodiment, the solid-state imaging device is a CMOS image sensor, but may be a CCD image sensor.

この発明による撮像装置の実施形態のハードウエア構成例を示す図である。It is a figure which shows the hardware structural example of embodiment of the imaging device by this invention. この発明による撮像装置の実施形態で用いる固体撮像素子の画素配列および色フィルタ配置の例を説明するための図である。It is a figure for demonstrating the example of the pixel arrangement | sequence and color filter arrangement | positioning of a solid-state image sensor used with embodiment of the imaging device by this invention. この発明による撮像装置の実施形態で用いる固体撮像素子からの撮像画像データの読み出し方法の例を説明するための図である。It is a figure for demonstrating the example of the reading method of the captured image data from the solid-state image sensor used by embodiment of the imaging device by this invention. この発明による撮像装置の実施形態で用いる固体撮像素子における共有画素の配列パターンおよび共有画素IDを説明するための図である。It is a figure for demonstrating the array pattern and shared pixel ID of the shared pixel in the solid-state image sensor used by embodiment of the imaging device by this invention. この発明による撮像装置の実施形態の要部のハードウエア構成例を示す図である。It is a figure which shows the hardware structural example of the principal part of embodiment of the imaging device by this invention. この発明による撮像装置の実施形態を説明するために用いる図である。It is a figure used in order to explain an embodiment of an imaging device by this invention. 図5のハードウエア構成例における一部のブロックのハードウエア構成例を示す図である。It is a figure which shows the hardware structural example of the one part block in the hardware structural example of FIG. 図7のハードウエア構成例を説明するために用いる図である。FIG. 8 is a diagram used for explaining a hardware configuration example of FIG. 7. 図7のハードウエア構成例を説明するために用いる図である。FIG. 8 is a diagram used for explaining a hardware configuration example of FIG. 7. 図7のハードウエア構成例を説明するために用いる図である。FIG. 8 is a diagram used for explaining a hardware configuration example of FIG. 7. 図7のハードウエア構成例における一部のブロックのハードウエア構成例を示す図である。It is a figure which shows the hardware structural example of the one part block in the hardware structural example of FIG. 図11のハードウエア構成例における処理動作を説明するために用いる図である。FIG. 12 is a diagram used for explaining a processing operation in the hardware configuration example of FIG. 11. 図11のハードウエア構成例における処理動作を説明するために用いる図である。FIG. 12 is a diagram used for explaining a processing operation in the hardware configuration example of FIG. 11. 図11のハードウエア構成例における処理動作を説明するために用いる図である。FIG. 12 is a diagram used for explaining a processing operation in the hardware configuration example of FIG. 11. 図7のハードウエア構成例における一部のブロックのハードウエア構成例を示す図である。It is a figure which shows the hardware structural example of the one part block in the hardware structural example of FIG. この発明による撮像装置の他の実施形態の要部を説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating the principal part of other Embodiment of the imaging device by this invention. この発明による撮像装置における共有画素IDパターンの他の例を説明するための図である。It is a figure for demonstrating the other example of the shared pixel ID pattern in the imaging device by this invention.

符号の説明Explanation of symbols

2…CMOSイメージャ、4…デジタル信号処理部、5…カメラ制御マイコン、42…共有画素別シェーディング補正処理部、44…基準タイミング信号発生器、422…共有画素別ゲイン補正部、423…タイミング生成部、424…補正制御信号算出部、4244…ゲイン算出処理部   DESCRIPTION OF SYMBOLS 2 ... CMOS imager, 4 ... Digital signal processing part, 5 ... Camera control microcomputer, 42 ... Shading correction processing part classified by shared pixel, 44 ... Reference | standard timing signal generator, 422 ... Gain correction part classified by shared pixel, 423 ... Timing generation part 424 ... correction control signal calculation unit, 4244 ... gain calculation processing unit

Claims (6)

2次元アレイ状に配列される複数の画素を、画素の配列パターンが同一となる所定の複数個の画素ずつを1組みとし、各1組みを構成する前記所定の複数個の画素に対して画素構成に必要な回路を共有する構成とされた撮像面を備える固体撮像素子と、
光学系を通じて画素に入射する同一の色光毎に、前記画素からの撮像画素データについて、補正制御信号に基づいて所定の補正を行う補正手段と、
前記同一の色光毎についての前記補正制御信号を、前記各1組みを構成する前記所定の複数個の画素の、前記配列パターン内における各画素位置の違いに応じて、それぞれ算出して、前記補正手段に供給する補正制御信号算出手段と、
を備える撮像装置。
A plurality of pixels arranged in a two-dimensional array is formed as a set of a plurality of predetermined pixels having the same pixel arrangement pattern, and the pixels corresponding to the predetermined plurality of pixels constituting each set A solid-state imaging device including an imaging surface configured to share a circuit necessary for the configuration;
Correction means for performing predetermined correction on the imaged pixel data from the pixel for each identical color light incident on the pixel through the optical system based on a correction control signal;
The correction control signal for each of the same color light is calculated according to the difference in pixel position in the array pattern of the predetermined plurality of pixels constituting each set, and the correction is performed. Correction control signal calculation means to be supplied to the means;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記所定の補正は、前記光学系を通じて前記撮像面に入射する光の、前記撮像面上における画素位置の違いに応じた入射光量の不均一性を、前記補正制御信号により、前記撮像画素データのゲインを補正することに補正するものである
ことを特徴とする撮像装置。
The imaging device according to claim 1,
The predetermined correction is performed by using the correction control signal to calculate non-uniformity in incident light amount according to a difference in pixel position on the imaging surface of light incident on the imaging surface through the optical system. An imaging apparatus characterized by correcting the gain.
請求項1に記載の撮像装置において、
前記補正制御信号算出手段は、前記撮像面上における画素位置と、当該画素位置における前記補正制御信号とを対応付けた補正制御信号テーブルを備え、前記画素位置を入力として、対応する前記補正制御信号を出力して算出するものであって、前記補正制御信号テーブルを、前記同一の色光毎について、前記各1組みを構成する前記所定の複数個の画素の数分備え、前記配列パターン内における各画素位置の違いに応じて、前記補正制御信号テーブルを選択する
ことを特徴とする撮像装置。
The imaging device according to claim 1,
The correction control signal calculation unit includes a correction control signal table in which a pixel position on the imaging surface is associated with the correction control signal at the pixel position, and the corresponding correction control signal is input using the pixel position as an input. The correction control signal table is provided for each of the same color light by the number of the predetermined plurality of pixels constituting each set, and each of the correction patterns in the array pattern is calculated. The image pickup apparatus, wherein the correction control signal table is selected according to a difference in pixel position.
請求項3に記載の撮像装置において、
ズーム機構を備え、
前記補正制御信号テーブルは、予め定められた所定のズーム倍率のそれぞれにおいて、前記同一の色光毎について、前記各1組みを構成する前記所定の複数個の画素の数分備え、前記ズーム機構において選定されているズーム倍率によって、使用する前記補正制御信号テーブルが選択される
ことを特徴とする撮像装置。
The imaging device according to claim 3.
Equipped with zoom mechanism,
The correction control signal table includes the number of the predetermined plurality of pixels constituting each set for each of the same color light at each predetermined zoom magnification, and is selected by the zoom mechanism. The correction control signal table to be used is selected according to the zoom magnification being used.
2次元アレイ状に配列される複数の画素を、画素の配列パターンが同一となる所定の複数個の画素ずつを1組みとし、各1組みを構成する前記所定の複数個の画素に対して画素構成に必要な回路を共有する構成とされた撮像面を備える固体撮像素子からの撮像画素データを補正する撮像画素データ補正方法であって、
光学系を通じて前記撮像面に入射する同一の色光毎に、前記撮像画素データについて、補正制御信号に基づいて所定の補正を行う補正工程と、
前記補正工程に先立ち、前記同一の色光毎についての前記補正制御信号を、前記各1組みを構成する前記所定の複数個の画素の、前記配列パターン内における各画素位置の違いに応じて、それぞれ算出する補正制御信号算出工程と、
を有する撮像画素データ補正方法。
A plurality of pixels arranged in a two-dimensional array is formed as a set of a plurality of predetermined pixels having the same pixel arrangement pattern, and the pixels corresponding to the predetermined plurality of pixels constituting each set An imaging pixel data correction method for correcting imaging pixel data from a solid-state imaging device including an imaging surface configured to share a circuit necessary for the configuration,
A correction step of performing a predetermined correction based on a correction control signal for the imaging pixel data for each identical color light incident on the imaging surface through an optical system;
Prior to the correction step, the correction control signal for each of the same color light is set according to the difference in pixel position in the array pattern of the predetermined plurality of pixels constituting each set, respectively. A correction control signal calculation step for calculating,
An imaging pixel data correction method comprising:
2次元アレイ状に配列される複数の画素を、画素の配列パターンが同一となる所定の複数個の画素ずつを1組みとし、各1組みを構成する前記所定の複数個の画素に対して画素構成に必要な回路を共有する構成とされた固体撮像素子を備える撮像装置に、
光学系を通じて前記撮像面に入射する同一の色光毎に、前記撮像画素データについて、補正制御信号に基づいて所定の補正を行う補正工程と、
前記補正工程に先立ち、前記同一の色光毎についての前記補正制御信号を、前記各1組みを構成する前記所定の複数個の画素の、前記配列パターン内における各画素位置の違いに応じて、それぞれ算出する補正制御信号算出工程と、
を実行させるためのプログラム。
A plurality of pixels arranged in a two-dimensional array is formed as a set of a plurality of predetermined pixels having the same pixel arrangement pattern, and the pixels corresponding to the predetermined plurality of pixels constituting each set In an imaging device including a solid-state imaging device configured to share a circuit necessary for the configuration,
A correction step of performing a predetermined correction based on a correction control signal for the imaging pixel data for each identical color light incident on the imaging surface through an optical system;
Prior to the correction step, the correction control signal for each of the same color light is set according to the difference in pixel position in the array pattern of the predetermined plurality of pixels constituting each set, respectively. A correction control signal calculation step for calculating,
A program for running
JP2007297451A 2007-11-16 2007-11-16 Imaging apparatus, and captured pixel data correcting method and program Withdrawn JP2009124524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007297451A JP2009124524A (en) 2007-11-16 2007-11-16 Imaging apparatus, and captured pixel data correcting method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007297451A JP2009124524A (en) 2007-11-16 2007-11-16 Imaging apparatus, and captured pixel data correcting method and program

Publications (1)

Publication Number Publication Date
JP2009124524A true JP2009124524A (en) 2009-06-04

Family

ID=40816180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007297451A Withdrawn JP2009124524A (en) 2007-11-16 2007-11-16 Imaging apparatus, and captured pixel data correcting method and program

Country Status (1)

Country Link
JP (1) JP2009124524A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113228630A (en) * 2018-11-16 2021-08-06 日本株式会社皆爱公司 Image pickup apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113228630A (en) * 2018-11-16 2021-08-06 日本株式会社皆爱公司 Image pickup apparatus
CN113228630B (en) * 2018-11-16 2023-12-22 日本株式会社皆爱公司 Image pickup apparatus

Similar Documents

Publication Publication Date Title
JP5045380B2 (en) Imaging apparatus, imaging data correction method, and program
JP4292426B2 (en) Imaging apparatus and imaging data correction method
JP5589146B2 (en) Imaging device and imaging apparatus
US8908064B2 (en) Imaging apparatus and imaging method
US9781366B2 (en) Image sensing system and method of driving the same
US20060001745A1 (en) Image sensing device, image processing apparatus and method, and memory medium
JP5453173B2 (en) Imaging device, solid-state imaging device having phase difference detection pixel, and driving control method of imaging device
JP4291793B2 (en) Solid-state imaging device and solid-state imaging device
US8830384B2 (en) Imaging device and imaging method
JP2006270364A (en) Solid-state image pickup element and solid-state image pickup device, and driving method thereof
JP2004221265A (en) Solid state imaging element and digital camera
JP2009065478A (en) Driving method of solid-state image sensor, and imaging apparatus
JP5033711B2 (en) Imaging device and driving method of imaging device
WO2013100093A1 (en) Imaging device, method for controlling imaging device, and control program
JP2004023683A (en) Defect correction apparatus and method for solid-state imaging device
US7470881B2 (en) Solid-state imaging device including plural groups of photoelectric conversion devices with plural microlenses being shifted in a peripheral portion of the imaging device, and imaging apparatus including the imaging device
JP7095774B2 (en) Image sensor and image sensor
JP2006246148A (en) Imaging apparatus
JP2009124524A (en) Imaging apparatus, and captured pixel data correcting method and program
JP2007235888A (en) Single-ccd color solid-state imaging element and imaging apparatus
JP2008288649A (en) Image pickup apparatus and method of correcting captured image data
JP5256084B2 (en) Imaging device and driving method of imaging device
JP2015156556A (en) Solid-state image sensor
JP2006094194A (en) Signal processing device and method therefor
JP2004297449A (en) Solid-state imaging apparatus and shading correction method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090825

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091005

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110201