JP2017055345A - Level correction device and solid state image pickup device - Google Patents

Level correction device and solid state image pickup device Download PDF

Info

Publication number
JP2017055345A
JP2017055345A JP2015179848A JP2015179848A JP2017055345A JP 2017055345 A JP2017055345 A JP 2017055345A JP 2015179848 A JP2015179848 A JP 2015179848A JP 2015179848 A JP2015179848 A JP 2015179848A JP 2017055345 A JP2017055345 A JP 2017055345A
Authority
JP
Japan
Prior art keywords
pixel
unit
level
signal
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015179848A
Other languages
Japanese (ja)
Inventor
金光 史呂志
Shiroshi Kanemitsu
史呂志 金光
敬三 田代
Keizo Tashiro
敬三 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015179848A priority Critical patent/JP2017055345A/en
Publication of JP2017055345A publication Critical patent/JP2017055345A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a level correction device and a solid state image pickup device capable of reducing the detection error of an incident light volume caused by a difference in the arrangement positions of pixels on an imaging surface.SOLUTION: A level correction part 27 detects the level difference between a pixel signal of a first pixel and that of a second pixel arranged at different positions of a sensor part 22, corrects the pixel signals on the basis of the level difference, and when the level difference between the pixel signal of the first pixel and that of the second pixel is less than a restriction value, sets a correction amount so as to reduce the level difference, thereby increase the correction amount from the center of the image of the sensor part 22 toward the periphery.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、レベル補正装置および固体撮像装置に関する。   Embodiments described herein relate generally to a level correction device and a solid-state imaging device.

固体撮像装置では、画素の微細化に伴ってレイアウトの一様性が崩れたり、カメラモジュールの低背化に伴って周辺画素への入射光の傾きが大きくなることがあった。   In the solid-state imaging device, the uniformity of the layout is lost as the pixels are miniaturized, and the inclination of the incident light to the peripheral pixels is increased as the camera module is reduced in height.

特開2013−118520号公報JP2013-118520A

本発明の一つの実施形態は、撮像面上の画素の配置位置の差異に起因する入射光量の検出誤差を低減することが可能なレベル補正装置および固体撮像装置を提供することを目的とする。   An object of one embodiment of the present invention is to provide a level correction device and a solid-state imaging device capable of reducing the detection error of the incident light amount due to the difference in the arrangement position of the pixels on the imaging surface.

本発明の一つの実施形態によれば、互いに隣接して配置され、感度が互いに等しくかつ同色の第1画素と第2画素との間の画素信号のレベル差を検出する差分検出部と、前記レベル差に基づいて前記画素信号を演算処理する演算処理部とを備える。   According to an embodiment of the present invention, the difference detection unit that is disposed adjacent to each other, detects the level difference of the pixel signal between the first pixel and the second pixel having the same sensitivity and the same color, An arithmetic processing unit that performs arithmetic processing on the pixel signal based on the level difference.

図1は、第1実施形態に係る固体撮像装置の概略構成を示すブロック図である。FIG. 1 is a block diagram illustrating a schematic configuration of the solid-state imaging device according to the first embodiment. 図2は、図1のセンサ部およびAD変換部の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the sensor unit and the AD conversion unit in FIG. 1. 図3は、図2の固体撮像装置の画素の構成例を示す回路図である。FIG. 3 is a circuit diagram illustrating a configuration example of a pixel of the solid-state imaging device of FIG. 図4は、図2の固体撮像装置の画素のレイアウト例を示す平面図である。FIG. 4 is a plan view illustrating a layout example of pixels of the solid-state imaging device of FIG. 図5は、第1実施形態に係る固体撮像装置のレベル補正に使用される画素を示す図である。FIG. 5 is a diagram illustrating pixels used for level correction of the solid-state imaging device according to the first embodiment. 図6は、図1のレベル補正部の構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of the level correction unit in FIG. 図7は、図6の入力制限部の入出力特性の一例を示す図である。FIG. 7 is a diagram illustrating an example of input / output characteristics of the input restriction unit in FIG. 6. 図8は、第1実施形態に係る固体撮像装置のレベル補正に用いられる2次曲線係数の設定例を示す図である。FIG. 8 is a diagram illustrating a setting example of a quadratic curve coefficient used for level correction of the solid-state imaging device according to the first embodiment. 図9(a)は、被写体のレベル差の一例を示す図、図9(b)は、画素間のレベル差の一例を示す図である。FIG. 9A is a diagram illustrating an example of a level difference between subjects, and FIG. 9B is a diagram illustrating an example of a level difference between pixels. 図10は、第2実施形態に係る固体撮像装置の概略構成を示すブロック図である。FIG. 10 is a block diagram illustrating a schematic configuration of the solid-state imaging apparatus according to the second embodiment. 図11は、図10の固体撮像装置のレベル補正に用いられるシェーディング係数の一例を示す図である。FIG. 11 is a diagram illustrating an example of a shading coefficient used for level correction of the solid-state imaging device of FIG. 図12は、第3実施形態に係る固体撮像装置のレベル補正に用いられる2次曲線係数の設定方法を示す図である。FIG. 12 is a diagram illustrating a method of setting a quadratic curve coefficient used for level correction of the solid-state imaging device according to the third embodiment. 図13は、第4実施形態に係る固体撮像装置が適用されるデジタルカメラの概略構成を示すブロック図である。FIG. 13 is a block diagram illustrating a schematic configuration of a digital camera to which the solid-state imaging device according to the fourth embodiment is applied. 図14は、第5実施形態に係る固体撮像装置が適用されるカメラモジュールの概略構成を示す断面図である。FIG. 14 is a cross-sectional view illustrating a schematic configuration of a camera module to which the solid-state imaging device according to the fifth embodiment is applied.

以下に添付図面を参照して、実施形態に係るレベル補正装置および固体撮像装置を詳細に説明する。なお、これらの実施形態により本発明が限定されるものではない。   Exemplary embodiments of a level correction apparatus and a solid-state imaging apparatus will be explained below in detail with reference to the accompanying drawings. Note that the present invention is not limited to these embodiments.

(第1実施形態)
図1は、第1実施形態に係る固体撮像装置の概略構成を示すブロック図である。
図1において、固体撮像装置には、センサ部22、AD変換部23および画像処理部24が設けられている。画像処理部24には、黒レベル補正部25、キズ補正部26、レベル補正部27、ノイズキャンセル部28、シェーディング係数算出部29、デジタルゲイン部30およびスケーラデジタルクロップ処理部31が設けられている。センサ部22の前段にはレンズ21が設けられている。画像処理部24は、AD変換部23から出力された画素信号を信号処理する。センサ部22は被写体を画素ごとに光電変換し、画素信号を生成する。AD変換部23はセンサ部22から出力された画素信号をデジタル値に変換する。黒ベル補正部25は、センサ部22に設けられた遮光画素からの出力に基づいてセンサ出力のオフセット値を補正する。
キズ補正部26は、画素のキズが修復されるように画素から読み出された画素信号を補正する。
レベル補正部27は、センサ部22の互いに異なる位置に配置された第1画素の画素信号と第2画素の画素信号のレベル差を検出し、そのレベル差に基づいてその画素信号を補正することができる。なお、このレベル差を段差ノイズと言うことがある。この時、レベル補正部27は、第1画素が第2画素の位置にある時の第1画素の画素信号のレベルの算出値に基づいて、第2画素の画素信号を補正するようにしてもよい。第1画素の画素信号のレベルの算出値は、第2画素の周囲に均等に配置された第1画素の画素信号の平均値を用いることができる。
ノイズキャンセル部28は、画素から読み出された画素信号のフィルタリングを行うことで、画素信号のノイズを低減する。キズ補正およびノイズキャンセル処理は、ラインメモリを用いた2次元空間上での補正でもよいしラインメモリを用いない1次元処理でもよい。2次元空間上での補正では、ある画素の画素信号を補正するために、その画素と同一ライン上の画素の画素信号だけでなく、そのラインと異なるライン上の画素の画素信号を参照することができる。この時、2次元空間上での補正では、補正対象の画素のラインと異なるライン上の画素の画素信号を記憶するために、メモリを用いることができる。1次元処理による補正では、ある画素の画素信号を補正するために、その画素と同一ライン上の画素の画素信号を参照することができる。この時、1次元処理では、補正対象の画素のラインと異なるライン上の画素の画素信号を記憶する必要がないため、ラインメモリを不要とすることができる。
デジタルゲイン部30は、センサ出力に係数を乗算することで、ホワイトバランス調整、デジタルゲイン調整および光学シェーディング補正を行う。光学シェーディング補正では、レンズ21の光学特性に起因するセンサ部22の周辺光量の減衰を補正することができる。
シェーディング係数算出部29は、光学シェーディング補正に用いるシェーディング係数Ksを算出する。シェーディング係数Ksは、センサ部22の画像中心から周辺に向かってパラボラ(放物線)状に変化させることができる。
スケーラデジタルクロップ処理部31は、線形フィルタにより画像サイズを所定サイズに調整したり、画像の所定領域を切り出したりすることができる。
(First embodiment)
FIG. 1 is a block diagram illustrating a schematic configuration of the solid-state imaging device according to the first embodiment.
In FIG. 1, the solid-state imaging device includes a sensor unit 22, an AD conversion unit 23, and an image processing unit 24. The image processing unit 24 includes a black level correction unit 25, a scratch correction unit 26, a level correction unit 27, a noise cancellation unit 28, a shading coefficient calculation unit 29, a digital gain unit 30, and a scaler digital crop processing unit 31. . A lens 21 is provided in front of the sensor unit 22. The image processing unit 24 performs signal processing on the pixel signal output from the AD conversion unit 23. The sensor unit 22 photoelectrically converts the subject for each pixel to generate a pixel signal. The AD conversion unit 23 converts the pixel signal output from the sensor unit 22 into a digital value. The black bell correction unit 25 corrects the offset value of the sensor output based on the output from the light shielding pixel provided in the sensor unit 22.
The defect correction unit 26 corrects the pixel signal read from the pixel so that the defect of the pixel is repaired.
The level correction unit 27 detects a level difference between the pixel signal of the first pixel and the pixel signal of the second pixel arranged at different positions of the sensor unit 22, and corrects the pixel signal based on the level difference. Can do. This level difference is sometimes called step noise. At this time, the level correction unit 27 may correct the pixel signal of the second pixel based on the calculated value of the level of the pixel signal of the first pixel when the first pixel is at the position of the second pixel. Good. As the calculated value of the pixel signal level of the first pixel, an average value of the pixel signals of the first pixels arranged evenly around the second pixel can be used.
The noise cancellation unit 28 reduces the noise of the pixel signal by filtering the pixel signal read from the pixel. Scratch correction and noise cancellation processing may be correction in a two-dimensional space using a line memory, or may be one-dimensional processing that does not use a line memory. In correction on a two-dimensional space, in order to correct a pixel signal of a certain pixel, not only a pixel signal of a pixel on the same line as the pixel but also a pixel signal of a pixel on a line different from the line is referred to. Can do. At this time, in the correction in the two-dimensional space, a memory can be used to store pixel signals of pixels on a line different from the line of the pixel to be corrected. In correction by one-dimensional processing, in order to correct a pixel signal of a certain pixel, a pixel signal of a pixel on the same line as that pixel can be referred to. At this time, in the one-dimensional processing, since it is not necessary to store pixel signals of pixels on a line different from the line of the pixel to be corrected, a line memory can be eliminated.
The digital gain unit 30 performs white balance adjustment, digital gain adjustment, and optical shading correction by multiplying the sensor output by a coefficient. In the optical shading correction, the attenuation of the peripheral light amount of the sensor unit 22 due to the optical characteristics of the lens 21 can be corrected.
The shading coefficient calculation unit 29 calculates a shading coefficient Ks used for optical shading correction. The shading coefficient Ks can be changed in a parabolic shape from the image center of the sensor unit 22 toward the periphery.
The scaler digital crop processing unit 31 can adjust the image size to a predetermined size or cut out a predetermined area of the image using a linear filter.

レンズ21を介してセンサ部22に入射光LIが入射することにより撮像が行われる。画素から読み出された画素信号はAD変換部23にてデジタル値に変換される。そして、黒レベル補正部25において、画素信号の黒レベルが補正された後、キズ補正部26において、画素信号のキズ補正が行なわれる。レベル補正部27において、センサ部22の互いに異なる位置に配置された第1画素の画素信号と第2画素の画素信号のレベル差が検出され、そのレベル差に基づいてその画素信号が補正される。この時、レベル補正部27は、第1画素の画素信号と第2画素の画素信号のレベル差が制限値に満たない場合、そのレベル差が小さくなるように補正量を設定することができる。また、レベル補正部27は、センサ部22の画像中心から周辺に向かって補正量を大きくすることができる。センサ部22の画像中心は、例えば、センサ部22の画像を縦および横に2等分する直線を引いた時にその直線の交点とすることができる。センサ部22の画像の対角線の交点でもよい。
ノイズキャンセル部28において、画素信号のノイズキャンセルが行われた後、デジタルゲイン部30において、ホワイトバランス調整、デジタルゲイン調整および光学シェーディング補正が行われる。その後、スケーラデジタルクロップ処理部31において、出力媒体の表示サイズに合うように画像サイズが調整されたり、画像の切り出しが行われる。
Imaging is performed when incident light LI enters the sensor unit 22 via the lens 21. The pixel signal read from the pixel is converted into a digital value by the AD conversion unit 23. Then, after the black level correction unit 25 corrects the black level of the pixel signal, the defect correction unit 26 corrects the defect of the pixel signal. In the level correction unit 27, the level difference between the pixel signal of the first pixel and the pixel signal of the second pixel arranged at different positions of the sensor unit 22 is detected, and the pixel signal is corrected based on the level difference. . At this time, when the level difference between the pixel signal of the first pixel and the pixel signal of the second pixel is less than the limit value, the level correction unit 27 can set the correction amount so that the level difference becomes small. Further, the level correction unit 27 can increase the correction amount from the center of the image of the sensor unit 22 toward the periphery. The center of the image of the sensor unit 22 can be, for example, the intersection of the straight lines when a straight line that bisects the image of the sensor unit 22 vertically and horizontally is drawn. It may be an intersection of diagonal lines of the image of the sensor unit 22.
After noise cancellation of the pixel signal is performed in the noise cancellation unit 28, white balance adjustment, digital gain adjustment, and optical shading correction are performed in the digital gain unit 30. Thereafter, the scaler digital crop processing unit 31 adjusts the image size to fit the display size of the output medium or cuts out the image.

図2は、図1のセンサ部およびAD変換部の構成例を示すブロック図である。
図2において、画素アレイ部1には、光電変換した電荷を蓄積する画素PXがロウ方向RDおよびカラム方向CDにアレイ状に配置されている。また、この画素アレイ部1において、ロウ方向RDには画素PXの読み出し制御を行う水平制御線Hlinが設けられ、カラム方向CDには画素PXから読み出された信号を伝送する垂直信号線Vlinが設けられている。
FIG. 2 is a block diagram illustrating a configuration example of the sensor unit and the AD conversion unit in FIG. 1.
In FIG. 2, in the pixel array section 1, pixels PX that store photoelectrically converted charges are arranged in an array in the row direction RD and the column direction CD. Further, in the pixel array unit 1, a horizontal control line Hlin for performing readout control of the pixel PX is provided in the row direction RD, and a vertical signal line Vlin for transmitting a signal read from the pixel PX is provided in the column direction CD. Is provided.

また、固体撮像装置には、読み出し対象となる画素PXを垂直方向に走査する垂直走査回路2、画素PXとの間でソースフォロア動作を行うことにより、画素PXから垂直信号線Vlinにカラムごとに信号を読み出す負荷回路3、各画素PXの信号成分をCDSにてカラムごとに検出し、AD変換して出力するカラムADC回路4、読み出し対象となる画素PXを水平方向に走査する水平走査回路5、カラムADC回路4に基準電圧VREFを出力する基準電圧発生回路6および各画素PXの読み出しや蓄積のタイミングを制御するタイミング制御回路7が設けられている。なお、基準電圧VREFはランプ波を用いることができる。水平走査回路5は、カラムADC回路4でパラレルに生成されたAD変換値を水平方向にシリアルに転送する水平レジスタを用いることができる。   Further, in the solid-state imaging device, the source follower operation is performed between the vertical scanning circuit 2 that scans the pixel PX to be read in the vertical direction and the pixel PX, so that the vertical signal line Vlin from the pixel PX to each column. A load circuit 3 for reading signals, a column ADC circuit 4 for detecting signal components of each pixel PX for each column by means of CDS, AD-converting and outputting, and a horizontal scanning circuit 5 for scanning a pixel PX to be read in the horizontal direction A reference voltage generation circuit 6 that outputs a reference voltage VREF to the column ADC circuit 4 and a timing control circuit 7 that controls the reading and accumulation timing of each pixel PX are provided. Note that a ramp wave can be used as the reference voltage VREF. The horizontal scanning circuit 5 can use a horizontal register that serially transfers the AD conversion values generated in parallel by the column ADC circuit 4 in the horizontal direction.

画素アレイ部1では、撮像画像をカラー化するために、4個の画素P1〜P4を1組としたベイヤ配列HPを用いることができる。このベイヤ配列HPでは、ベイヤ配列HPの第1の対角方向に2個の緑色画素Gr、Gbが配置され、ベイヤ配列HPの第2の対角方向に1個の赤色画素Rと1個の青色画素Bが配置される。   In the pixel array unit 1, a Bayer array HP in which a set of four pixels P1 to P4 is used can be used to colorize a captured image. In this Bayer array HP, two green pixels Gr and Gb are arranged in the first diagonal direction of the Bayer array HP, and one red pixel R and one pixel are arranged in the second diagonal direction of the Bayer array HP. A blue pixel B is arranged.

そして、垂直走査回路2にて画素PXが垂直方向に走査されることで、ロウ方向RDに画素PXが選択される。そして、負荷回路3において、その画素PXとの間でソースフォロア動作が行われることにより、画素PXから読み出された信号が垂直信号線Vlinを介して伝送され、カラムADC回路4に送られる。また、基準電圧発生回路6において、基準電圧VREFとしてランプ波が設定され、カラムADC回路4に送られる。そして、カラムADC回路4において、画素PXから読み出された信号レベルとリセットレベルがランプ波のレベルに一致するまでクロックのカウント動作が行われ、その時の信号レベルとリセットレベルとの差分がとられることで各画素PXの信号成分がCDSにて検出され、出力信号Soutとして出力される。
ここで、図1のレベル補正部27は、センサ部22の互いに異なる位置に配置され、画素信号のレベル差の検出に用いられる第1画素および第2画素として、各ベイヤ配列HPの緑色画素Gr、Gbを用いることができる。これらの緑色画素Gr、Gbは、互いに隣接して配置され、感度が互いに等しくかつ同色である。レベル補正部27は、緑色画素Gr、Gb間の画素信号のレベル差を検出し、そのレベル差が制限値に満たない場合、そのレベル差が小さくなるように緑色画素Gr、Gbの画素信号を演算処理することができる。
Then, the vertical scanning circuit 2 scans the pixel PX in the vertical direction, so that the pixel PX is selected in the row direction RD. The load circuit 3 performs a source follower operation with the pixel PX, whereby a signal read from the pixel PX is transmitted through the vertical signal line Vlin and sent to the column ADC circuit 4. In the reference voltage generation circuit 6, a ramp wave is set as the reference voltage VREF and sent to the column ADC circuit 4. Then, in the column ADC circuit 4, a clock counting operation is performed until the signal level read from the pixel PX and the reset level coincide with the ramp wave level, and the difference between the signal level and the reset level at that time is taken. Thus, the signal component of each pixel PX is detected by the CDS and output as the output signal Sout.
Here, the level correction unit 27 in FIG. 1 is arranged at a different position of the sensor unit 22, and as the first pixel and the second pixel used for detecting the level difference of the pixel signal, the green pixels Gr of each Bayer array HP. , Gb can be used. These green pixels Gr and Gb are arranged adjacent to each other, have the same sensitivity and the same color. The level correction unit 27 detects the level difference of the pixel signals between the green pixels Gr and Gb, and if the level difference is less than the limit value, the level correction unit 27 outputs the pixel signals of the green pixels Gr and Gb so that the level difference becomes small. Arithmetic processing can be performed.

図3は、図2の固体撮像装置の画素の構成例を示す回路図である。
図3において、1つの画素PXには、フォトダイオードPD1〜PD4、行選択トランジスタTD、増幅トランジスタTA、リセットトランジスタTRおよび読み出しトランジスタTE1〜TE4が設けられている。フォトダイオードPD1〜PD4は、画素P1〜P4にそれぞれ含まれる。ここで、行選択トランジスタTD、増幅トランジスタTAおよびリセットトランジスタTRはフォトダイオードPD1〜PD4にて共用されている。読み出しトランジスタTE1〜TE4は、フォトダイオードPD1〜PD4ごとに設けられている。また、増幅トランジスタTAとリセットトランジスタTRと読み出しトランジスタTE1〜TE4との接続点には検出ノードとしてフローティングディフュージョンFDが形成されている。
FIG. 3 is a circuit diagram illustrating a configuration example of a pixel of the solid-state imaging device of FIG.
In FIG. 3, one pixel PX is provided with photodiodes PD1 to PD4, a row selection transistor TD, an amplification transistor TA, a reset transistor TR, and readout transistors TE1 to TE4. The photodiodes PD1 to PD4 are included in the pixels P1 to P4, respectively. Here, the row selection transistor TD, the amplification transistor TA, and the reset transistor TR are shared by the photodiodes PD1 to PD4. The read transistors TE1 to TE4 are provided for the photodiodes PD1 to PD4. In addition, a floating diffusion FD is formed as a detection node at a connection point between the amplification transistor TA, the reset transistor TR, and the read transistors TE1 to TE4.

読み出しトランジスタTE1のソースは、フォトダイオードPD1に接続され、読み出しトランジスタTE2のソースは、フォトダイオードPD2に接続され、読み出しトランジスタTE3のソースは、フォトダイオードPD3に接続され、読み出しトランジスタTE4のソースは、フォトダイオードPD4に接続されている。
リセットトランジスタTRのソースは、読み出しトランジスタTE1〜TE4のドレインに接続され、リセットトランジスタTRおよび増幅トランジスタTAのドレインは、電源電位VDDに接続されている。
行選択トランジスタTDのソースは、垂直信号線Vlinに接続され、増幅トランジスタTAのゲートは、読み出しトランジスタTE1〜TE4のドレインに接続され、行選択トランジスタTDのドレインは、増幅トランジスタTAのソースに接続されている。各読み出しトランジスタTE1〜TE4のゲートには、リード信号READ1〜READ4が印加される。リセットトランジスタTRのゲートには、リセット信号RESETが印加される。行選択トランジスタTDのゲートには、行選択信号ADRが印加される。リード信号READ1〜READ4、リセット信号RESETおよび行選択信号ADRは、図1の水平制御線Hlinを介してロウ方向RDに伝送される。各フォトダイオードPD1〜PD4から読み出された画素信号Vsigは、図1の垂直信号線Vlinを介してカラム方向CDに伝送される。
The source of the read transistor TE1 is connected to the photodiode PD1, the source of the read transistor TE2 is connected to the photodiode PD2, the source of the read transistor TE3 is connected to the photodiode PD3, and the source of the read transistor TE4 is connected to the photo diode It is connected to the diode PD4.
The source of the reset transistor TR is connected to the drains of the read transistors TE1 to TE4, and the drains of the reset transistor TR and the amplification transistor TA are connected to the power supply potential VDD.
The source of the row selection transistor TD is connected to the vertical signal line Vlin, the gate of the amplification transistor TA is connected to the drains of the read transistors TE1 to TE4, and the drain of the row selection transistor TD is connected to the source of the amplification transistor TA. ing. Read signals READ1 to READ4 are applied to the gates of the read transistors TE1 to TE4. A reset signal RESET is applied to the gate of the reset transistor TR. A row selection signal ADR is applied to the gate of the row selection transistor TD. The read signals READ1 to READ4, the reset signal RESET, and the row selection signal ADR are transmitted in the row direction RD via the horizontal control line Hlin in FIG. The pixel signal Vsig read from each of the photodiodes PD1 to PD4 is transmitted in the column direction CD through the vertical signal line Vlin in FIG.

図4は、図2の固体撮像装置の画素のレイアウト例を示す平面図である。なお、図4では、ベイヤ配列HPを成す4個のセルSE1〜SE4のレイアウト例を示した。
図4において、フォトダイオードPD1〜PD4が半導体基板SBに正方状に配置されることでセルSE1〜SE4がそれぞれ構成されている。
セルSE1〜SE4間には、行選択トランジスタTD、増幅トランジスタTAおよびリセットトランジスタTRが配置されている。行選択トランジスタTDおよび増幅トランジスタTAはロウ方向RDに隣接して配置されている。リセットトランジスタTRはカラム方向CDに配置されている。フォトダイオードPD1〜PD4の正方配置の中央には、フローティングディフュージョンFDが配置されている。各フォトダイオードPD1〜PD4とフローティングディフュージョンFDとの間には、読み出しトランジスタTE1〜TE4が配置されている。増幅トランジスタTAのゲート電極とフローティングディフュージョンFDは配線H1を介して接続され、リセットトランジスタTRのソースとフローティングディフュージョンFDは配線H2を介して接続されている。行選択トランジスタTDのソースは垂直信号線Vlinに接続されている。
FIG. 4 is a plan view illustrating a layout example of pixels of the solid-state imaging device of FIG. FIG. 4 shows a layout example of four cells SE1 to SE4 forming the Bayer array HP.
In FIG. 4, the cells SE1 to SE4 are configured by arranging photodiodes PD1 to PD4 in a square shape on the semiconductor substrate SB.
A row selection transistor TD, an amplification transistor TA, and a reset transistor TR are arranged between the cells SE1 to SE4. The row selection transistor TD and the amplification transistor TA are disposed adjacent to the row direction RD. The reset transistor TR is arranged in the column direction CD. A floating diffusion FD is arranged in the center of the square arrangement of the photodiodes PD1 to PD4. Read transistors TE1 to TE4 are arranged between the photodiodes PD1 to PD4 and the floating diffusion FD. The gate electrode of the amplification transistor TA and the floating diffusion FD are connected via the wiring H1, and the source of the reset transistor TR and the floating diffusion FD are connected via the wiring H2. The source of the row selection transistor TD is connected to the vertical signal line Vlin.

図5は、第1実施形態に係る固体撮像装置のレベル補正に使用される画素を示す図である。なお、図5では、ベイヤ配列HPを成す画素PXを3行×7列に渡って抜き出した場合を示す。この時、図5のラインL1に配置されている4個の緑色画素GbをGb1、Gb2、Gb3、Gb4で示した。図5のラインL2に配置されている3個の緑色画素GrをGr1、Gr2、Gr3で示した。図5のラインL3に配置されている4個の緑色画素GbをGb5、Gb6、Gb7、Gb8で示した。
図5において、補正対象画素が緑色画素Gr2であるものとする。この時、緑色画素Gr2の位置における緑色画素Gbの画素信号を求めるために、緑色画素Gr2の周囲に均等に配置されている8個の緑色画素Gb1〜Gb8の画素信号Sb1〜Sb8を参照することができる。
この時、緑色画素Gb1〜Gb8の画素信号Sb1〜Sb8の平均値AGbは、
AGb=(Sb1+Sb2++Sb3+Sb4++Sb5+Sb6+Sb7+Sb8)/8という式で与えられる。
また、緑色画素Gr2について、緑色画素Gr2の周囲に均等に配置されている緑色画素Gr1、Gr3の画素信号Sr1、Sr3を参照し、緑色画素Gr1〜Gr3の画素信号Sr1〜Sr3の加重平均値AGrを求めることができる。この時、加重平均値AGrは、
AGr=(Sr1+2×Sr2+Sr3)/4
という式で与えることができる。
緑色画素Gr2の位置における緑色画素Gbの画素信号を求めるために、3行×7列に渡って配置された緑色画素Gb1〜Gb8の画素信号Sb1〜Sb8を用いた。この時、3行×7列のエリアにおける画素の画素信号にバラツキがあると、そのバラツキも平均値AGbに反映される。このため、緑色画素Gr2についても、3行×7列に渡って配置された緑色画素Gr1、Gb2、Gr3の画素信号Sr1〜Sr3についての加重平均値AGrを算出することにより、3行×7列のエリアにおける画素の画素信号のバラツキを加重平均値AGrに反映させることができる。この時、補正対象の緑色画素Gb2の画素信号Sr2は、その周囲の緑色画素Gr1、Gr3の画素信号Sr1、Sr3に比べて重みを重くすることができる。
そして、緑色画素Gr2の位置における緑色画素Gbの画素信号と緑色画素Gr2の位置における緑色画素Grの画素信号のレベル差を平均値AGbと加重平均値AGrとの差分Sbで与えることができる。平均値AGbと加重平均値AGrとの差分Sbに基づいて緑色画素Gr2の画素信号を補正することができる。
この時、図4のレイアウトによる緑色画素Gr、Gbの配置位置に起因して緑色画素Gr、Gbへの入射光量に差異が生じたり、カメラモジュールの低背化に伴って周辺画素への入射光の傾きが大きくなったりすると、均一面の撮像時においても緑色画素Gr、Gbの画素信号にレベル差が発生する。ここで、緑色画素Gr、Gb間の画素信号のレベル差に基づいて、これらの画素信号を補正することにより、緑色画素Gr、Gb間の画素信号のレベル差を解消することができ、段差ノイズを低減することができる。
FIG. 5 is a diagram illustrating pixels used for level correction of the solid-state imaging device according to the first embodiment. FIG. 5 shows a case where the pixels PX forming the Bayer array HP are extracted over 3 rows × 7 columns. At this time, the four green pixels Gb arranged on the line L1 in FIG. 5 are indicated by Gb1, Gb2, Gb3, and Gb4. Three green pixels Gr arranged on the line L2 in FIG. 5 are denoted by Gr1, Gr2, and Gr3. The four green pixels Gb arranged on the line L3 in FIG. 5 are indicated by Gb5, Gb6, Gb7, and Gb8.
In FIG. 5, it is assumed that the correction target pixel is the green pixel Gr2. At this time, in order to obtain the pixel signal of the green pixel Gb at the position of the green pixel Gr2, refer to the pixel signals Sb1 to Sb8 of the eight green pixels Gb1 to Gb8 that are evenly arranged around the green pixel Gr2. Can do.
At this time, the average value AGb of the pixel signals Sb1 to Sb8 of the green pixels Gb1 to Gb8 is
AGb = (Sb1 + Sb2 + Sb3 + Sb4 +++ Sb5 + Sb6 + Sb7 + Sb8) / 8.
For the green pixel Gr2, the weighted average value AGr of the pixel signals Sr1 to Sr3 of the green pixels Gr1 to Gr3 is referenced with reference to the pixel signals Sr1 and Sr3 of the green pixels Gr1 and Gr3 that are evenly arranged around the green pixel Gr2. Can be requested. At this time, the weighted average value AGr is
AGr = (Sr1 + 2 × Sr2 + Sr3) / 4
It can be given by the formula
In order to obtain the pixel signal of the green pixel Gb at the position of the green pixel Gr2, the pixel signals Sb1 to Sb8 of the green pixels Gb1 to Gb8 arranged over 3 rows × 7 columns were used. At this time, if there is a variation in pixel signals of pixels in an area of 3 rows × 7 columns, the variation is also reflected in the average value AGb. Therefore, the green pixel Gr2 is also calculated by calculating the weighted average value AGr for the pixel signals Sr1 to Sr3 of the green pixels Gr1, Gb2, and Gr3 arranged over 3 rows × 7 columns, thereby obtaining 3 rows × 7 columns. The variation in the pixel signal of the pixels in the area can be reflected in the weighted average value AGr. At this time, the pixel signal Sr2 of the green pixel Gb2 to be corrected can be given a higher weight than the pixel signals Sr1 and Sr3 of the surrounding green pixels Gr1 and Gr3.
The level difference between the pixel signal of the green pixel Gb at the position of the green pixel Gr2 and the pixel signal of the green pixel Gr at the position of the green pixel Gr2 can be given by the difference Sb between the average value AGb and the weighted average value AGr. The pixel signal of the green pixel Gr2 can be corrected based on the difference Sb between the average value AGb and the weighted average value AGr.
At this time, there is a difference in the amount of light incident on the green pixels Gr and Gb due to the arrangement positions of the green pixels Gr and Gb according to the layout of FIG. 4, or the incident light on the peripheral pixels as the height of the camera module is reduced. When the inclination of the pixel becomes large, a level difference occurs in the pixel signals of the green pixels Gr and Gb even when imaging a uniform surface. Here, by correcting these pixel signals based on the level difference of the pixel signals between the green pixels Gr and Gb, the level difference of the pixel signals between the green pixels Gr and Gb can be eliminated, and step noise Can be reduced.

なお、図5の例では、緑色画素Gr2の位置における緑色画素Gbの画素信号を求めるために、緑色画素Gr2を中心とした3行×7列のエリアにおける緑色画素Gb1〜Gb8の画素信号を参照する方法について説明したが、緑色画素Gr2を中心とした3行×3列のエリアにおける緑色画素Gb2、Gb3、Gb6、Gb7の画素信号を参照するようにしてもよい。
この時、緑色画素Gb2、Gb3、Gb6、Gb7の画素信号Sb2、Sb3、Sb6、Sb7の平均値AGbは、
AGb=(Sb2+Sb3+Sb6+Sb7)/4という式で与えられる。
また、緑色画素Gr2については、緑色画素Gr2を中心とした3行×3列のエリアには、緑色画素Gr2以外の緑色画素Gbはないので、緑色画素Gr2の画素信号Sr2を差分Sbの算出に用いることができる。
In the example of FIG. 5, in order to obtain the pixel signal of the green pixel Gb at the position of the green pixel Gr2, refer to the pixel signals of the green pixels Gb1 to Gb8 in the area of 3 rows × 7 columns centering on the green pixel Gr2. However, the pixel signals of the green pixels Gb2, Gb3, Gb6, and Gb7 in the 3 × 3 area centered on the green pixel Gr2 may be referred to.
At this time, the average value AGb of the pixel signals Sb2, Sb3, Sb6, Sb7 of the green pixels Gb2, Gb3, Gb6, Gb7 is
AGb = (Sb2 + Sb3 + Sb6 + Sb7) / 4.
For the green pixel Gr2, since there is no green pixel Gb other than the green pixel Gr2 in the 3 × 3 area centered on the green pixel Gr2, the pixel signal Sr2 of the green pixel Gr2 is used to calculate the difference Sb. Can be used.

また、図5の例では、緑色画素Gr、Gb間の画素信号のレベル差として、画素信号Sb1〜Sb8の平均値AGbと画素信号Sr1〜Sr3の加重平均値AGrとの差分Sbを用いる方法について説明したが、各ベイヤ配列HPの緑色画素Gbの画素信号と緑色画素Grの画素信号との差分を用いるようにしてもよい。例えば、緑色画素Gr2と緑色画素Gb7との間のレベル差を解消するため、緑色画素Gr2の画素信号と緑色画素Gb7の画素信号との差分を求め、この差分が0に近づくように緑色画素Gr2、Gb7の画素信号を補正するようにしてもよい。   In the example of FIG. 5, a method of using the difference Sb between the average value AGb of the pixel signals Sb1 to Sb8 and the weighted average value AGr of the pixel signals Sr1 to Sr3 as the level difference of the pixel signal between the green pixels Gr and Gb. As described above, the difference between the pixel signal of the green pixel Gb and the pixel signal of the green pixel Gr in each Bayer array HP may be used. For example, in order to eliminate the level difference between the green pixel Gr2 and the green pixel Gb7, a difference between the pixel signal of the green pixel Gr2 and the pixel signal of the green pixel Gb7 is obtained, and the green pixel Gr2 is set so that this difference approaches zero. , Gb7 pixel signals may be corrected.

図6は、図1のレベル補正部の構成例を示すブロック図である。
図6において、レベル補正部27には、1H遅延用SRAM31、32、G画素フィルタ33、34、差分検出部35、入力制限部36、2次曲線係数算出回路37、乗算器38および加算器39が設けられている。1H遅延用SRAM31は、キズ補正部26の出力を1水平期間(以下、1Hと略す)だけ遅延させる。なお、1水平期間は、画素アレイ部1をロウ方向RDに1ライン分だけ走査するのにかかる時間である。1H遅延用SRAM32は、1H遅延用SRAM31の出力を1Hだけ遅延させる。G画素フィルタ33は、緑色画素Gr1〜Gr3の画素信号Sr1〜Sr3の加重平均値AGrを求める。G画素フィルタ34は、緑色画素Gb1〜Gb8の画素信号Sb1〜Sb8の平均値AGbを求める。差分検出部35は、平均値AGbと加重平均値AGrとの差分Sbを求める。入力制限部36は、平均値AGbと加重平均値AGrとの差分Sbが制限値lim以上の場合、緑色画素Grの画素信号Srの補正量Hsを制限する。2次曲線係数算出回路37は、画素アレイ部1の画像中心からの補正対象画素の位置に基づいて、補正対象画素の補正量Hsの導出に用いられる係数K×Paを算出する。この時、補正対象画素の位置の導出には、水平同期信号SHおよび垂直同期信号SVのカウント値を用いることができる。乗算器38は、入力制限部36の出力Smに係数K×Paを乗算する。加算器39は、画素信号Srに補正量Hsを加算する。
FIG. 6 is a block diagram illustrating a configuration example of the level correction unit in FIG.
In FIG. 6, the level correction unit 27 includes 1H delay SRAMs 31 and 32, G pixel filters 33 and 34, a difference detection unit 35, an input limiting unit 36, a quadratic curve coefficient calculation circuit 37, a multiplier 38, and an adder 39. Is provided. The 1H delay SRAM 31 delays the output of the defect correction unit 26 by one horizontal period (hereinafter abbreviated as 1H). One horizontal period is a time required for scanning the pixel array unit 1 by one line in the row direction RD. The 1H delay SRAM 32 delays the output of the 1H delay SRAM 31 by 1H. The G pixel filter 33 obtains a weighted average value AGr of the pixel signals Sr1 to Sr3 of the green pixels Gr1 to Gr3. The G pixel filter 34 obtains an average value AGb of the pixel signals Sb1 to Sb8 of the green pixels Gb1 to Gb8. The difference detection unit 35 obtains a difference Sb between the average value AGb and the weighted average value AGr. When the difference Sb between the average value AGb and the weighted average value AGr is equal to or greater than the limit value lim, the input limiting unit 36 limits the correction amount Hs of the pixel signal Sr of the green pixel Gr. The quadratic curve coefficient calculation circuit 37 calculates a coefficient K × Pa used to derive the correction amount Hs of the correction target pixel based on the position of the correction target pixel from the image center of the pixel array unit 1. At this time, the count values of the horizontal synchronization signal SH and the vertical synchronization signal SV can be used to derive the position of the correction target pixel. The multiplier 38 multiplies the output Sm of the input limiting unit 36 by a coefficient K × Pa. The adder 39 adds the correction amount Hs to the pixel signal Sr.

そして、1H遅延用SRAM31にて1Hだけ遅延された画素信号SrはG画素フィルタ33に入力される。また、緑色画素Gbの画素信号Sbと、1H遅延用SRAM31、32にて2Hだけ遅延された画素信号SbはG画素フィルタ34に入力される。この時、G画素フィルタ33は、図5のラインL2の画素信号Sr1〜Sr3を受け取り、G画素フィルタ34は、図5のラインL1、L3の画素信号Sb1〜Sb8を受け取ることができる。そして、G画素フィルタ33において、画素信号Sr1〜Sr3から加重平均値AGrが算出され、差分検出部35および入力制限部36に出力される。また、G画素フィルタ34において、画素信号Sb1〜Sb8から平均値AGbが算出され、差分検出部35に出力される。そして、差分検出部35において、平均値AGbと加重平均値AGrとの差分Sbが算出され、入力制限部36に出力される。そして、入力制限部36において、−lim<Sb<limという条件を満たすかどうかが判定され、−lim<Sb<limという条件を満たす場合、入力制限部36の出力Smが加重平均値AGrに設定される。一方、−lim<Sb<limという条件を満たさない場合、補正量Hsが制限されるように入力制限部36の出力Smが設定される。   The pixel signal Sr delayed by 1H in the 1H delay SRAM 31 is input to the G pixel filter 33. The pixel signal Sb of the green pixel Gb and the pixel signal Sb delayed by 2H in the 1H delay SRAMs 31 and 32 are input to the G pixel filter 34. At this time, the G pixel filter 33 can receive the pixel signals Sr1 to Sr3 of the line L2 in FIG. 5, and the G pixel filter 34 can receive the pixel signals Sb1 to Sb8 of the lines L1 and L3 in FIG. Then, the G pixel filter 33 calculates a weighted average value AGr from the pixel signals Sr <b> 1 to Sr <b> 3 and outputs it to the difference detection unit 35 and the input restriction unit 36. In the G pixel filter 34, the average value AGb is calculated from the pixel signals Sb <b> 1 to Sb <b> 8 and output to the difference detection unit 35. Then, the difference detection unit 35 calculates a difference Sb between the average value AGb and the weighted average value AGr and outputs the difference Sb to the input restriction unit 36. Then, the input limiting unit 36 determines whether or not the condition −lim <Sb <lim is satisfied. When the condition −lim <Sb <lim is satisfied, the output Sm of the input limiting unit 36 is set to the weighted average value AGr. Is done. On the other hand, when the condition −lim <Sb <lim is not satisfied, the output Sm of the input restriction unit 36 is set so that the correction amount Hs is restricted.

図7は、図6の入力制限部の入出力特性の一例を示す図である。なお、図7の例では、三角リミッタ方式にて入力制限部36の出力Smを設定する方法について示した。
図7において、−lim<Sb<limという条件を満たす場合、入力制限部36から差分Sbがそのまま出力される。一方、−lim<Sb<limという条件を満たさない場合、差分Sbが減少された値が入力制限部36から出力される。
例えば、差分Sbが正の場合、入力制限部36の出力Smは以下の式で与えることができる。
・Sb<limならばSm=Sb
・Sb=limならばSm=lim
・Sb<2×limならばSm=2×lim−Sb
・それ以外ならばSm=0
なお、制限値limは、加重平均値AGrに応じて設定することができ、例えば、加重平均値AGrの2%程度の値に設定することができる。また、図7の例では、三角リミッタ方式にて入力制限部36の出力Smを設定する方法について示したが、クリップ方式にて入力制限部36の出力Smを設定するようにしてもよい。
一方、2次曲線係数算出回路37において、画素アレイ部1の画像中心からの補正対象画素の位置に基づいて係数K×Paが算出され、乗算器38に出力される。
FIG. 7 is a diagram illustrating an example of input / output characteristics of the input restriction unit in FIG. 6. In the example of FIG. 7, the method of setting the output Sm of the input limiting unit 36 by the triangular limiter method is shown.
In FIG. 7, if the condition −lim <Sb <lim is satisfied, the difference Sb is output as it is from the input restriction unit 36. On the other hand, when the condition of −lim <Sb <lim is not satisfied, a value obtained by reducing the difference Sb is output from the input restriction unit 36.
For example, when the difference Sb is positive, the output Sm of the input restriction unit 36 can be given by the following expression.
If Sb <lim, Sm = Sb
If Sb = lim, then Sm = lim
If Sb <2 × lim, Sm = 2 × lim−Sb
・ Sm = 0 otherwise
The limit value lim can be set according to the weighted average value AGr. For example, the limit value lim can be set to a value of about 2% of the weighted average value AGr. In the example of FIG. 7, the method of setting the output Sm of the input restriction unit 36 by the triangle limiter method has been described. However, the output Sm of the input restriction unit 36 may be set by the clip method.
On the other hand, the quadratic curve coefficient calculation circuit 37 calculates a coefficient K × Pa based on the position of the correction target pixel from the image center of the pixel array unit 1 and outputs the coefficient K × Pa to the multiplier 38.

図8は、第1実施形態に係る固体撮像装置のレベル補正に用いられる2次曲線係数の設定例を示す図である。
図8において、画素アレイ部1の画像中心Scの水平位置および垂直位置が(Ch,Cv)で与えられるものとする。この時、画素アレイ部1の画像中心Scからの補正対象画素の位置に応じた2次曲線式Paは、以下の式で与えることができる。
Pa=(H−Ch)+(V−Cv)
ただし、Hは水平同期信号SHのカウント値、Vは垂直同期信号SVのカウント値である。2次曲線式Paに定数Kをかけることで係数K×Paを算出することができる。定数Kは、2次曲線式Paの最大値が1以下になるように設定することができる。
FIG. 8 is a diagram illustrating a setting example of a quadratic curve coefficient used for level correction of the solid-state imaging device according to the first embodiment.
In FIG. 8, it is assumed that the horizontal position and the vertical position of the image center Sc of the pixel array unit 1 are given by (Ch, Cv). At this time, a quadratic curve equation Pa corresponding to the position of the correction target pixel from the image center Sc of the pixel array unit 1 can be given by the following equation.
Pa = (H−Ch) 2 + (V−Cv) 2
However, H is the count value of the horizontal synchronizing signal SH, and V is the count value of the vertical synchronizing signal SV. The coefficient K × Pa can be calculated by multiplying the quadratic curve equation Pa by a constant K. The constant K can be set so that the maximum value of the quadratic curve equation Pa is 1 or less.

そして、乗算器38において、入力制限部36の出力Smに係数K×Paが乗算されることで、補正量Hsが算出される。そして、加算器39において、画素信号Srに補正量Hsが加算されることで、段差ノイズが低減される。   Then, the multiplier 38 multiplies the output Sm of the input limiting unit 36 by the coefficient K × Pa, thereby calculating the correction amount Hs. Then, in the adder 39, the step noise is reduced by adding the correction amount Hs to the pixel signal Sr.

図9(a)は、被写体のレベル差の一例を示す図、図9(b)は、画素間のレベル差の一例を示す図である。
図9(a)および図9(b)において、一般的には、被写体の輝度のレベル差LBは、段差ノイズに起因する画素間のレベル差LGよりも大きい。この時、画素アレイ部1の画像中心Scから端部に向かって入射光LIの入射角が大きくなると、段差ノイズに起因する画素間のレベル差LGが増大する。
ここで、入力制限部36を設けることにより、被写体の輝度のレベル差LBを維持しつつ、段差ノイズを低減することが可能となる。また、2次曲線係数算出回路37を設けることにより、画素アレイ部1の画像中心Scからの補正対象画素の位置に起因する段差ノイズの増大に応じて補正量Hsを増大させることが可能となる。
FIG. 9A is a diagram illustrating an example of a level difference between subjects, and FIG. 9B is a diagram illustrating an example of a level difference between pixels.
In FIG. 9A and FIG. 9B, generally, the luminance level difference LB of the subject is larger than the inter-pixel level difference LG caused by step noise. At this time, when the incident angle of the incident light LI increases from the image center Sc of the pixel array unit 1 toward the end, the level difference LG between the pixels due to the step noise increases.
Here, by providing the input restriction unit 36, it is possible to reduce the step noise while maintaining the luminance level difference LB of the subject. Also, by providing the quadratic curve coefficient calculation circuit 37, the correction amount Hs can be increased in accordance with the increase in the step noise caused by the position of the correction target pixel from the image center Sc of the pixel array unit 1. .

(第2実施形態)
図10は、第2実施形態に係る固体撮像装置の概略構成を示すブロック図である。
図10の構成では、図1の画像処理部24の代わりに画像処理部24´が設けられている。画像処理部24´には、図1のレベル補正部27の代わりにレベル補正部27´が設けられている。レベル補正部27´では、図6の2次曲線係数算出回路37が削除されている。そして、シェーディング係数Ksがシェーディング係数算出部29から加算器39に入力される。そして、乗算器38において、入力制限部36の出力Smにシェーディング係数Ksが乗算されることで、補正量Hsが算出される。
ここで、光学シェーディングが大きくなると、画素アレイ部1の端部で入射光LIの入射角が大きくなり、画素アレイ部1の端部での段差ノイズが増大する。この時、シェーディング係数Ksを補正量Hsの算出に用いることにより、レンズ21の光学特性を補償するように補正量Hsを算出することができ、補正精度を向上させることができる。
(Second Embodiment)
FIG. 10 is a block diagram illustrating a schematic configuration of the solid-state imaging apparatus according to the second embodiment.
In the configuration of FIG. 10, an image processing unit 24 ′ is provided instead of the image processing unit 24 of FIG. The image processing unit 24 ′ is provided with a level correction unit 27 ′ instead of the level correction unit 27 of FIG. In the level correction unit 27 ′, the quadratic curve coefficient calculation circuit 37 of FIG. 6 is deleted. Then, the shading coefficient Ks is input from the shading coefficient calculation unit 29 to the adder 39. Then, the multiplier 38 multiplies the output Sm of the input restriction unit 36 by the shading coefficient Ks to calculate the correction amount Hs.
Here, when the optical shading increases, the incident angle of the incident light LI increases at the end of the pixel array unit 1, and the step noise at the end of the pixel array unit 1 increases. At this time, by using the shading coefficient Ks for calculation of the correction amount Hs, the correction amount Hs can be calculated so as to compensate for the optical characteristics of the lens 21, and the correction accuracy can be improved.

図11は、図10の固体撮像装置のレベル補正に用いられるシェーディング係数の一例を示す図である。
図11において、補正対象画素の位置Dkが画素アレイ部1の画像中心Scから離れるに従ってシェーディング係数Ksが増大する。このため、シェーディング係数Ksを補正量Hsの算出に用いることにより、画素アレイ部1の端部での段差ノイズの増大に応じて補正量Hsを増大させることができる。
FIG. 11 is a diagram illustrating an example of a shading coefficient used for level correction of the solid-state imaging device of FIG.
In FIG. 11, the shading coefficient Ks increases as the position Dk of the correction target pixel moves away from the image center Sc of the pixel array unit 1. For this reason, by using the shading coefficient Ks for calculation of the correction amount Hs, the correction amount Hs can be increased according to an increase in the step noise at the end of the pixel array unit 1.

(第3実施形態)
図12は、第3実施形態に係る固体撮像装置のレベル補正に用いられる2次曲線係数の設定方法を示す図である。
図12において、図6の2次曲線式Paを算出する場合、画素アレイ部1を分割する。図12の例では、画素アレイ部1を4個の領域EA〜EDに分割した場合を示した。この時、2次曲線式Paは、以下の式で与えることができる。
Pa=A(H−Ch)+B(V−Cv)
ただし、係数A、Bは領域EA〜EDごとに別個に設定することができる。ここで、係数A、Bを領域EA〜EDごとに別個に設定することにより、2次曲線式Paとレンズ21の光学特性との整合性を向上させることができ、補正精度を向上させることができる。
(Third embodiment)
FIG. 12 is a diagram illustrating a method of setting a quadratic curve coefficient used for level correction of the solid-state imaging device according to the third embodiment.
In FIG. 12, when calculating the quadratic curve equation Pa in FIG. 6, the pixel array unit 1 is divided. In the example of FIG. 12, the pixel array unit 1 is divided into four areas EA to ED. At this time, the quadratic curve equation Pa can be given by the following equation.
Pa = A (H−Ch) 2 + B (V−Cv) 2
However, the coefficients A and B can be set separately for each of the areas EA to ED. Here, by separately setting the coefficients A and B for each of the areas EA to ED, the consistency between the quadratic curve formula Pa and the optical characteristics of the lens 21 can be improved, and the correction accuracy can be improved. it can.

(第4実施形態)
図13は、第4実施形態に係る固体撮像装置が適用されるデジタルカメラの概略構成を示すブロック図である。
図13において、デジタルカメラ51は、カメラモジュール52および後段処理部53を有する。カメラモジュール52は、撮像光学系54および固体撮像装置55を有する。後段処理部53は、イメージシグナルプロセッサ(ISP)56、記憶部57および表示部58を有する。なお、図1の画像処理部24はイメージシグナルプロセッサ56に設けることができる。また、ISP56の少なくとも一部の構成は固体撮像装置55とともに1チップ化するようにしてもよい。固体撮像装置55は、図2の構成を用いることができる。
(Fourth embodiment)
FIG. 13 is a block diagram illustrating a schematic configuration of a digital camera to which the solid-state imaging device according to the fourth embodiment is applied.
In FIG. 13, the digital camera 51 includes a camera module 52 and a post-processing unit 53. The camera module 52 includes an imaging optical system 54 and a solid-state imaging device 55. The post-processing unit 53 includes an image signal processor (ISP) 56, a storage unit 57, and a display unit 58. 1 can be provided in the image signal processor 56. Further, at least a part of the configuration of the ISP 56 may be integrated into one chip together with the solid-state imaging device 55. The solid-state imaging device 55 can use the configuration shown in FIG.

撮像光学系54は、入射光LIを取り込み、被写体像を結像させる。固体撮像装置55は、被写体像を撮像する。ISP56は、固体撮像装置55での撮像により得られた画像信号を信号処理する。記憶部57は、ISP56での信号処理を経た画像を格納する。記憶部57は、ユーザの操作等に応じて、表示部58へ画像信号を出力する。表示部58は、ISP56あるいは記憶部57から入力される画像信号に応じて、画像を表示する。表示部58は、例えば、液晶ディスプレイである。なお、カメラモジュール52は、デジタルカメラ51以外にも、例えばカメラ付き携帯端末またはスマートフォン等の電子機器に適用するようにしてもよい。   The imaging optical system 54 takes in the incident light LI and forms a subject image. The solid-state imaging device 55 captures a subject image. The ISP 56 performs signal processing on an image signal obtained by imaging with the solid-state imaging device 55. The storage unit 57 stores an image that has undergone signal processing in the ISP 56. The storage unit 57 outputs an image signal to the display unit 58 in accordance with a user operation or the like. The display unit 58 displays an image according to an image signal input from the ISP 56 or the storage unit 57. The display unit 58 is, for example, a liquid crystal display. In addition to the digital camera 51, the camera module 52 may be applied to an electronic device such as a camera-equipped mobile terminal or a smartphone.

(第5実施形態)
図14は、第5実施形態に係る固体撮像装置が適用されるカメラモジュールの概略構成を示す断面図である。
図14において、レンズ21で集光された入射光LIは、メインミラー101、サブミラー102及びメカシャッタ106を経て撮像素子107へ進行する。カメラモジュール100は、撮像素子107において被写体像を撮像する。撮像素子107は、図1の構成を用いることができる。
サブミラー102で反射した光は、オートフォーカス(AF)センサ103へ進行する。カメラモジュール100は、AFセンサ103での検出結果を使用するフォーカス調整を行う。メインミラー101で反射した光は、レンズ104及びプリズム105を経てファインダー108へ進行する。
(Fifth embodiment)
FIG. 14 is a cross-sectional view illustrating a schematic configuration of a camera module to which the solid-state imaging device according to the fifth embodiment is applied.
In FIG. 14, incident light LI collected by the lens 21 travels to the image sensor 107 through the main mirror 101, the sub mirror 102, and the mechanical shutter 106. The camera module 100 captures a subject image with the image sensor 107. The imaging element 107 can use the configuration shown in FIG.
The light reflected by the sub mirror 102 travels to the autofocus (AF) sensor 103. The camera module 100 performs focus adjustment using the detection result of the AF sensor 103. The light reflected by the main mirror 101 travels to the finder 108 through the lens 104 and the prism 105.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 画素アレイ部、2 垂直走査回路、3 負荷回路、4 カラムADC回路、5 水平走査回路、6 基準電圧発生回路、7 タイミング制御回路、Vlin 垂直信号線、Hlin 水平制御線、PX、P1〜P4 画素、HP ベイヤ配列、Gr、Gb 緑色画素、R 赤色画素、B 青色画素   1 pixel array unit, 2 vertical scanning circuit, 3 load circuit, 4 column ADC circuit, 5 horizontal scanning circuit, 6 reference voltage generating circuit, 7 timing control circuit, Vlin vertical signal line, Hlin horizontal control line, PX, P1 to P4 Pixel, HP Bayer array, Gr, Gb Green pixel, R Red pixel, B Blue pixel

Claims (5)

互いに隣り合い配置され、感度が互いに等しくかつ同色の第1画素と第2画素との間の画素信号のレベル差を検出する差分検出部と、
前記レベル差が制限値に満たない場合、前記レベル差が小さくなるように前記画素信号を演算処理する演算処理部とを備えるレベル補正装置。
A difference detection unit that is arranged adjacent to each other, detects the level difference of the pixel signals between the first pixel and the second pixel having the same sensitivity and the same color;
A level correction apparatus comprising: an arithmetic processing unit that performs arithmetic processing on the pixel signal so that the level difference is reduced when the level difference is less than a limit value.
前記第1画素はベイヤ配列における第1緑色画素、前記第2画素は前記ベイヤ配列における第2緑色画素である請求項1に記載のレベル補正装置。   2. The level correction apparatus according to claim 1, wherein the first pixel is a first green pixel in a Bayer array, and the second pixel is a second green pixel in the Bayer array. 画素がロウ方向およびカラム方向に配置された画素アレイ部と、
前記画素アレイ部の互いに異なる位置に配置された第1画素と第2画素において、前記第1画素が前記第2画素の位置にある時の前記第1画素の画素信号のレベルの算出値に基づいて、前記第2画素の画素信号を補正するレベル補正部とを備える固体撮像装置。
A pixel array unit in which pixels are arranged in a row direction and a column direction;
Based on the calculated value of the level of the pixel signal of the first pixel when the first pixel is located at the position of the second pixel in the first pixel and the second pixel arranged at different positions in the pixel array unit. And a level correction unit that corrects the pixel signal of the second pixel.
前記第1画素の画素信号のレベルの算出値は、前記第2画素の周囲に均等に配置された前記第1画素の画素信号の平均値である請求項3に記載の固体撮像装置。   4. The solid-state imaging device according to claim 3, wherein the calculated value of the pixel signal level of the first pixel is an average value of the pixel signals of the first pixels arranged evenly around the second pixel. 前記レベル補正部は、前記第1画素の画素信号と前記第2画素の画素信号とのレベル差が制限値に満たない場合、前記レベル差に基づいて前記画素信号の補正量を設定し、前記レベル差が制限値以上の場合、前記画素信号の補正量を制限する入力制限部と、
前記画素アレイ部の画像中心からの前記第1画素の位置に基づいて、前記補正量の導出に用いられる係数を算出する係数算出部とを備える請求項3または4に記載の固体撮像装置。
The level correction unit sets the correction amount of the pixel signal based on the level difference when the level difference between the pixel signal of the first pixel and the pixel signal of the second pixel is less than a limit value, When the level difference is greater than or equal to a limit value, an input limiter that limits the correction amount of the pixel signal;
5. The solid-state imaging device according to claim 3, further comprising: a coefficient calculation unit that calculates a coefficient used for deriving the correction amount based on a position of the first pixel from an image center of the pixel array unit.
JP2015179848A 2015-09-11 2015-09-11 Level correction device and solid state image pickup device Pending JP2017055345A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015179848A JP2017055345A (en) 2015-09-11 2015-09-11 Level correction device and solid state image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015179848A JP2017055345A (en) 2015-09-11 2015-09-11 Level correction device and solid state image pickup device

Publications (1)

Publication Number Publication Date
JP2017055345A true JP2017055345A (en) 2017-03-16

Family

ID=58321509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015179848A Pending JP2017055345A (en) 2015-09-11 2015-09-11 Level correction device and solid state image pickup device

Country Status (1)

Country Link
JP (1) JP2017055345A (en)

Similar Documents

Publication Publication Date Title
US10015426B2 (en) Solid-state imaging element and driving method therefor, and electronic apparatus
KR101469400B1 (en) Image sensor and image capturing apparatus
US8175450B2 (en) Focal point detection device and camera system
JP2018067944A (en) Imaging apparatus and solid-state imaging device
JP6509018B2 (en) Solid-state imaging device, imaging system and signal processing method
JP5746521B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6414718B2 (en) Imaging device
US10200593B2 (en) Image capturing apparatus and control method thereof
US11290648B2 (en) Image capture apparatus and control method thereof
KR20130129313A (en) Solid-state image pickup device and image pickup apparatus
JPWO2014041845A1 (en) Imaging apparatus and signal processing method
JP2013118573A (en) Imaging apparatus
JP2015103971A (en) Solid-state imaging device and digital camera
JP2012191378A (en) Imaging apparatus
JP6580111B2 (en) Imaging device and imaging apparatus
JP2017055345A (en) Level correction device and solid state image pickup device
JP2018019139A (en) Imaging device and control method of imaging device
JP2015012373A (en) Solid-state imaging device
JP2013235053A (en) Focus detection device, control method therefor, control program, and imaging apparatus
US20150146034A1 (en) Solid-state imaging device and digital camera
US20150264330A1 (en) Solid state imaging device and camera system
JP2010178384A (en) Image signal processing circuit, camera and image signal processing method
JP2015005880A (en) Imaging element and imaging device
KR101597879B1 (en) Optical system of electrical equipment, electrical equipment, and camera
JP2017049410A (en) Camera module