JP2012220790A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012220790A
JP2012220790A JP2011087697A JP2011087697A JP2012220790A JP 2012220790 A JP2012220790 A JP 2012220790A JP 2011087697 A JP2011087697 A JP 2011087697A JP 2011087697 A JP2011087697 A JP 2011087697A JP 2012220790 A JP2012220790 A JP 2012220790A
Authority
JP
Japan
Prior art keywords
pixel
pixel group
light
amount
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011087697A
Other languages
Japanese (ja)
Inventor
Hideaki Yamamoto
英明 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011087697A priority Critical patent/JP2012220790A/en
Publication of JP2012220790A publication Critical patent/JP2012220790A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable precise detection of a focus by appropriately correcting a crosstalk even under a photography condition in which an imaging pixel adjacent to a focus detection pixel is saturated.SOLUTION: The imaging apparatus comprises: an imager having a first pixel group that receives a luminous flux that passes through a first pupil area of an imaging optical system that forms a subject image, and a second pixel group that receives a luminous flux that passes through a second pupil area narrower than the first pupil area; a determination part that determines whether a quantity of light accumulated in the first pixel group has reached a saturated value; and a received light quantity estimating part that estimates a quantity of received light of a pixel determined by the determination part that the pixel has been saturated. Using received light sensitivity distribution in a pupil surface of the imaging optical system of the first pixel group, a received light sensitivity distribution in a pupil surface of the imaging optical system of the second pixel group, and vignette information of the imaging optical system, the received light quantity estimating part calculates a received light quantity ratio of the first pixel group to the second pixel group. The quantity of light received by the second pixel group is multiplied by the received light quantity ratio, thereby estimating the quantity of light received by the first pixel group.

Description

本発明は、撮影光学系の焦点調節が可能な撮像装置に関するものである。   The present invention relates to an imaging apparatus capable of adjusting the focus of a photographing optical system.

撮影レンズの焦点状態を検出する方式の一つとして、センサの各画素にマイクロレンズが形成された2次元のセンサを用いて瞳分割方式の焦点検出を行う装置が特許文献1に開示されている。特許文献1の装置では、センサを構成する各画素の光電変換部が複数に分割されており、分割された光電変換部がマイクロレンズを介して撮影レンズの瞳の異なる領域を受光するように構成されている。   As one of methods for detecting the focus state of a photographing lens, Patent Document 1 discloses an apparatus that performs focus detection by a pupil division method using a two-dimensional sensor in which a microlens is formed in each pixel of the sensor. . In the device of Patent Document 1, the photoelectric conversion unit of each pixel constituting the sensor is divided into a plurality of parts, and the divided photoelectric conversion unit is configured to receive different areas of the pupil of the photographing lens through the microlens. Has been.

また特許文献2では、マイクロレンズと光電変換部の相対位置を偏位させた画素を2次元的に配置した、イメージセンサを兼ねた固体撮像装置を開示している。特許文献2の固体撮像装置では、撮影レンズの焦点状態を検出する時は、マイクロレンズと光電変換部の相対偏位方向が異なる画素列で生成される像に基づいて撮影レンズの焦点状態を検出している。一方通常の画像を撮像するときは、マイクロレンズと光電変換部の相対偏位方向が異なる画素を加算することにより、画像を生成している。   Patent Document 2 discloses a solid-state imaging device that also serves as an image sensor in which pixels in which the relative positions of a microlens and a photoelectric conversion unit are displaced are two-dimensionally arranged. In the solid-state imaging device of Patent Document 2, when detecting the focus state of the photographic lens, the focus state of the photographic lens is detected based on an image generated by a pixel array having different relative displacement directions of the microlens and the photoelectric conversion unit. is doing. On the other hand, when a normal image is captured, an image is generated by adding pixels having different relative displacement directions between the microlens and the photoelectric conversion unit.

また、デジタルスチルカメラに用いられるCMOS型イメージセンサ(固体撮像装置)を用いて瞳分割方式の焦点検出を行う固体撮像装置が特許文献3に開示されている。特許文献3の固体撮像装置は、固体撮像装置を構成する多数の画素のうち一部の画素は撮影レンズの焦点状態を検出するために光電変換部が2つに分割された構成になっている。光電変換部は、マイクロレンズを介して撮影レンズの瞳の所定領域を受光するように構成されている。   Further, Patent Document 3 discloses a solid-state imaging device that performs pupil-division focus detection using a CMOS image sensor (solid-state imaging device) used in a digital still camera. The solid-state imaging device of Patent Document 3 has a configuration in which some of the many pixels constituting the solid-state imaging device have a photoelectric conversion unit divided into two in order to detect the focus state of the photographic lens. . The photoelectric conversion unit is configured to receive a predetermined region of the pupil of the photographing lens via the microlens.

図18は、特許文献3に開示されている固体撮像装置の中央に位置する焦点検出を行う画素の受光分布の説明図で、2つに分割された光電変換部がそれぞれ受光可能な撮影レンズの瞳上の領域を示している。図中円内の斜線部は撮影レンズの射出瞳を示し、白抜きされた領域Sα、領域Sβは2つに分割された光電変換部の受光可能な領域で、通常撮影レンズの光軸(図中x軸とy軸の交点)に対して対称になるように設定されている。   FIG. 18 is an explanatory diagram of a light reception distribution of a pixel that performs focus detection located in the center of the solid-state imaging device disclosed in Patent Document 3, and illustrates a photographic lens that can be received by each of the two photoelectric conversion units. The area on the pupil is shown. In the figure, the hatched portion in the circle indicates the exit pupil of the photographic lens, and the white area Sα and the area Sβ are areas that can be received by the photoelectric conversion unit divided into two, and the optical axis of the normal photographic lens (see FIG. It is set to be symmetric with respect to the intersection of the middle x axis and the y axis.

カメラにおいては、撮影レンズの瞳上の領域Sαを透過した光束により生成された像と領域Sβを透過した光束により生成される像の相関演算を行って、撮影レンズの焦点状態が検出される。撮影レンズの異なる瞳領域を透過した光束より生成される像の相関演算を行って焦点検出を行う方法は、特許文献4に開示されている。   In the camera, the focal state of the photographic lens is detected by performing a correlation operation between the image generated by the light beam transmitted through the region Sα on the pupil of the photographic lens and the image generated by the light beam transmitted through the region Sβ. A method of performing focus detection by performing correlation calculation of images generated from light beams transmitted through different pupil regions of the photographing lens is disclosed in Patent Document 4.

また、特許文献4では、カメラに格納された特定のフィルターを口径比、射出瞳位置、像ズレ量によって変形し、該変形フィルターを被写体像に適応したのち、結像状態を検出する技術が開示されている。   Patent Document 4 discloses a technique for detecting a focusing state after a specific filter stored in a camera is deformed by an aperture ratio, an exit pupil position, and an image shift amount, and the deformation filter is adapted to a subject image. Has been.

特開昭58−24105号公報(第2頁、図1)JP 58-24105 (2nd page, FIG. 1) 特許第2959142号公報(第2頁、図2)Japanese Patent No. 2959142 (2nd page, FIG. 2) 特開2005−106994号公報(第7頁、図3)Japanese Patent Laying-Open No. 2005-106994 (page 7, FIG. 3) 特開平5−127074号公報(第15頁、図34)JP-A-5-127074 (page 15, FIG. 34)

しかしながら、上記構成の撮像素子内の焦点検出用画素には、焦点検出用画素の出力値が、実際に焦点検出用画素のマイクロレンズを通過し光電変換部で光電変換され出力される値よりも、大きくなるという問題がある。これは、次のような2つの要因による。1つは、焦点検出用画素の隣接画素に入光する光線が、カラーフィルタを通過した後、焦点検出用画素の光電変換部に漏れこむという光学的要因である。また、もう1つは、隣接画素のシリコン基板内部で発生した光電子が焦点検出用画素に拡散して混入するという電子的要因である。この隣接画素からの漏れ込みをクロストークと呼んでいる。いずれの要因にしても、焦点検出用画素出力値から、隣接画素出力値に一定の係数を掛けたクロストーク補正値を減算することで、焦点検出用画素出力を補正し、クロストークの影響を軽減することが出来る。   However, in the focus detection pixel in the imaging device having the above-described configuration, the output value of the focus detection pixel is larger than the value that actually passes through the microlens of the focus detection pixel and is photoelectrically converted and output by the photoelectric conversion unit. There is a problem of becoming larger. This is due to the following two factors. One is an optical factor that a light beam entering an adjacent pixel of the focus detection pixel leaks into the photoelectric conversion unit of the focus detection pixel after passing through the color filter. The other is an electronic factor that photoelectrons generated inside the silicon substrate of an adjacent pixel are diffused and mixed into the focus detection pixels. This leakage from the adjacent pixels is called crosstalk. Regardless of the factor, the focus detection pixel output is corrected by subtracting the crosstalk correction value obtained by multiplying the adjacent pixel output value by a certain coefficient from the focus detection pixel output value. It can be reduced.

しかし、上記のクロストーク補正方法では、焦点検出用画素の隣接画素出力値が飽和していると、正しく補正を行うことができない。それは、飽和した隣接画素出力値にある係数を掛けたクロストーク補正値は、実際に必要なクロストーク補正値より小さくなることによる。それにより、焦点検出精度の低下を引き起こしてしまうという問題があった。   However, in the crosstalk correction method described above, if the adjacent pixel output value of the focus detection pixel is saturated, correct correction cannot be performed. This is because the crosstalk correction value obtained by multiplying the saturated adjacent pixel output value by a certain coefficient is smaller than the actually required crosstalk correction value. As a result, there is a problem that the focus detection accuracy is lowered.

本発明は、上述した課題に鑑みてなされたものであり、その目的は、焦点検出用画素に隣接する撮像用画素が飽和する撮影条件においても、適切なクロストーク補正を行い、より精度良く焦点検出を行えるようにすることである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to perform appropriate crosstalk correction and perform focusing more accurately even under shooting conditions in which imaging pixels adjacent to focus detection pixels are saturated. It is to enable detection.

本発明に係わる撮像装置は、被写体像を結像する結像光学系の第1の瞳領域を通過する光束を受光する第1の画素群と、該第1の瞳領域よりも狭い第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、前記第1の画素群に蓄積される光量が飽和値に達しているかどうかを判定する判定手段と、前記判定手段によって飽和していると判定された画素の受光量を推定する受光量推定手段とを備え、前記受光量推定手段は、前記第1の画素群の前記結像光学系の瞳面における受光感度分布と、前記第2の画素群の前記結像光学系の瞳面における受光感度分布と、前記結像光学系のケラレ情報とを用いて、前記第1の画素群の前記第2の画素群に対する受光量比を算出し、前記第2の画素群の受光量に前記受光量比を乗じることにより、前記第1の画素群の受光量を推定することを特徴とする。   An imaging apparatus according to the present invention includes a first pixel group that receives a light beam passing through a first pupil region of an imaging optical system that forms a subject image, and a second pixel that is narrower than the first pupil region. An image sensor having a second pixel group that receives a light beam passing through a pupil region, a determination unit that determines whether the amount of light accumulated in the first pixel group has reached a saturation value, and the determination unit Received light amount estimating means for estimating the received light amount of the pixel determined to be saturated by the light receiving amount estimation means, wherein the received light amount estimating means is a light receiving sensitivity distribution on a pupil plane of the imaging optical system of the first pixel group. And the light receiving sensitivity distribution on the pupil plane of the imaging optical system of the second pixel group, and the vignetting information of the imaging optical system, to the second pixel group of the first pixel group Calculate the received light amount ratio and multiply the received light amount of the second pixel group by the received light amount ratio. By, and estimates the amount of light received by the first pixel group.

本発明によれば、焦点検出用画素に隣接する撮像用画素が飽和する撮影条件においても、適切なクロストーク補正を行い、より精度良く焦点検出を行うことが可能となる。   According to the present invention, it is possible to perform appropriate crosstalk correction and perform focus detection with higher accuracy even under imaging conditions in which imaging pixels adjacent to focus detection pixels are saturated.

本発明の一実施形態に係るカメラの構成図。The block diagram of the camera which concerns on one Embodiment of this invention. 撮像素子の概略的回路構成図。The schematic circuit block diagram of an image pick-up element. 撮像素子の画素部の断面図。Sectional drawing of the pixel part of an image pick-up element. 撮像素子の駆動タイミングチャート。The drive timing chart of an image pick-up element. 撮像素子の撮像用画素の平面図と断面図。The top view and sectional drawing of the pixel for an imaging of an image pick-up element. 撮影レンズの水平方向(横方向)に瞳分割を行なうための焦点検出用画素の平面図と断面図。The top view and sectional drawing of the pixel for focus detection for performing pupil division in the horizontal direction (lateral direction) of a photographic lens. 撮影レンズの垂直方向に瞳分割を行なうための焦点検出用画素の平面図と断面図。The top view and sectional drawing of the pixel for focus detection for performing pupil division | segmentation to the orthogonal | vertical direction of an imaging lens. 撮像素子の瞳分割状況を概念的に説明する図。The figure which illustrates notionally the pupil division | segmentation condition of an image sensor. 焦点検出時に取得した画像と焦点検出領域を説明する図。The figure explaining the image and focus detection area which were acquired at the time of focus detection. 撮像素子中央の焦点検出用画素の入射角特性を表した模式図。The schematic diagram showing the incident angle characteristic of the pixel for focus detection in the center of an image sensor. 光束のケラレを説明する図。The figure explaining the vignetting of a light beam. 瞳面Me上での瞳領域を示した図。The figure which showed the pupil area | region on the pupil surface Me. 焦点検出用画素の瞳強度分布を示す図。The figure which shows the pupil intensity distribution of the pixel for focus detection. 撮像素子中央の焦点検出用画素の瞳面Me上でのケラレを示した図。The figure which showed the vignetting on the pupil surface Me of the focus detection pixel in the center of the image sensor. 撮像素子の中央から像高を持った位置の画素の瞳面Me上でのケラレを示した図。The figure which showed the vignetting on the pupil surface Me of the pixel of the position which has image height from the center of an image pick-up element. 焦点検出フローチャート。The focus detection flowchart. クロストーク補正フローチャート。Crosstalk correction flowchart. 従来の固体撮像装置の受光分布説明図。Light reception distribution explanatory drawing of the conventional solid-state imaging device.

以下、本発明の一実施形態について、図1〜図17を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to FIGS.

図1は本発明に係る撮像装置の一実施形態であるであるカメラの構成を示す図である。ここでは、レンズとカメラ本体が一体であるデジタルカメラを例に挙げて説明するが、レンズ交換可能な一眼レフデジタルカメラであってもよい。図1において、101は撮影光学系(結像光学系)の先端に配置された第1レンズ群で、光軸方向に進退可能に保持される。102は絞り兼用シャッタで、その開口径を調節することで撮影時の光量調節を行なうほか、静止画撮影時には露光秒時調節用シャッタとしての機能も備える。103は第2レンズ群である。そして絞り兼用シャッタ102及び第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。   FIG. 1 is a diagram showing a configuration of a camera which is an embodiment of an imaging apparatus according to the present invention. Here, a digital camera in which a lens and a camera body are integrated will be described as an example. However, a single-lens reflex digital camera with interchangeable lenses may be used. In FIG. 1, reference numeral 101 denotes a first lens group disposed at the tip of a photographing optical system (imaging optical system), which is held so as to be able to advance and retract in the optical axis direction. Reference numeral 102 denotes an aperture / shutter, which adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also has a function as an exposure time adjustment shutter at the time of still image shooting. Reference numeral 103 denotes a second lens group. The diaphragm shutter 102 and the second lens group 103 integrally move forward and backward in the optical axis direction, and perform a zooming function (zoom function) in conjunction with the forward and backward movement of the first lens group 101.

105は第3レンズ群で、光軸方向の進退により、焦点調節を行なう。106は光学的ローパスフィルタで、撮影画像の偽色やモアレを軽減するための光学素子である。107はC−MOSセンサとその周辺回路で構成された撮像素子である。撮像素子107には、横方向m画素、縦方向n画素の受光ピクセル上に、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサが用いられる。   Reference numeral 105 denotes a third lens group that performs focus adjustment by advancing and retreating in the optical axis direction. Reference numeral 106 denotes an optical low-pass filter, which is an optical element for reducing false colors and moire in a captured image. Reference numeral 107 denotes an image sensor composed of a C-MOS sensor and its peripheral circuits. The imaging element 107 is a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction.

111はズームアクチュエータで、不図示のカム筒を回動することで、第1レンズ群111乃至第3レンズ群105を光軸方向に進退駆動し、変倍操作を行なう。112は絞りシャッタアクチュエータで、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行なう。114はフォーカスアクチュエータで、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。   A zoom actuator 111 rotates a cam cylinder (not shown) to drive the first lens group 111 to the third lens group 105 forward and backward in the direction of the optical axis, thereby performing a zooming operation. Reference numeral 112 denotes an aperture shutter actuator that controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. Reference numeral 114 denotes a focus actuator, which performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction.

115は撮影時の被写体照明用電子フラッシュで、キセノン管を用いた閃光照明装置が好適であるが、連続発光するLEDを備えた照明装置を用いてもよい。116はAF補助光装置で、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいは低コントラスト被写体に対する焦点検出能力を向上させる。   Reference numeral 115 denotes an electronic flash for illuminating an object at the time of photographing, and a flash illumination device using a xenon tube is suitable, but an illumination device including an LED that emits light continuously may be used. Reference numeral 116 denotes an AF auxiliary light device that projects an image of a mask having a predetermined aperture pattern onto a subject field via a light projection lens, thereby improving the focus detection capability for a dark subject or a low-contrast subject.

121は、カメラ本体の種々の制御を司るカメラ内CPUで、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有し、ROMに記憶された所定のプログラムに基づいて、カメラが有する各種回路を駆動する。そして、焦点検出、焦点調節、撮影、画像処理、記録等の一連の動作を実行する。   Reference numeral 121 denotes an in-camera CPU that controls various controls of the camera body, and includes a calculation unit, ROM, RAM, A / D converter, D / A converter, communication interface circuit, and the like, and a predetermined program stored in the ROM Based on this, various circuits of the camera are driven. Then, a series of operations such as focus detection, focus adjustment, photographing, image processing, and recording are executed.

122は電子フラッシュ制御回路で、撮影動作に同期して電子フラッシュ115を点灯制御する。123は補助光駆動回路で、焦点検出動作に同期してAF補助光装置116を点灯制御する。124は撮像素子駆動回路で、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。125は画像処理回路で、撮像素子107が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行なう。   An electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation. Reference numeral 123 denotes an auxiliary light driving circuit that controls the lighting of the AF auxiliary light device 116 in synchronization with the focus detection operation. An image sensor driving circuit 124 controls the image capturing operation of the image sensor 107 and A / D converts the acquired image signal and transmits the image signal to the CPU 121. An image processing circuit 125 performs processes such as γ conversion, color interpolation, and JPEG compression of the image acquired by the image sensor 107.

126はフォーカス駆動回路で、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。128は絞りシャッタ駆動回路で、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。129はズーム駆動回路で、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。   A focus drive circuit 126 controls the focus actuator 114 based on the focus detection result, and adjusts the focus by driving the third lens group 105 back and forth in the optical axis direction. Reference numeral 128 denotes an aperture shutter drive circuit which controls the aperture shutter actuator 112 to control the aperture of the aperture / shutter 102. Reference numeral 129 denotes a zoom drive circuit that drives the zoom actuator 111 in accordance with the zoom operation of the photographer.

131はLCD等の表示器で、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。132は操作スイッチ群で、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。133は着脱可能なフラッシュメモリで、撮影済み画像を記録する。   Reference numeral 131 denotes a display device such as an LCD, which displays information related to the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state display image when focus is detected, and the like. An operation switch group 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. Reference numeral 133 denotes a detachable flash memory that records a photographed image.

図2は本実施形態における撮像素子の概略的回路構成を示した図で、特開平09−046596号報等に開示された技術が好適である。図2は2次元C−MOSエリアセンサの2列×4行画素の範囲を示したものであるが、撮像素子として利用する場合は、図2に示した画素を多数配置し、高解像度画像の取得を可能としている。本実施形態においては、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmの撮像素子として説明を行なう。   FIG. 2 is a diagram showing a schematic circuit configuration of the image sensor in the present embodiment, and the technique disclosed in Japanese Patent Application Laid-Open No. 09-046596 is suitable. FIG. 2 shows the range of 2 columns × 4 rows of pixels of a two-dimensional C-MOS area sensor. However, when used as an image sensor, a large number of pixels shown in FIG. Acquisition is possible. In the present embodiment, the description will be made on the assumption that the pixel pitch is 2 μm, the number of effective pixels is horizontal 3000 columns × 2000 vertical rows = 6 million pixels, and the imaging screen size is 6 mm horizontal × 4 mm vertical.

図2において、1はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子の光電変換部、2はフォトゲート、3は転送スイッチMOSトランジスタ、4はリセット用MOSトランジスタ、5はソースフォロワアンプMOSトランジスタである。また、6は水平選択スイッチMOSトランジスタ、7はソースフォロワの負荷MOSトランジスタ、8は暗出力転送MOSトランジスタ、9は明出力転送MOSトランジスタである。さらに、10は暗出力蓄積容量CTN、11は明出力蓄積容量CTS、12は水平転送MOSトランジスタ、13は水平出力線リセットMOSトランジスタ、14は差動出力アンプ、15は水平走査回路、16は垂直走査回路である。   In FIG. 2, 1 is a photoelectric conversion portion of a photoelectric conversion element comprising a MOS transistor gate and a depletion layer under the gate, 2 is a photogate, 3 is a transfer switch MOS transistor, 4 is a reset MOS transistor, and 5 is a source follower amplifier MOS. It is a transistor. Also, 6 is a horizontal selection switch MOS transistor, 7 is a source follower load MOS transistor, 8 is a dark output transfer MOS transistor, and 9 is a light output transfer MOS transistor. Further, 10 is a dark output storage capacitor CTN, 11 is a light output storage capacitor CTS, 12 is a horizontal transfer MOS transistor, 13 is a horizontal output line reset MOS transistor, 14 is a differential output amplifier, 15 is a horizontal scanning circuit, and 16 is vertical. This is a scanning circuit.

図3に本実施形態における撮像素子の画素部の断面を示す図である。図3において、17はP型ウェル、18はゲート酸化膜、19は一層目ポリSi、20は二層目ポリSi、21はn+ フローティングディフュージョン部(FD部)である。FD部21は別の転送MOSトランジスタを介して別の光電変換部と接続される。図3において、2つの転送MOSトランジスタ3のドレインとFD部21を共通化して微細化とFD部21の容量低減による感度向上を図っているが、Al配線でFD部21を接続してもよい。   FIG. 3 is a diagram illustrating a cross section of the pixel portion of the image sensor according to the present embodiment. In FIG. 3, 17 is a P-type well, 18 is a gate oxide film, 19 is a first-layer poly-Si, 20 is a second-layer poly-Si, and 21 is an n + floating diffusion portion (FD portion). The FD unit 21 is connected to another photoelectric conversion unit via another transfer MOS transistor. In FIG. 3, the drains of the two transfer MOS transistors 3 and the FD portion 21 are made common to improve the sensitivity by miniaturization and the capacity reduction of the FD portion 21, but the FD portion 21 may be connected by an Al wiring. .

次に、図4のタイミングチャートを用いて動作を説明する。このタイミングチャートは全画素独立出力の場合の図である。   Next, the operation will be described with reference to the timing chart of FIG. This timing chart is for all pixels independent output.

まず垂直走査回路16からのタイミング出力によって、制御パルスφLをハイとして垂直出力線をリセットする。また制御パルスφR0,φPG00,φPGe0をハイとし、リセット用MOSトランジスタ4をオンとし、フォトゲート2の一層目ポリSi19をハイとしておく。時刻T0において、制御パルスφS0をハイとし、選択スイッチMOSトランジスタ6をオンさせ、第1,第2ラインの画素部を選択する。次に制御パルスφR0をロウとし、FD部21のリセットを止め、FD部21をフローティング状態とし、ソースフォロワアンプMOSトランジスタ5のゲート・ソース間をスルーとする。その後、時刻T1において制御パルスφTNをハイとし、FD部21の暗電圧をソースフォロワ動作で蓄積容量CTN10に出力させる。   First, according to the timing output from the vertical scanning circuit 16, the control pulse φL is set to high to reset the vertical output line. Further, the control pulses φR0, φPG00, and φPGe0 are set high, the reset MOS transistor 4 is turned on, and the first-layer poly Si 19 of the photogate 2 is set high. At time T0, the control pulse φS0 is set high, the selection switch MOS transistor 6 is turned on, and the pixel portions of the first and second lines are selected. Next, the control pulse φR0 is set to low, the reset of the FD unit 21 is stopped, the FD unit 21 is set in a floating state, and the source and follower amplifier MOS transistor 5 is set to the through state. Thereafter, the control pulse φTN is set to high at time T1, and the dark voltage of the FD section 21 is output to the storage capacitor CTN10 by the source follower operation.

次に、第1ラインの画素の光電変換出力を行うため、第1ラインの制御パルスφTX00をハイとして転送スイッチMOSトランジスタ3を導通した後、時刻T2 において制御パルスφPG00をローとして下げる。この時フォトゲート2の下に拡がっていたポテンシャル井戸を上げて、光発生キャリアをFD部21に完全転送させるような電圧関係が好ましい。従って完全転送が可能であれば制御パルスφTXはパルスではなくある固定電位でもかまわない。   Next, in order to perform photoelectric conversion output of the pixels on the first line, the control pulse φTX00 on the first line is set to high to turn on the transfer switch MOS transistor 3, and then the control pulse φPG00 is lowered to low at time T2. At this time, a voltage relationship is preferable in which the potential well that has spread under the photogate 2 is raised so that photogenerated carriers are completely transferred to the FD portion 21. Therefore, if complete transfer is possible, the control pulse φTX may be a fixed potential instead of a pulse.

時刻T2 でフォトダイオードの光電変換部1からの電荷がFD部21に転送されることにより、FD部21の電位が光に応じて変化することになる。この時ソースフォロワアンプMOSトランジスタ5がフローティング状態であるので、FD部21の電位を時刻T3 において制御パルスφTs をハイとして蓄積容量CTS11に出力する。この時点で第1ラインの画素の暗出力と光出力はそれぞれ蓄積容量CTN10とCTS11に蓄積されおり、時刻T4 の制御パルスφHCを一時ハイとして水平出力線リセットMOSトランジスタ13を導通して水平出力線をリセットする。そして、水平転送期間において水平走査回路15の走査タイミング信号により水平出力線に画素の暗出力と光出力が出力される。この時、蓄積容量CTN10とCTS11の差動増幅器14によって、差動出力VOUTを取れば、画素のランダムノイズ、固定パターンノイズを除去したS/Nのよい信号が得られる。また画素30−12、30−22の光電荷は画素30−11、30−21と同時に夫々の蓄積容量CTN10とCTS11に蓄積される。しかし、それらの信号は水平走査回路15からのタイミングパルスを1画素分遅らして水平出力線に読み出され差動増幅器14から出力される。本実施形態では、差動出力VOUTをチップ内で行う構成を示しているが、チップ内に含めず、外部で従来のCDS(Correlated Double Sampling:相関二重サンプリング)回路を用いても同様の効果が得られる。   At time T2, charges from the photoelectric conversion unit 1 of the photodiode are transferred to the FD unit 21, so that the potential of the FD unit 21 changes according to light. At this time, since the source follower amplifier MOS transistor 5 is in a floating state, the potential of the FD portion 21 is output to the storage capacitor CTS11 with the control pulse φTs being high at time T3. At this time, the dark output and light output of the pixels in the first line are stored in the storage capacitors CTN10 and CTS11, respectively, and the horizontal output line reset MOS transistor 13 is turned on by setting the control pulse φHC at time T4 to be temporarily high. To reset. In the horizontal transfer period, the dark output and the light output of the pixel are output to the horizontal output line by the scanning timing signal of the horizontal scanning circuit 15. At this time, if the differential output VOUT is obtained by the differential amplifier 14 of the storage capacitors CTN10 and CTS11, a signal having a good S / N from which random noise and fixed pattern noise of the pixel are removed can be obtained. Further, the photoelectric charges of the pixels 30-12 and 30-22 are accumulated in the respective storage capacitors CTN10 and CTS11 simultaneously with the pixels 30-11 and 30-21. However, these signals are read out to the horizontal output line by delaying the timing pulse from the horizontal scanning circuit 15 by one pixel and output from the differential amplifier 14. In the present embodiment, a configuration in which the differential output VOUT is performed in the chip is shown, but the same effect can be obtained even if a conventional CDS (Correlated Double Sampling) circuit is used outside without including it in the chip. Is obtained.

蓄積容量CTS11に明出力を出力した後、制御パルスφR0をハイとしてリセット用MOSトランジスタ4を導通しFD部21を電源VDDにリセットする。第1ラインの水平転送が終了した後、第2ラインの読み出しを行う。第2ラインの読み出しは、制御パルスφTXe0,制御パルスφPGe0を同様に駆動させ、制御パルスφTN、φTSに夫々ハイパルスを供給して、蓄積容量CTN10とCTS11に夫々光電荷を蓄積し、暗出力及び明出力を取り出す。以上の駆動により、第1,第2ラインの読み出しが夫々独立に行える。この後、垂直走査回路を走査させ、同様に第2n+1,第2n+2(n=1,2,…)の読み出しを行えば全画素独立出力が行える。即ち、n=1の場合は、まず制御パルスφS1をハイとし、次にφR1をローとする。続いて制御パルスφTN、φTX01をハイとし、制御パルスφPG01をロー、制御パルスφTSをハイ、制御パルスφHCを一時ハイとして画素30−31,30−32の画素信号を読み出す。続いて、上記と同様に制御パルスφTXe1,φPGe1及びその他の制御パルスを印加して、画素30−41,30−42の画素信号を読み出す。   After outputting a bright output to the storage capacitor CTS11, the control pulse φR0 is set to high to turn on the reset MOS transistor 4 and reset the FD portion 21 to the power supply VDD. After the horizontal transfer of the first line is completed, the second line is read. In reading the second line, the control pulse φTXe0 and the control pulse φPGe0 are driven in the same manner, high pulses are supplied to the control pulses φTN and φTS, respectively, and photocharges are accumulated in the storage capacitors CTN10 and CTS11, respectively. Take the output. With the above driving, the first and second lines can be read independently. Thereafter, by scanning the vertical scanning circuit and reading out the second n + 1 and second n + 2 (n = 1, 2,...) In the same manner, all the pixels can be independently output. That is, when n = 1, first, the control pulse φS1 is set high, and then φR1 is set low. Subsequently, the control pulses φTN and φTX01 are set high, the control pulse φPG01 is set low, the control pulse φTS is set high, and the control pulse φHC is set high temporarily to read out the pixel signals of the pixels 30-31 and 30-32. Subsequently, the control pulses φTXe1, φPGe1 and other control pulses are applied in the same manner as described above, and the pixel signals of the pixels 30-41 and 30-42 are read out.

図5乃至図7は、本実施形態における第1の画素群である撮像用画素と、第2の画素群、及び第3の画素群である焦点検出用画素の構造を説明する図である。本実施形態においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則にて分散配置される。   FIG. 5 to FIG. 7 are diagrams for explaining the structures of the imaging pixel that is the first pixel group, the second pixel group, and the focus detection pixel that is the third pixel group in the present embodiment. In the present embodiment, out of 4 pixels of 2 rows × 2 columns, pixels having G (green) spectral sensitivity are arranged in 2 diagonal pixels, and R (red) and B (blue) are arranged in the other 2 pixels. A Bayer arrangement in which one pixel each having a spectral sensitivity of 1 is arranged is employed. In addition, focus detection pixels having a structure described later are distributed and arranged in a predetermined rule between the Bayer arrays.

図5に撮像用画素の平面図と断面図を示す。図5(a)は撮像素子中央に位置する2行×2列の撮像用画素の平面図である。周知のごとく、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そしてこの2行×2列の構造が繰り返し配置される。   FIG. 5 shows a plan view and a cross-sectional view of the imaging pixel. FIG. 5A is a plan view of 2 × 2 imaging pixels located in the center of the imaging device. As is well known, in the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. The 2 rows × 2 columns structure is repeatedly arranged.

図5(a)の断面A−Aを図5(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(Red)のカラーフィルタ、CFGはG(Green)のカラーフィルタである。PDは図3で説明したC−MOSセンサの光電変換部を模式的に示したもの、CLはC−MOSセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは撮影光学系を模式的に示したものである。   FIG. 5B shows a cross section AA of FIG. ML is an on-chip microlens disposed on the forefront of each pixel, CFR is an R (Red) color filter, and CFG is a G (Green) color filter. PD is a schematic diagram of the photoelectric conversion unit of the C-MOS sensor described with reference to FIG. 3, and CL is a wiring layer for forming signal lines for transmitting various signals in the C-MOS sensor. TL schematically shows the photographing optical system.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換部PDは、撮影光学系MLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EPと光電変換部PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換部の有効面積は大面積に設計される。また、図5(b)ではR画素の入射光束について説明したが、G画素及びB(Blue)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。   Here, the on-chip microlens ML and the photoelectric conversion unit PD of the imaging pixel are configured to capture the light beam that has passed through the photographing optical system ML as effectively as possible. In other words, the exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are conjugated with each other by the microlens ML, and the effective area of the photoelectric conversion unit is designed to be large. Further, although the incident light beam of the R pixel has been described in FIG. 5B, the G pixel and the B (Blue) pixel have the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.

図6は、撮影レンズの図中x方向に瞳分割を行なうための焦点検出用画素の平面図と断面図を示す。図6(a)は、撮像素子中央に位置する焦点検出用画素を含む2行×2列の画素の平面図である。撮像信号を得る場合、G画素は輝度情報の主成分をなす。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認められやすい。一方でRもしくはB画素は、色情報を取得する画素であるが、人間は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化に気づきにくい。そこで本実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、RとBに相当する位置の画素にある割合で焦点検出用画素を配列している。これを図6(a)においてSHA及びSHBで示す。   FIG. 6 shows a plan view and a cross-sectional view of focus detection pixels for performing pupil division in the x direction in the drawing of the photographing lens. FIG. 6A is a plan view of 2 × 2 pixels including focus detection pixels located at the center of the image sensor. When obtaining an imaging signal, the G pixel is a main component of luminance information. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is likely to be recognized if G pixels are lost. On the other hand, the R or B pixel is a pixel that acquires color information. However, since humans are insensitive to color information, pixels that acquire color information are less likely to notice deterioration in image quality even if some loss occurs. Therefore, in the present embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the focus detection pixels are arranged at a ratio of pixels in positions corresponding to R and B. This is indicated by SHA and SHB in FIG.

図6(a)の断面B−Bを図6(b)に示す。マイクロレンズMLと、光電変換部PDは図5(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像創生には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(White)が配置される。また、撮像素子で瞳分割を行なうため、配線層CLの開口部はマイクロレンズMLの中心線に対してx方向に偏倚している。具体的には、画素SHAの開口部OPHAは−x方向に偏倚しているため、撮影レンズTLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは+x方向に偏倚しているため、撮影レンズTLの右側の射出瞳EPHBを通過した光束を受光する。よって、画素SHAをx方向に規則的に配列し、これらの画素群(第2の画素群)で生成した被写体像をA像(第2の被写体像)とし、画素SHBもx方向に規則的に配列し、これらの画素群(第3の画素群)で生成した被写体像をB像(第3の被写体像)とする。そして、A像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。   A cross section BB of FIG. 6A is shown in FIG. The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. In the present embodiment, since the signal of the focus detection pixel is not used for image creation, a transparent film CFW (White) is arranged instead of the color separation color filter. Further, since pupil division is performed by the image sensor, the opening of the wiring layer CL is deviated in the x direction with respect to the center line of the microlens ML. Specifically, since the opening OPHA of the pixel SHA is deviated in the −x direction, the light beam that has passed through the exit pupil EPHA on the left side of the photographing lens TL is received. Similarly, since the opening OPHB of the pixel SHB is biased in the + x direction, the light beam that has passed through the right exit pupil EPHB of the photographic lens TL is received. Therefore, the pixels SHA are regularly arranged in the x direction, the subject image generated by these pixel groups (second pixel group) is set as an A image (second subject image), and the pixels SHB are also regularly arranged in the x direction. A subject image generated by these pixel groups (third pixel group) is defined as a B image (third subject image). Then, by detecting the relative position between the A image and the B image, the amount of defocus (defocus amount) of the subject image can be detected.

なお、上記の画素SHA及びSHBでは、撮影画面のx方向に輝度分布を有した被写体、例えばy方向の線に対しては焦点検出可能であるが、y方向に輝度分布を有するx方向の線は焦点検出不能である。そこで本実施形態では、後者についても焦点検出できるよう、撮影レンズのy方向にも瞳分割を行なう画素も備えている。   In the pixels SHA and SHB, focus detection is possible for an object having a luminance distribution in the x direction on the photographing screen, for example, a line in the y direction, but an x direction line having a luminance distribution in the y direction. Cannot detect the focus. Therefore, in the present embodiment, a pixel that performs pupil division is also provided in the y direction of the photographic lens so that the latter can be detected in focus.

図7は、撮影レンズの図中y方向に瞳分割を行なうための焦点検出用画素の平面図と断面図を示す。図7(a)は、撮像素子中央に位置する焦点検出用画素を含む2行×2列の画素の平面図で、図6(a)と同様に、G画素は撮像用画素として残し、RとBに相当する位置の画素にある割合で焦点検出用画素を配列している。これを図6(a)においてSVC及びSVDで示す。   FIG. 7 shows a plan view and a cross-sectional view of a focus detection pixel for performing pupil division in the y direction in the drawing of the photographing lens. FIG. 7A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels located at the center of the image sensor. As in FIG. 6A, G pixels are left as image capture pixels, and R Focus detection pixels are arranged at a certain ratio to pixels at positions corresponding to A and B. This is indicated by SVC and SVD in FIG.

図7(a)の断面C−Cを図7(b)に示すが、図6(b)の画素がx方向に瞳分離する構造であるのに対して、図7(b)の画素は瞳分離方向がy方向になっているだけで、画素の構造としては変わらない。すなわち、画素SVCの開口部OPVCは−y方向に偏倚しているため、撮影レンズTLの+y方向の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは+y方向に偏倚しているため、撮影レンズTLの−y方向の射出瞳EPVDを通過した光束を受光する。よって、画素SVCをy方向に規則的に配列し、これらの画素群で取得した被写体像をC像とし、画素SVDもy方向に規則的に配列し、これらの画素群で取得した被写体像をD像とする。そして、C像とD像の相対位置を検出することで、y方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)が検出できる。   FIG. 7B shows a cross-section C-C of FIG. 7A. The pixel of FIG. 6B has a structure in which the pupil is separated in the x direction, whereas the pixel of FIG. Only the pupil separation direction is in the y direction, and the pixel structure does not change. That is, since the opening OPVC of the pixel SVC is biased in the −y direction, the light beam that has passed through the exit pupil EPVC in the + y direction of the photographic lens TL is received. Similarly, since the opening OPVD of the pixel SVD is biased in the + y direction, the light beam that has passed through the exit pupil EPVD of the photographing lens TL in the −y direction is received. Therefore, the pixels SVC are regularly arranged in the y direction, the subject images acquired by these pixel groups are set as C images, the pixels SVD are also regularly arranged in the y direction, and the subject images acquired by these pixel groups are Let it be a D image. Then, by detecting the relative positions of the C image and the D image, it is possible to detect the focus shift amount (defocus amount) of the subject image having a luminance distribution in the y direction.

図8は、本実施形態における撮像素子の瞳分割状況を概念的に説明する図である。TLは撮影レンズ、107は撮像素子、OBJは被写体、IMGは被写体像である。撮像用画素は図5の撮像素子の撮像用画素の平面図と断面図で説明したように、撮影レンズの射出瞳全域EP(第1の瞳領域)を通過した光束を受光する。一方、焦点検出用画素は図6のx方向に瞳分割を行なうための焦点検出用画素の平面図と断面図及び図7のy方向に瞳分割を行なうための焦点検出用画素の平面図と断面図で説明したように、瞳分割機能を有している。具体的には、図6の画素SHAは+X方向の側の瞳を通過した光束、すなわち図8の瞳EPHA(第2の瞳領域)を通過した光束を受光する。同様に画素SHB、SVC及びSVDはそれぞれ瞳EPHB(第3の瞳領域)、EPVC及びEPVDを通過した光束を受光する。上記の説明から明らかな通り、第1の瞳領域よりも第2の瞳領域の方が狭くなっている。そして、焦点検出用画素を、撮像素子107の全領域に渡って分布させることで、撮像領域全域で焦点検出を可能とさせている。   FIG. 8 is a diagram conceptually illustrating the pupil division state of the image sensor in the present embodiment. TL is a photographing lens, 107 is an image sensor, OBJ is a subject, and IMG is a subject image. As described in the plan view and the cross-sectional view of the imaging pixel of the imaging element in FIG. 5, the imaging pixel receives the light flux that has passed through the entire exit pupil EP (first pupil region) of the imaging lens. On the other hand, the focus detection pixel includes a plan view and a cross-sectional view of the focus detection pixel for dividing the pupil in the x direction in FIG. 6, and a plan view of the focus detection pixel for performing the pupil division in the y direction in FIG. 7. As described in the cross-sectional view, it has a pupil division function. Specifically, the pixel SHA in FIG. 6 receives a light beam that has passed through the pupil on the + X direction side, that is, a light beam that has passed through the pupil EPHA (second pupil region) in FIG. Similarly, the pixels SHB, SVC, and SVD receive light beams that have passed through the pupil EPHB (third pupil region), EPVC, and EPVD, respectively. As is clear from the above description, the second pupil region is narrower than the first pupil region. The focus detection pixels are distributed over the entire area of the image sensor 107, thereby enabling focus detection in the entire image pickup area.

図9は、焦点検出時に取得した画像と焦点検出領域を説明する図である。図9において、撮像面に形成された被写体像には、中央に人物、左側に近景の樹木、右側に遠景の山並みが写っている。そして本実施形態においては、焦点検出用画素は、x方向ずれ検出用の画素ペアSHA及びSHBと、y方向ずれ検出用の画素ペアSVC及びSVDが、撮像領域全域に渡って均等な密度で配置されている。そしてx方向ずれ検出の際には、x方向ずれ検出用の画素ペアSHA及びSHBから得られる一対の画像信号を、位相差演算のためのAF画素信号として使用する。また、y方向ずれ検出の際には、y方向ずれ検出用の画素ペアSVC及びSVDから得られる一対の画像信号を、位相差演算のためのAF画素信号として使用する。よって、撮像領域の任意位置において、x方向ずれ検出及びy方向ずれ検出のための測距領域を設定可能である。   FIG. 9 is a diagram illustrating an image acquired at the time of focus detection and a focus detection area. In FIG. 9, the subject image formed on the imaging surface shows a person in the center, a tree in the foreground on the left side, and a mountain range in the foreground on the right side. In the present embodiment, the focus detection pixels are arranged such that the pixel pairs SHA and SHB for detecting the x-direction deviation and the pixel pairs SVC and SVD for detecting the y-direction deviation are arranged at an equal density over the entire imaging region. Has been. In detecting the x-direction deviation, a pair of image signals obtained from the pixel pair SHA and SHB for detecting the x-direction deviation is used as an AF pixel signal for phase difference calculation. When detecting the y-direction deviation, a pair of image signals obtained from the y-direction deviation detection pixel pair SVC and SVD is used as an AF pixel signal for phase difference calculation. Therefore, it is possible to set a distance measurement area for detecting an x-direction deviation and a y-direction deviation at an arbitrary position in the imaging area.

図9においては、画面中央に人物の顔が存在している。そこで公知の顔認識技術によって顔の存在が検出されると、顔領域を中心にx方向ずれ検知のための焦点検出領域AFARh(x1,y1)と、y方向ずれ検知のための焦点検出領域AFARv(x3,y3)が設定される。ここで添え字のhはx方向を表わし、(x1,y1)及び(x3,y3)は焦点検出領域の左上隅の座標を表わす。そして、焦点検出領域AFARh(x1,y1)の各セクション内に含まれるx方向ずれ検出用の焦点検出用画素SHAを30セクションに渡って連結した位相差検出用のA像信号がAFSIGh(A1)である。また、同様に各セクションのx方向ずれ検出用の焦点検出用画素SHBを30セクションに渡って連結した位相差検出用のB像信号がAFSIGh(B1)である。そして、A像信号AFSIGh(A1)とB像信号AFSIGh(B1)の相対的なx方向ずれ量を公知の相関演算によって計算することで、撮影レンズの焦点ずれ量(デフォーカス量)を求めることができる。   In FIG. 9, a human face exists in the center of the screen. Therefore, when the presence of a face is detected by a known face recognition technique, a focus detection area AFARh (x1, y1) for detecting a deviation in the x direction around the face area and a focus detection area AFARv for detecting a deviation in the y direction. (X3, y3) is set. Here, the subscript h represents the x direction, and (x1, y1) and (x3, y3) represent the coordinates of the upper left corner of the focus detection area. Then, an A image signal for phase difference detection obtained by connecting focus detection pixels SHA for detecting an x-direction shift included in each section of the focus detection area AFARh (x1, y1) over 30 sections is AFSIGh (A1). It is. Similarly, AFSIGh (B1) is a B image signal for phase difference detection obtained by connecting focus detection pixels SHB for detecting deviation in the x direction of each section over 30 sections. Then, the defocus amount (defocus amount) of the photographing lens is obtained by calculating the relative x-direction shift amount between the A image signal AFSIGh (A1) and the B image signal AFSIGh (B1) by a known correlation calculation. Can do.

焦点検出領域AFARv(x3,y3)についても同様に焦点ずれ量を求める。そして、x方向ずれ及びy方向ずれの焦点検出領域で検出した2つの焦点ずれ量を比較し、信頼性の高い値を採用すればよい。   The defocus amount is similarly obtained for the focus detection area AFARv (x3, y3). Then, the two defocus amounts detected in the x-direction shift and y-direction shift focus detection regions are compared, and a highly reliable value may be adopted.

一方、画面左側の樹木の幹部は、y方向成分が主体、すなわちx方向に輝度分布を有しているため、x方向ずれ検知に適した被写体と判断され、x方向ずれ検知のための焦点検出領域AFARh(x2,y2)が設定される。また、画面右側の山並み稜線部は、x方向成分が主体、すなわちy方向に輝度分布を有しているため、y方向ずれ検知に適した被写体と判断され、y方向ずれ検知のための焦点検出領域AFARv(x4,y4)が設定される。   On the other hand, the trunk of the tree on the left side of the screen is mainly composed of the y-direction component, that is, has a luminance distribution in the x-direction, so that it is determined as a subject suitable for detecting the x-direction deviation, and focus detection for detecting the x-direction deviation is performed. An area AFARh (x2, y2) is set. Further, the mountain ridge on the right side of the screen is mainly composed of x-direction components, that is, has a luminance distribution in the y-direction, so that it is determined as a subject suitable for y-direction deviation detection, and focus detection for y-direction deviation detection is performed. An area AFARv (x4, y4) is set.

以上のごとく本実施形態においては、x方向ずれ及びy方向ずれ検出のための焦点検出領域が画面の任意位置に設定可能なため、被写体の投影位置や輝度分布の方向性が様々であっても、常に焦点検出が可能である。なお、原理はx方向ずれとy方向ずれとでは方向が異なること以外は同じであるため、以下はx方向ずれの検出のための説明とし、y方向ずれ検出の説明は省略する。   As described above, in this embodiment, since the focus detection area for detecting the x-direction shift and the y-direction shift can be set at an arbitrary position on the screen, even if the projection position of the subject and the directionality of the luminance distribution are various. , Focus detection is always possible. Since the principle is the same except that the x-direction deviation and the y-direction deviation are different from each other, the following description is for detecting the x-direction deviation, and the explanation for the y-direction deviation detection is omitted.

図10は撮像素子中央の焦点検出用画素の入射角特性を表した模式図であり、図10(a)は画素SHA、図10(b)は画素SHBの特性を示している。図10中x軸、y軸はそれぞれ画素のx方向、y方向の入射角度を表している。図10では、色が濃くなるほど受光強度が高いことを示している。図6では説明を分かりやすくするため、画素SHAの射出瞳をEPHA、画素SHBの射出瞳をEPHBと、それぞれ分離して表した。しかし、図10に示すように、実際には、開口部OPHA及び開口部OPHBの開口部による回折の影響や、SNを向上させるために画素SHAと画素SHBの射出瞳は一部領域の重なる部分がある。   10A and 10B are schematic diagrams showing the incident angle characteristics of the focus detection pixel at the center of the image sensor. FIG. 10A shows the characteristics of the pixel SHA, and FIG. 10B shows the characteristics of the pixel SHB. In FIG. 10, the x-axis and y-axis represent the incident angles of the pixel in the x-direction and y-direction, respectively. FIG. 10 shows that the received light intensity is higher as the color becomes darker. In FIG. 6, for ease of explanation, the exit pupil of the pixel SHA is shown separately as EPHA, and the exit pupil of the pixel SHB is shown separately as EPHB. However, as shown in FIG. 10, in practice, the exit pupils of the pixels SHA and SHB overlap each other in order to improve the influence of diffraction due to the openings OPHA and the openings OPHB and the SN. There is.

図10(c)は焦点検出用画素の入射角特性を1次元で表した図である。横軸は入射角を、縦軸は図10のθy方向の受光感度を加算したものを表しており、原点が光軸である。図10(c)に示すように、撮像素子中央の焦点検出用画素では、画素SHAと画素SHBの入射角特性は光軸に対して略対称となる。   FIG. 10C is a one-dimensional representation of the incident angle characteristics of the focus detection pixels. The abscissa represents the incident angle, the ordinate represents the sum of the light receiving sensitivity in the θy direction in FIG. 10, and the origin is the optical axis. As shown in FIG. 10C, in the focus detection pixel at the center of the image sensor, the incident angle characteristics of the pixel SHA and the pixel SHB are substantially symmetric with respect to the optical axis.

図11は光束のケラレを説明する図である。図11(a)は撮像素子中央の画素に入射する光束を示し、図11(b)は撮像素子の中央から像高を持った位置の画素に入射する光束を示している。撮像素子には撮影レンズ101のレンズ保持枠や絞り102などいくつかの構成部材によって制限された光束が入射する。これらの光束を制限する構成部材の位置や大きさの情報が、本実施形態の光学系のケラレ情報である。光学系のケラレ情報は、レンズの種類や、撮影条件であるF値やズームステート、像高などによって異なる値となる。ここでは説明を分かりやすくするため、あらゆる像高において光束を制限する部材が2つあるとして説明する。Iw1、Iw2は光束を制限する部材を窓として、光束はこの内側を通過する。MeはマイクロレンズMLの構成によって設定された瞳面を表している。図11(a)を用いて、撮像素子中央の画素に入射する光束のケラレを説明する。L1rc、L1lcは窓Iw1の射出光束の外周を表しており、L1rcは図11中右端、L1lcは図11中左端を示している。L2rc、L2lcは窓Iw2の射出光束をマイクロレンズMLの瞳位置まで投影したものの外周を表しており、L2rcは図11中右端、L2lcは図11中左端を示している。図11(a)に示すように、撮像素子中央画素に入射する光束の瞳面Meでの瞳領域はL2lcとL2rcを外周とする光束、つまり、矢印Area1で示される。   FIG. 11 is a diagram for explaining vignetting of a light beam. FIG. 11A shows a light beam incident on a pixel at the center of the image sensor, and FIG. 11B shows a light beam incident on a pixel at a position having an image height from the center of the image sensor. A light beam limited by several components such as a lens holding frame of the photographing lens 101 and a diaphragm 102 is incident on the imaging element. Information on the position and size of the constituent members that limit these light fluxes is the vignetting information of the optical system of the present embodiment. The vignetting information of the optical system varies depending on the type of lens, the F value, which is a photographing condition, the zoom state, the image height, and the like. Here, in order to make the explanation easy to understand, it is assumed that there are two members that limit the light flux at any image height. In Iw1 and Iw2, a member that restricts the luminous flux is used as a window, and the luminous flux passes through the inside. Me represents the pupil plane set by the configuration of the microlens ML. With reference to FIG. 11A, vignetting of the light beam incident on the pixel at the center of the image sensor will be described. L1rc and L1lc represent the outer periphery of the light beam emitted from the window Iw1, L1rc represents the right end in FIG. 11, and L1lc represents the left end in FIG. L2rc and L2lc represent the outer periphery of the projection of the light beam emitted from the window Iw2 up to the pupil position of the microlens ML. L2rc represents the right end in FIG. 11, and L2lc represents the left end in FIG. As shown in FIG. 11A, the pupil region on the pupil plane Me of the light beam incident on the center pixel of the image sensor is indicated by a light beam having L2lc and L2rc as outer circumferences, that is, an arrow Area1.

次に、図11(b)を用いて、撮像素子の中央から像高を持った位置の画素に入射する光束のケラレを説明する。L1rh、L1lhは窓Iw1の射出光束の外周を表しており、L1rhは図11中右端、L1lhは図11中左端を示している。L2rh、L2lhは窓Iw2の射出光束をマイクロレンズMLの瞳位置まで投影したものの外周を表しており、L2rhは図11中右端、L2lhは図11中左端を示している。図11(b)に示すように、撮像素子の中央から像高を持った位置の画素に入射する光束の瞳面Me上での瞳領域はL1lhとL2rhを外周とする光束、つまり、矢印Area2で示される。   Next, the vignetting of the light beam incident on the pixel at the position having the image height from the center of the image sensor will be described with reference to FIG. L1rh and L1lh represent the outer periphery of the light flux emitted from the window Iw1, L1rh represents the right end in FIG. 11, and L1lh represents the left end in FIG. L2rh and L2lh represent the outer periphery of the projection of the light beam emitted from the window Iw2 up to the pupil position of the microlens ML. L2rh represents the right end in FIG. 11 and L2lh represents the left end in FIG. As shown in FIG. 11B, the pupil region on the pupil plane Me of the light beam incident on the pixel having the image height from the center of the image sensor is a light beam having L1lh and L2rh as outer circumferences, that is, an arrow Area2. Indicated by

図12は瞳面Me上での瞳領域を示した図である。図12(a)は撮像素子中央の画素の瞳領域を示し、図12(b)は撮像素子の中央から像高を持った位置の画素の瞳領域を示している。図11で説明したように、撮像素子中央の画素は同一窓Iw2のみによって制限された光束が入射するため、図12(a)に示すように瞳領域Area1は窓Iw2の形状がそのまま投影される。光束を制限する窓は円形状であるため、瞳領域Area1の形状も円形状となる。一方、撮像素子の中央から像高を持った位置の画素はIw1とIw2によって制限された光束が入射するため、瞳領域Area2は図12(b)に示したような形状となる。   FIG. 12 is a diagram showing a pupil region on the pupil plane Me. FIG. 12A shows a pupil region of a pixel at the center of the image sensor, and FIG. 12B shows a pupil region of a pixel at a position having an image height from the center of the image sensor. As described with reference to FIG. 11, since the light beam limited by the same window Iw2 is incident on the pixel in the center of the image sensor, the shape of the window Iw2 is projected as it is in the pupil area Area1 as shown in FIG. . Since the window for limiting the luminous flux is circular, the shape of the pupil area Area1 is also circular. On the other hand, since the light beam limited by Iw1 and Iw2 is incident on the pixel at the image height from the center of the image sensor, the pupil area Area2 has a shape as shown in FIG.

図13は焦点検出用画素の瞳強度分布を示す図である。これは、本実施形態の、第2の画素群の瞳面における受光感度分布と、第3の画素群の瞳面における受光感度分布である。これは、図10に示した撮像素子中央の焦点検出用画素の入射角特性をマイクロレンズMLの瞳上に投影したものに等しく、図13の縦軸および横軸は瞳上の座標に展開したものである。この瞳強度分布は、像高によって異なるため、いくつかの像高での値がCPU121内のROMに保管されている。保管されている像高の中間像高での瞳強度分布は、補間処理によって、算出される。   FIG. 13 is a diagram showing a pupil intensity distribution of focus detection pixels. This is the light reception sensitivity distribution on the pupil plane of the second pixel group and the light reception sensitivity distribution on the pupil plane of the third pixel group in this embodiment. This is equivalent to the incident angle characteristic of the focus detection pixel at the center of the image sensor shown in FIG. 10 projected onto the pupil of the microlens ML, and the vertical and horizontal axes in FIG. 13 are expanded to the coordinates on the pupil. Is. Since this pupil intensity distribution varies depending on the image height, values at several image heights are stored in the ROM in the CPU 121. The pupil intensity distribution at the intermediate image height of the stored image height is calculated by interpolation processing.

図14は撮像素子中央の焦点検出用画素の瞳面Me上でのケラレを示した図である。図14(a)は画素SHA、図14(b)は画素SHBの特性を示している。図14は図12(a)と図13を重ね合わせたものであり、画素SHA及び画素SHBにはArea1で示した形状の内側を透過した光束が図示した瞳強度分布で入射する。   FIG. 14 is a diagram showing vignetting on the pupil plane Me of the focus detection pixel at the center of the image sensor. FIG. 14A shows the characteristics of the pixel SHA, and FIG. 14B shows the characteristics of the pixel SHB. FIG. 14 is a view obtained by superimposing FIG. 12A and FIG. 13. A light beam transmitted through the inside of the shape indicated by Area 1 is incident on the pixel SHA and the pixel SHB with the illustrated pupil intensity distribution.

図14(c)は撮像素子中央の焦点検出用画素の瞳面Me上での入射光束の瞳強度分布を2次元で表した図である。横軸は瞳面Me上のx方向の座標を表し、縦軸は各座標の強度を表している。各座標の強度は図14(a)、(b)のy方向の瞳強度を加算したものである。画素SHAと画素SHBの瞳面Me上での入射光束の瞳強度分布はEsdAc、EsdBcで示している。図14(c)に示すように画素SHA及び画素SHBの瞳面Me上の瞳強度分布は左右対称である。また、けられる形状も左右対称形状であることから、画素SHAと画素SHBの瞳面Me上での入射光束の瞳強度分布も左右対称である。   FIG. 14C is a two-dimensional representation of the pupil intensity distribution of the incident light beam on the pupil plane Me of the focus detection pixel at the center of the image sensor. The horizontal axis represents coordinates in the x direction on the pupil plane Me, and the vertical axis represents the intensity of each coordinate. The intensity of each coordinate is obtained by adding the pupil intensity in the y direction in FIGS. 14 (a) and 14 (b). The pupil intensity distribution of the incident light beam on the pupil plane Me of the pixel SHA and the pixel SHB is indicated by EsdAc and EsdBc. As shown in FIG. 14C, the pupil intensity distributions on the pupil plane Me of the pixels SHA and SHB are symmetrical. Further, since the shape to be measured is also a bilaterally symmetric shape, the pupil intensity distribution of the incident light beam on the pupil plane Me of the pixel SHA and the pixel SHB is also bilaterally symmetric.

図15は撮像素子の中央から像高を持った位置の画素の瞳面Me上でのケラレを示した図である。図15(a)は画素SHA、図15(b)は画素SHBの特性を示している。図15は図12(b)と図13を重ね合わせたものであり、画素SHA及び画素SHBにはArea2で示した形状の内側を透過した光束が図示した瞳強度分布で入射する。   FIG. 15 is a diagram showing vignetting on a pupil plane Me of a pixel at a position having an image height from the center of the image sensor. FIG. 15A shows the characteristics of the pixel SHA, and FIG. 15B shows the characteristics of the pixel SHB. FIG. 15 is a view obtained by superimposing FIG. 12B and FIG. 13. A light beam transmitted through the inside of the shape indicated by Area 2 is incident on the pixel SHA and the pixel SHB with the illustrated pupil intensity distribution.

図15(c)は撮像素子の中央から像高を持った位置の画素の瞳面Me上での入射光束の瞳強度分布を2次元で表した図である。横軸は瞳面Me上のx方向の座標を表し、縦軸は各座標の強度を表している。各座標の強度は図15(a)、(b)のy方向の瞳強度を瞳分離方向と直交する方向に加算したものである。図15(c)中、画素SHAと画素SHBの瞳面Me上での入射光束の瞳強度分布はEsdAh、EsdBhで示している。画素SHA及び画素SHBの瞳面Me上の瞳強度分布は左右対称である。   FIG. 15C is a two-dimensional representation of the pupil intensity distribution of the incident light beam on the pupil plane Me of the pixel having the image height from the center of the image sensor. The horizontal axis represents coordinates in the x direction on the pupil plane Me, and the vertical axis represents the intensity of each coordinate. The intensity of each coordinate is obtained by adding the pupil intensity in the y direction in FIGS. 15A and 15B in a direction orthogonal to the pupil separation direction. In FIG. 15C, the pupil intensity distribution of the incident light beam on the pupil plane Me of the pixels SHA and SHB is indicated by EsdAh and EsdbBh. The pupil intensity distribution on the pupil plane Me of the pixel SHA and the pixel SHB is symmetrical.

次に本実施形態の焦点検出の流れについて図16のフローチャートを用いて説明する。なお、図16のフローにおける動作は本実施形態のの飽和判定手段、受光量推定手段、受光量補正手段であるCPU121によって実行される。   Next, the flow of focus detection of this embodiment will be described using the flowchart of FIG. The operation in the flow of FIG. 16 is executed by the CPU 121 which is the saturation determination unit, the received light amount estimation unit, and the received light amount correction unit of the present embodiment.

ステップS1ではケラレ状態を知るためのレンズ情報が読み出され、ステップS2へと進む。ここでレンズ情報とは、撮影条件であるF値やズームステートの他、本実施形態における光学系のケラレ情報が含まれる。ステップS2では使用者が設定した測距位置や範囲などの測距点情報が読み出される。完了後ステップS3へと進む。   In step S1, lens information for knowing the vignetting state is read, and the process proceeds to step S2. Here, the lens information includes the vignetting information of the optical system in the present embodiment, in addition to the F value and zoom state which are imaging conditions. In step S2, distance measurement point information such as the distance measurement position and range set by the user is read. After completion, the process proceeds to step S3.

ステップS3では各焦点検出用画素においてCPU121内のROMに保管されている瞳強度分布を読み出し、ステップS1で得られた光学系のケラレ情報と合わせて線像分布関数を算出する。完了後、ステップS4へと進む。ステップS4では、ステップS3で得られた線像分布関数の重心を算出し、基線長を求める。ここでの基線長の算出方法の詳細は後述する。完了すると、ステップS5へと進む。   In step S3, the pupil intensity distribution stored in the ROM in the CPU 121 is read for each focus detection pixel, and the line image distribution function is calculated together with the vignetting information of the optical system obtained in step S1. After completion, the process proceeds to step S4. In step S4, the center of gravity of the line image distribution function obtained in step S3 is calculated, and the baseline length is obtained. Details of the calculation method of the baseline length will be described later. When completed, the process proceeds to step S5.

ステップS5では、ステップS2で読み出された測距位置での焦点検出用画素の画像信号を読み出し、被写体A像、被写体B像が形成される。また同時に、ステップS6のクロストーク補正で用いるための、周辺画素の信号の読み出しも行う。完了後、ステップS6へと進む。   In step S5, the image signal of the focus detection pixel at the distance measurement position read in step S2 is read, and the subject A image and the subject B image are formed. At the same time, peripheral pixel signals for use in the crosstalk correction in step S6 are also read. After completion, the process proceeds to step S6.

ステップS6では、焦点検出用画素の出力値に対して、推算した周辺の画素からの漏れ込み量を減算する、クロストーク補正を行う。クロストーク補正の詳細は後述する。完了後、ステップS7へと進む。ステップS7では、ステップS1で得られた光学系のケラレ情報と瞳強度分布を用いて、被写体像A像と被写体像B像の光束のケラレ量を予測し、クロストーク補正後の被写体像A像、被写体像B像に対して光量比を調節する光量補正を行う。光量補正後、ステップS8へと進む。   In step S6, crosstalk correction is performed by subtracting the estimated leakage amount from surrounding pixels from the output value of the focus detection pixel. Details of the crosstalk correction will be described later. After completion, the process proceeds to step S7. In step S7, using the vignetting information and pupil intensity distribution of the optical system obtained in step S1, the amount of vignetting of the subject image A image and the subject image B image is predicted, and the subject image A image after crosstalk correction is performed. Then, the light amount correction for adjusting the light amount ratio is performed on the subject image B image. After the light amount correction, the process proceeds to step S8.

ステップS8では、CPU121はステップS7で得られた光量補正後の被写体像A像、被写体像B像を用いて公知の相関演算方法により像ズレ量を求め、デフォーカス量を求める。デフォーカス量算出後、ステップS9へと進む。ステップS9では、算出されたデフォーカス量が、合焦か否かの判定がされる。合焦だと判定されなかった場合には、ステップS10へと進む。合焦だと判定された場合には、ステップS11へと進む。ステップS10では、算出されたデフォーカス演算結果に応じて、第3レンズ群105を進退させる。そして、ステップS5へと戻る。ステップS11にて、一連の焦点検出フローが終了する。   In step S8, the CPU 121 obtains an image shift amount by a known correlation calculation method using the subject image A image and the subject image B image after light amount correction obtained in step S7, and obtains a defocus amount. After calculating the defocus amount, the process proceeds to step S9. In step S9, it is determined whether or not the calculated defocus amount is in focus. If it is not determined that the subject is in focus, the process proceeds to step S10. If it is determined that focus is achieved, the process proceeds to step S11. In step S10, the third lens group 105 is advanced or retracted according to the calculated defocus calculation result. Then, the process returns to step S5. In step S11, a series of focus detection flows ends.

次に、ステップS4の基線長算出方法について詳細に説明する。まず、被写体像A像に対応した線像(以下、線像A)と被写体像B像に対応した線像(以下、線像B)の重心を合わせるように移動させる。移動させた線像A、線像Bをそれぞれ線像A0、線像B0とすると、線像Aに線像B0を畳み込み積分した修正線像Aと、線像Bに線像A0を畳み込み積分した修正線像Bの重心間隔により、修正基線長を算出する。これを式で表すと以下のようになる。   Next, the baseline length calculation method in step S4 will be described in detail. First, a line image corresponding to the subject image A (hereinafter referred to as line image A) and a line image corresponding to the subject image B image (hereinafter referred to as line image B) are moved so as to coincide with each other. Assuming that the moved line image A and line image B are the line image A0 and the line image B0, respectively, the line image A is convolved and integrated with the line image B0, and the line image B is convolved with the line image A0. The corrected baseline length is calculated from the center of gravity interval of the corrected line image B. This is expressed as follows.

修正線像Aを求める式は、修正線像AをMA(x)、線像AをLA(x)、線像B0をLB’(x)とすると、   The equation for calculating the corrected line image A is MA (x) for the corrected line image A, LA (x) for the line image A, and LB '(x) for the line image B0.

…(1)
よって、修正線像Aの重心をGA’とすると、
... (1)
Therefore, if the center of gravity of the corrected line image A is GA ′,

…(2)
となる。
... (2)
It becomes.

同様に、修正線像Bを求める式は、修正線像BをMB(x)、線像BをLB(x)、線像A0をLA’(x)とすると、   Similarly, the equation for obtaining the corrected line image B is as follows. If the corrected line image B is MB (x), the line image B is LB (x), and the line image A0 is LA ′ (x),

…(3)
よって、修正線像Bの重心をGB’とすると、
... (3)
Therefore, if the center of gravity of the corrected line image B is GB ′,

…(4)
となる。
よって、求める基線長をG’とすると、
... (4)
It becomes.
Therefore, if the baseline length to be obtained is G ′,

…(5)
以上の計算により、基線長が算出される。
... (5)
The baseline length is calculated by the above calculation.

次に、ステップS6のクロストーク補正について図17のクロストーク補正の動作を示すフローチャートを用いて詳細に説明する。なお、図17のフローにおけるクロストーク補正動作は本実施形態の飽和判定手段、受光量推定手段、受光量補正手段であるCPU121によって実行される。   Next, the crosstalk correction in step S6 will be described in detail with reference to the flowchart showing the crosstalk correction operation of FIG. Note that the crosstalk correction operation in the flow of FIG. 17 is executed by the CPU 121 which is the saturation determination unit, the received light amount estimation unit, and the received light amount correction unit of this embodiment.

ステップS101では、本実施形態の飽和判定手段であるCPU121によって、図16のステップS5で読み出された、焦点検出用画素に隣接する撮像用画素の出力信号値SOが飽和値SOmaxに達しているかどうかを判定する。この処理は、ある一つの焦点検出用画素に対して、隣接する8つの画素それぞれで行われる。飽和値に達しているとステップS102へと進む。飽和値に達していないと、ステップS105へと進む。   In step S101, whether the output signal value SO of the imaging pixel adjacent to the focus detection pixel read out in step S5 of FIG. 16 by the CPU 121 which is the saturation determination unit of the present embodiment has reached the saturation value SOmax. Determine if. This process is performed for each of the eight adjacent pixels for one focus detection pixel. If the saturation value has been reached, the process proceeds to step S102. If the saturation value has not been reached, the process proceeds to step S105.

ステップS102では、本実施形態の受光量推定手段であるCPU121によって、飽和値に達している撮像用画素の受光量の、それに隣接する焦点検出用画素の受光量に対する比Rsfを算出する。例えば、撮像素子の中央から像高を持った位置でのそれぞれの受光量は、光学系のケラレ情報を用いて図15のArea2を決定し、それぞれの瞳強度分布をArea2の領域で積分することで、それぞれの受光量の相対的な比を算出することができる。受光量比Rsfの算出後、ステップS103へと進む。   In step S102, the CPU 121, which is the received light amount estimation means of the present embodiment, calculates a ratio Rsf of the received light amount of the imaging pixel that has reached the saturation value to the received light amount of the focus detection pixel adjacent thereto. For example, the amount of received light at a position having an image height from the center of the image sensor is determined by determining Area2 in FIG. 15 using the vignetting information of the optical system, and integrating each pupil intensity distribution in the Area2 area. Thus, it is possible to calculate the relative ratio of the respective received light amounts. After calculating the received light amount ratio Rsf, the process proceeds to step S103.

ステップS103では、本実施形態の受光量推定手段であるCPU121によって、飽和している撮像用画素の受光量を、隣接する焦点検出用画素の受光量FOに、Rsfを乗算することで、飽和しなかった際の受光量SOtを推定する。受光量SOtを推定後、ステップS104へと進む。   In step S103, the CPU 121, which is the received light amount estimation unit of the present embodiment, saturates the saturated received light amount of the imaging pixel by multiplying the received light amount FO of the adjacent focus detection pixel by Rsf. The amount of light received SOt when there is not is estimated. After estimating the amount of received light SOt, the process proceeds to step S104.

ステップS104では、本発明の受光量補正手段であるCPU121によって、ステップS103で推算された飽和しなかった際の受光量SOtに、CPU121内のROMに保管されているクロストーク補正係数Ecrを乗算することで、各撮像用画素から焦点検出用画素へのクロストーク補正光量CRを算出する。この処理は、ある一つの焦点検出用画素に対して、隣接する8つの画素それぞれで行われる。各撮像用画素からのクロストーク補正光量CRを全て合計してクロストーク補正光量CRsを算出する。クロストーク補正光量算出後、ステップS106へと進む。   In step S104, the CPU 121, which is the received light amount correction means of the present invention, multiplies the received light amount SOt that is not saturated estimated in step S103 by the crosstalk correction coefficient Ecr stored in the ROM in the CPU 121. Thus, the crosstalk correction light quantity CR from each imaging pixel to the focus detection pixel is calculated. This process is performed for each of the eight adjacent pixels for one focus detection pixel. The crosstalk correction light amount CRs from each imaging pixel is summed up to calculate the crosstalk correction light amount CRs. After calculating the crosstalk correction light quantity, the process proceeds to step S106.

ステップS105では、本実施形態の受光量補正手段であるCPU121によって、焦点検出用画素に隣接する撮像用画素の出力値SOに、CPU121内のROMに保管されているクロストーク補正係数Ecrを乗算することで、各撮像用画素から焦点検出用画素へのクロストーク補正光量CRを算出する。ここで用いる撮像用画素の出力値SOは、読み出された出力値SOのそのままの値である。この処理は、ある一つの焦点検出用画素に対して、隣接する8つの画素それぞれで行われる。各撮像用画素からのクロストーク補正光量CRを全て合計してクロストーク補正光量CRsを算出する。クロストーク補正光量算出後、ステップS106へと進む。   In step S <b> 105, the CPU 121, which is the received light amount correction unit of the present embodiment, multiplies the output value SO of the imaging pixel adjacent to the focus detection pixel by the crosstalk correction coefficient Ecr stored in the ROM in the CPU 121. Thus, the crosstalk correction light quantity CR from each imaging pixel to the focus detection pixel is calculated. The output value SO of the imaging pixel used here is the same value as the read output value SO. This process is performed for each of the eight adjacent pixels for one focus detection pixel. The crosstalk correction light amount CRs from each imaging pixel is summed up to calculate the crosstalk correction light amount CRs. After calculating the crosstalk correction light quantity, the process proceeds to step S106.

ステップS106では、本実施形態の受光量補正手段であるCPU121によって、焦点検出用画素の受光量FOから、クロストーク補正光量CRsを減算し、クロストーク補正を行う。ステップS106にて、一連のクロストーク補正フローが終了する。   In step S106, the CPU 121, which is a light reception amount correction unit of the present embodiment, subtracts the crosstalk correction light amount CRs from the light reception amount FO of the focus detection pixel to perform crosstalk correction. In step S106, a series of crosstalk correction flows ends.

以上のような構成によれば、焦点検出用画素の隣接画素の光量出力値が飽和値に達していても、隣接画素から焦点検出用画素への出力の漏れ込みを、より精度良く補正することが可能となる。また、飽和値に達している画素に入射した光量を、レンズのケラレ情報を用いて推定するので、多様なレンズ種類や、様々な撮影条件であるF値やズームステート、様々な像高においても、より精度良く推定することが可能となる。また、飽和値に達している画素に入射した光量を、瞳強度分布を用いて推定するので、様々な像高においても、より精度良く推定することが可能となる。これにより、より精度良く焦点検出を行うことが可能となる。   According to the above configuration, even when the light output value of the adjacent pixel of the focus detection pixel reaches the saturation value, the leakage of the output from the adjacent pixel to the focus detection pixel can be corrected with higher accuracy. Is possible. In addition, since the amount of light incident on the pixel that has reached the saturation value is estimated using the vignetting information of the lens, it can be used for various lens types, various shooting conditions such as F value and zoom state, and various image heights. It becomes possible to estimate with higher accuracy. In addition, since the amount of light incident on the pixel that has reached the saturation value is estimated using the pupil intensity distribution, it is possible to estimate with higher accuracy even at various image heights. Thereby, focus detection can be performed with higher accuracy.

Claims (3)

被写体像を結像する結像光学系の第1の瞳領域を通過する光束を受光する第1の画素群と、該第1の瞳領域よりも狭い第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、
前記第1の画素群に蓄積される光量が飽和値に達しているかどうかを判定する判定手段と、
前記判定手段によって飽和していると判定された画素の受光量を推定する受光量推定手段とを備え、
前記受光量推定手段は、前記第1の画素群の前記結像光学系の瞳面における受光感度分布と、前記第2の画素群の前記結像光学系の瞳面における受光感度分布と、前記結像光学系のケラレ情報とを用いて、前記第1の画素群の前記第2の画素群に対する受光量比を算出し、前記第2の画素群の受光量に前記受光量比を乗じることにより、前記第1の画素群の受光量を推定することを特徴とする撮像装置。
A first pixel group that receives a light beam that passes through a first pupil region of an imaging optical system that forms a subject image, and a light beam that passes through a second pupil region narrower than the first pupil region. An image sensor having a second pixel group,
Determination means for determining whether the amount of light accumulated in the first pixel group has reached a saturation value;
A received light amount estimating means for estimating a received light amount of a pixel determined to be saturated by the determining means,
The light reception amount estimation means includes a light reception sensitivity distribution on a pupil plane of the imaging optical system of the first pixel group, a light reception sensitivity distribution on a pupil plane of the imaging optical system of the second pixel group, The received light amount ratio of the first pixel group to the second pixel group is calculated using the vignetting information of the imaging optical system, and the received light amount of the second pixel group is multiplied by the received light amount ratio. Thus, the amount of light received by the first pixel group is estimated.
前記受光量推定手段によって推定した前記第1の画素群の受光量を用いて、前記第1の画素群に隣接する前記第2の画素群の受光量を補正する受光量補正手段をさらに備えることを特徴とする請求項1に記載の撮像装置。   A light reception amount correcting unit that corrects the light reception amount of the second pixel group adjacent to the first pixel group by using the light reception amount of the first pixel group estimated by the light reception amount estimation unit; The imaging apparatus according to claim 1. 前記第1の瞳領域よりも狭い第3の瞳領域を通過する光束を受光する第3の画素群の受光量と、前記受光量推定手段によって推定した前記第1の画素群の受光量とを用いて、前記第1の画素群に隣接する前記第2の画素群の受光量と、前記第1の画素群に隣接する前記第3の画素群の受光量を補正する受光量補正手段と、前記受光量補正手段によって補正された第2の画素群の出力により生成される第2の被写体像と、前記受光量補正手段によって補正された第3の画素群の出力により生成される第3の被写体像とを用いて焦点検出を行うことを特徴とする請求項1に記載の撮像装置。   The amount of light received by the third pixel group that receives a light beam passing through a third pupil region that is narrower than the first pupil region, and the amount of light received by the first pixel group estimated by the received light amount estimation means. And a received light amount correcting means for correcting the received light amount of the second pixel group adjacent to the first pixel group and the received light amount of the third pixel group adjacent to the first pixel group; A second subject image generated by the output of the second pixel group corrected by the received light amount correcting means, and a third object image generated by the output of the third pixel group corrected by the received light amount correcting means. The imaging apparatus according to claim 1, wherein focus detection is performed using a subject image.
JP2011087697A 2011-04-11 2011-04-11 Imaging apparatus Pending JP2012220790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011087697A JP2012220790A (en) 2011-04-11 2011-04-11 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011087697A JP2012220790A (en) 2011-04-11 2011-04-11 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012220790A true JP2012220790A (en) 2012-11-12

Family

ID=47272346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011087697A Pending JP2012220790A (en) 2011-04-11 2011-04-11 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012220790A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106260A (en) * 2012-11-26 2014-06-09 Canon Inc Focus detection device, image capturing device, image capturing system, and focus detection method
JP2015122669A (en) * 2013-12-24 2015-07-02 キヤノン株式会社 Image processing system, control method of the same, and program
US9525856B2 (en) 2013-06-26 2016-12-20 Olympus Corporation Imaging device and imaging method
US9838659B2 (en) 2013-06-26 2017-12-05 Olympus Corporation Image processing device and image processing method
EP4254937A4 (en) * 2020-12-17 2024-04-17 Sony Group Corp Imaging device and signal processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5559410A (en) * 1978-10-27 1980-05-02 Minolta Camera Co Ltd Zoom lens barrel which permits operation in two kinds of directions
JP2004191629A (en) * 2002-12-11 2004-07-08 Canon Inc Focus detector
JP2010025997A (en) * 2008-07-15 2010-02-04 Canon Inc Focusing device, imaging apparatus, interchangeable lens, conversion factor calibration method, and conversion factor calibration program
JP2010107770A (en) * 2008-10-30 2010-05-13 Canon Inc Imaging apparatus
JP2010154115A (en) * 2008-12-24 2010-07-08 Canon Inc Imaging apparatus
JP2010286826A (en) * 2009-05-12 2010-12-24 Canon Inc Focus detection apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5559410A (en) * 1978-10-27 1980-05-02 Minolta Camera Co Ltd Zoom lens barrel which permits operation in two kinds of directions
JP2004191629A (en) * 2002-12-11 2004-07-08 Canon Inc Focus detector
JP2010025997A (en) * 2008-07-15 2010-02-04 Canon Inc Focusing device, imaging apparatus, interchangeable lens, conversion factor calibration method, and conversion factor calibration program
JP2010107770A (en) * 2008-10-30 2010-05-13 Canon Inc Imaging apparatus
JP2010154115A (en) * 2008-12-24 2010-07-08 Canon Inc Imaging apparatus
JP2010286826A (en) * 2009-05-12 2010-12-24 Canon Inc Focus detection apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106260A (en) * 2012-11-26 2014-06-09 Canon Inc Focus detection device, image capturing device, image capturing system, and focus detection method
US9525856B2 (en) 2013-06-26 2016-12-20 Olympus Corporation Imaging device and imaging method
US9838659B2 (en) 2013-06-26 2017-12-05 Olympus Corporation Image processing device and image processing method
JP2015122669A (en) * 2013-12-24 2015-07-02 キヤノン株式会社 Image processing system, control method of the same, and program
EP4254937A4 (en) * 2020-12-17 2024-04-17 Sony Group Corp Imaging device and signal processing method

Similar Documents

Publication Publication Date Title
JP5675157B2 (en) Focus detection device
US8654227B2 (en) Focus detection apparatus, focus detection method, and image sensing apparatus
JP5276374B2 (en) Focus detection device
JP5147645B2 (en) Imaging device
US8159599B2 (en) Focus detection apparatus, focus detection method, and image sensing apparatus
JP5276371B2 (en) Imaging device
JP5322561B2 (en) Imaging apparatus and control method thereof
JP5552214B2 (en) Focus detection device
JP5202289B2 (en) Imaging device
JP5319347B2 (en) Imaging apparatus and control method thereof
US7920781B2 (en) Image capturing apparatus and control method therefor
JP5455397B2 (en) Optical equipment
JP5746496B2 (en) Imaging device
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP2010020015A (en) Image pick up apparatus
JP2010268052A (en) Imaging device
JP4858529B2 (en) Imaging device and imaging apparatus
JP2012220790A (en) Imaging apparatus
JP2010181485A (en) Image-pickup device and imaging element
JP5735784B2 (en) Imaging device and control method thereof, lens device and control method thereof
JP2011227388A (en) Imaging device
JP2016057402A (en) Imaging device and method for controlling the same
JP2014013392A (en) Imaging apparatus and control method thereof
JP2014197161A (en) Focus detecting device and method, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150703