JP2011123133A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2011123133A
JP2011123133A JP2009278944A JP2009278944A JP2011123133A JP 2011123133 A JP2011123133 A JP 2011123133A JP 2009278944 A JP2009278944 A JP 2009278944A JP 2009278944 A JP2009278944 A JP 2009278944A JP 2011123133 A JP2011123133 A JP 2011123133A
Authority
JP
Japan
Prior art keywords
focus detection
pixel
pixel group
image
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009278944A
Other languages
Japanese (ja)
Other versions
JP5486284B2 (en
Inventor
Yoshitaka Hashimoto
吉隆 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009278944A priority Critical patent/JP5486284B2/en
Publication of JP2011123133A publication Critical patent/JP2011123133A/en
Application granted granted Critical
Publication of JP5486284B2 publication Critical patent/JP5486284B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To suppress the enlargement of a ranging error even if a pixel adjacent to a focus detection pixel reaches a saturation level. <P>SOLUTION: An imaging apparatus includes: a photographic lens for forming an object image; a solid-state imaging element having a first pixel group configured to receive light passing through the pupil area of a part of the photographic lens, a second pixel group configured to receive light passing through the pupil area different from that of the first pixel group, and a third pixel group configured to receive light passing through the whole pupil area of the photographic lens; and a focus detection part configured to detect the focusing state of the photographic lens based on the first image obtained from the first pixel group and the second image obtained from the second pixel group. When the pixel constituting the third pixel group adjacent to the pixel constituting the first pixel group or the pixel constituting the second pixel group reaches the saturation level, the focus detection part is configured to set low a threshold to determine the reliability of the focus detection result. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、固体撮像素子から得られる信号に基づいて焦点状態を検出する技術に関するものである。   The present invention relates to a technique for detecting a focus state based on a signal obtained from a solid-state imaging device.

撮影レンズの焦点状態を検出する方式の一つとして、各画素にマイクロレンズが形成された2次元のイメージセンサを用いて瞳分割方式の焦点検出を行う装置が特許文献1に開示されている。特許文献1の装置では、イメージセンサを構成する各画素の光電変換部が複数に分割されており、分割された光電変換部がマイクロレンズを介して撮影レンズの瞳の異なる領域を通過した光を受光するように構成されている。   As one of methods for detecting the focus state of the photographing lens, Patent Document 1 discloses a device that performs pupil division type focus detection using a two-dimensional image sensor in which a microlens is formed in each pixel. In the device of Patent Document 1, the photoelectric conversion unit of each pixel constituting the image sensor is divided into a plurality of parts, and the divided photoelectric conversion unit transmits light that has passed through different areas of the pupil of the photographing lens via the microlens. It is configured to receive light.

また特許文献2では、マイクロレンズと光電変換部の相対位置を偏位させた画素を2次元的に配置した、焦点検出センサを兼ねた固体撮像装置を開示している。特許文献2の固体撮像装置では、撮影レンズの焦点状態を検出する時は、マイクロレンズと光電変換部の相対偏位方向が異なる画素列で生成される像に基づいて撮影レンズの焦点状態を検出している。一方通常の画像を撮像するときは、マイクロレンズと光電変換部の相対偏位方向が異なる画素を加算することにより、画像を生成している。   Patent Document 2 discloses a solid-state imaging device that also serves as a focus detection sensor, in which pixels in which the relative positions of a microlens and a photoelectric conversion unit are displaced are two-dimensionally arranged. In the solid-state imaging device of Patent Document 2, when detecting the focus state of the photographic lens, the focus state of the photographic lens is detected based on an image generated by a pixel array having different relative displacement directions of the microlens and the photoelectric conversion unit. is doing. On the other hand, when a normal image is captured, an image is generated by adding pixels having different relative displacement directions between the microlens and the photoelectric conversion unit.

特許文献3に記載の固体撮像装置は、固体撮像装置を構成する多数の画素のうち一部の画素は撮影レンズの焦点状態を検出するために光電変換部が2つに分割された構成になっている。光電変換部は、マイクロレンズを介して撮影レンズの瞳の所定領域を通過した光を受光するように構成されている。   The solid-state imaging device described in Patent Document 3 has a configuration in which some of the many pixels constituting the solid-state imaging device have a photoelectric conversion unit divided into two in order to detect the focus state of the photographing lens. ing. The photoelectric conversion unit is configured to receive light that has passed through a predetermined region of the pupil of the photographing lens via the microlens.

図8は、特許文献3に開示されている固体撮像装置の中央に位置する焦点検出を行う画素の受光分布の説明図で、2つに分割された光電変換部がそれぞれ受光可能な撮影レンズの瞳上の領域を示している。図中円内の斜線部は撮影レンズの射出瞳を示し、白抜きされた領域Sα、領域Sβは2つに分割された光電変換部の受光可能な領域で、通常撮影レンズの光軸(図中x軸とy軸の交点)に対して対称になるように設定されている。   FIG. 8 is an explanatory diagram of a light reception distribution of a pixel that performs focus detection located in the center of the solid-state imaging device disclosed in Patent Document 3, and shows a photographing lens that can be received by each of the two photoelectric conversion units. The area on the pupil is shown. In the figure, the hatched portion in the circle indicates the exit pupil of the photographic lens, and the white area Sα and the area Sβ are areas that can be received by the photoelectric conversion unit divided into two, and the optical axis of the normal photographic lens (see FIG. It is set to be symmetric with respect to the intersection of the middle x axis and the y axis.

カメラにおいては、撮影レンズの瞳上の領域Sαを透過した光束により生成された像と領域Sβを透過した光束により生成される像の相関演算を行って、撮影レンズの焦点状態を検出する。撮影レンズの異なる瞳領域を透過した光束より生成される像の相関演算を行って焦点検出を行う方法は、特許文献4に開示されている。   The camera detects the focus state of the photographic lens by performing a correlation operation between the image generated by the light beam transmitted through the region Sα on the pupil of the photographic lens and the image generated by the light beam transmitted through the region Sβ. A method of performing focus detection by performing correlation calculation of images generated from light beams transmitted through different pupil regions of the photographing lens is disclosed in Patent Document 4.

特開昭58−24105号公報(第2頁、図1)JP 58-24105 (2nd page, FIG. 1) 特許第2959142号公報(第2頁、図2)Japanese Patent No. 2959142 (2nd page, FIG. 2) 特開2005−106994号公報(第7頁、図3)Japanese Patent Laying-Open No. 2005-106994 (page 7, FIG. 3) 特開平5−127074号公報(第15頁、図34)JP-A-5-127074 (page 15, FIG. 34)

焦点検出用画素は受光可能な瞳領域が制限されているため、隣接する通常画素より出力が小さい。よって、隣接画素からのクロストークの影響をより受け易い。このクロストークは、焦点検出用画素の隣接画素に入射する光線が、焦点検出用画素の光電変換部に漏れこむ光学的要因と、隣接画素のシリコン基板内部で発生した光電子が焦点検出用画素に拡散して混入する電子的要因によって生じる。このクロストークに関する本発明の課題を、以下図9及び図10を用いて説明する。   The focus detection pixel has a limited pupil area where light can be received, and therefore has a smaller output than the adjacent normal pixel. Therefore, it is more susceptible to crosstalk from adjacent pixels. This crosstalk is caused by the optical factor that the light ray incident on the adjacent pixel of the focus detection pixel leaks into the photoelectric conversion unit of the focus detection pixel, and the photoelectrons generated inside the silicon substrate of the adjacent pixel enter the focus detection pixel. It is caused by electronic factors that diffuse and mix. The problem of the present invention regarding this crosstalk will be described below with reference to FIGS.

図9は被写体の輝度値と焦点検出用画素の出力値の関係を示したグラフ、図10は焦点検出用画像を表す図である。図9中、縦軸は焦点検出用画素の出力値、横軸は被写体の輝度を表している。CNT_Aは焦点検出用画素Pα1の出力値を表し、CNT_Bは焦点検出用画素Pα1と対となる焦点検出用画素Pβ1の出力値を表す。図9において、輝度のレベルがLVL1〜LVL3までは焦点検出用画素に隣接する画素は飽和レベルに達していない。このとき、焦点検出用画素Pα1の出力値CNT_Aと焦点検出用画素Pβ1の出力値CNT_Bの比はそれぞれの瞳領域のケラレ状態に応じて出力差が生じるが、その比率は一定である。図10(a)は焦点検出用画素から生成された焦点検出用画像を示しており、IMG_A1は焦点検出用画素Pα1から得られた焦点検出用画像、IMG_B1は焦点検出用画素Pβ1から得られた焦点検出用画像である。このとき、焦点検出用画素Pα1の出力値CNT_Aの平均値をAVE_A、焦点検出用画素Pβ1の出力値CNT_Bの平均値をAVE_Bとし、係数k=AVE_A /AVE_Bとする。そして、焦点検出用画像IMG_B1にこの係数kを乗じ、これを焦点検出用画像IMG_B2とすると、図10(b)に示すように、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2はレベル差がなくなり、同一形状となる。よって、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2を相関演算することによって、焦点状態を正確に検出することが可能となる。   FIG. 9 is a graph showing the relationship between the luminance value of the subject and the output value of the focus detection pixel, and FIG. 10 is a diagram showing the focus detection image. In FIG. 9, the vertical axis represents the output value of the focus detection pixel, and the horizontal axis represents the luminance of the subject. CNT_A represents the output value of the focus detection pixel Pα1, and CNT_B represents the output value of the focus detection pixel Pβ1 paired with the focus detection pixel Pα1. In FIG. 9, the pixels adjacent to the focus detection pixels do not reach the saturation level until the luminance level is from LVL1 to LVL3. At this time, the ratio of the output value CNT_A of the focus detection pixel Pα1 and the output value CNT_B of the focus detection pixel Pβ1 varies depending on the vignetting state of each pupil region, but the ratio is constant. FIG. 10A shows a focus detection image generated from the focus detection pixel. IMG_A1 is a focus detection image obtained from the focus detection pixel Pα1, and IMG_B1 is obtained from the focus detection pixel Pβ1. It is a focus detection image. At this time, the average value of the output value CNT_A of the focus detection pixel Pα1 is AVE_A, the average value of the output value CNT_B of the focus detection pixel Pβ1 is AVE_B, and the coefficient k = AVE_A / AVE_B. Then, when the focus detection image IMG_B1 is multiplied by this coefficient k to be a focus detection image IMG_B2, as shown in FIG. 10B, the focus detection image IMG_A1 and the focus detection image IMG_B2 have no level difference. The same shape. Therefore, the focus state can be accurately detected by performing a correlation calculation between the focus detection image IMG_A1 and the focus detection image IMG_B2.

しかし、焦点検出用画素に隣接する画素が飽和レベルに達したとき、前述の焦点検出用画素Pα1の出力値CNT_Aと焦点検出用画素Pβ1の出力値CNT_Bの比に変化が生じる。図9中、被写体の輝度レベルがLVL_4では、焦点検出用画素に隣接する画素が飽和レベルに達している。このとき、焦点検出用画素Pα1の出力値CNT_Aに対する焦点検出用画素Pβ1の出力値CNT_Bの比が大きくなっている。図10(c)は焦点検出用画素から生成された焦点検出用画像を示しており、IMG_A1は焦点検出用画素Pα1から得られた焦点検出用画像、IMG_B3は焦点検出用画素Pβ1から得られた焦点検出用画像である。図10(c)に示すように、図10(a)に図示した焦点検出用画素に隣接する画素が飽和レベルに達していないときに比べて、焦点検出用画像IMG_A1と焦点検出用画像IMG_B3のレベル差は小さくなっている。そのため、前述のとおり求めた係数kを輝度レベルLVL_3までのときと同様に焦点検出用画像IMG_B3に乗じたとき、これを焦点検出用画像IMG_B4とすると、図10(d)に示すように、焦点検出用画像IMG_A1と焦点検出用画像IMG_B4にはレベル差が残り、同一形状とならない。このため、焦点検出用画像IMG_A1と焦点検出用画像IMG_B4の差が大きいことにより、CPUが焦点検出不能と判断する場合がある。さらに、図9中、被写体の輝度レベルがLVL_4よりも高いLVL_5になると、焦点検出用画素Pα1の出力値CNT_Aと焦点検出用画素Pβ1の出力値CNT_Bの比はさらに変化するため、係数を乗じた後の焦点検出用画像のレベル差はさらに大きなものとなり、焦点検出不能となる可能性が高まる。   However, when the pixel adjacent to the focus detection pixel reaches the saturation level, a change occurs in the ratio between the output value CNT_A of the focus detection pixel Pα1 and the output value CNT_B of the focus detection pixel Pβ1. In FIG. 9, when the luminance level of the subject is LVL_4, the pixels adjacent to the focus detection pixels reach the saturation level. At this time, the ratio of the output value CNT_B of the focus detection pixel Pβ1 to the output value CNT_A of the focus detection pixel Pα1 is large. FIG. 10C shows a focus detection image generated from the focus detection pixel. IMG_A1 is a focus detection image obtained from the focus detection pixel Pα1, and IMG_B3 is obtained from the focus detection pixel Pβ1. It is a focus detection image. As shown in FIG. 10C, the focus detection image IMG_A1 and the focus detection image IMG_B3 are compared with the case where the pixel adjacent to the focus detection pixel shown in FIG. 10A does not reach the saturation level. The level difference is small. Therefore, when the focus detection image IMG_B3 is multiplied by the coefficient k obtained as described above up to the luminance level LVL_3, when this is used as the focus detection image IMG_B4, as shown in FIG. The level difference remains in the detection image IMG_A1 and the focus detection image IMG_B4, and they do not have the same shape. For this reason, the CPU may determine that focus detection is impossible because the difference between the focus detection image IMG_A1 and the focus detection image IMG_B4 is large. Further, in FIG. 9, when the luminance level of the subject becomes LVL_5 higher than LVL_4, the ratio between the output value CNT_A of the focus detection pixel Pα1 and the output value CNT_B of the focus detection pixel Pβ1 further changes, and thus is multiplied by a coefficient. The level difference between subsequent focus detection images becomes even larger, increasing the possibility that focus detection will become impossible.

以上のように、従来は、焦点検出用画素に隣接する画素が飽和レベルに達したときにおいて、焦点検出不能となる場合があるという課題がある。   As described above, conventionally, there is a problem that focus detection may be disabled when a pixel adjacent to the focus detection pixel reaches a saturation level.

本発明は上述した課題に鑑みてなされたものであり、その目的は、焦点検出用画素に隣接する画素が飽和レベルに達した場合においても、焦点検出不能となることを抑制できるようにすることである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to prevent the focus detection from becoming impossible even when the pixel adjacent to the focus detection pixel reaches the saturation level. It is.

本発明に係わる撮像装置は、被写体像を結像させるための撮影レンズと、前記撮影レンズの一部の瞳領域を通過した光を受光する第1の画素群と、前記第1の画素群とは異なる瞳領域を通過した光を受光する第2の画素群と、前記撮影レンズの全瞳領域を通過した光を受光する第3の画素群とを有する固体撮像素子と、前記第1の画素群から得られる第1の像と前記第2の画素群から得られる第2の像とに基づいて前記撮影レンズの焦点状態を検出する焦点検出手段とを備え、前記第1の画素群を構成する画素あるいは前記第2の画素群を構成する画素に隣接する前記第3の画素群を構成する画素が飽和レベルに達した場合には、前記焦点検出手段は焦点検出結果の信頼性を判定する閾値を低く設定することを特徴とする。   An imaging apparatus according to the present invention includes a photographing lens for forming a subject image, a first pixel group that receives light that has passed through a part of a pupil region of the photographing lens, and the first pixel group. Is a solid-state imaging device having a second pixel group that receives light that has passed through different pupil regions, and a third pixel group that receives light that has passed through all pupil regions of the photographing lens, and the first pixel Focus detection means for detecting a focus state of the photographing lens based on a first image obtained from the group and a second image obtained from the second pixel group, and constituting the first pixel group When the pixel constituting the third pixel group adjacent to the pixel constituting the second pixel group or the pixel constituting the second pixel group reaches a saturation level, the focus detection means determines the reliability of the focus detection result. The threshold value is set low.

本発明によれば、焦点検出用画素に隣接する画素が飽和レベルに達した場合においても、焦点検出不能となることを抑制することが可能となる。   According to the present invention, it becomes possible to prevent the focus detection from becoming impossible even when the pixel adjacent to the focus detection pixel reaches the saturation level.

本発明の第1実施形態に係わるデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera concerning 1st Embodiment of this invention. イメージセンサの一部平面図である。It is a partial top view of an image sensor. イメージセンサの一部断面図である。It is a partial sectional view of an image sensor. イメージセンサの一部断面図である。It is a partial sectional view of an image sensor. 焦点検出用画素と隣接画素の構成を示す図である。It is a figure which shows the structure of the pixel for focus detection, and an adjacent pixel. 第1実施形態における焦点検出動作を示すフローチャートである。It is a flowchart which shows the focus detection operation | movement in 1st Embodiment. 第2実施形態における焦点検出動作を示すフローチャートである。It is a flowchart which shows the focus detection operation | movement in 2nd Embodiment. 従来の固体撮像装置の中央に位置する焦点検出を行う画素の受光分布の説明図である。It is explanatory drawing of the light reception distribution of the pixel which performs the focus detection located in the center of the conventional solid-state imaging device. 被写体の輝度値と焦点検出用画素の出力値の関係を示したグラフである。6 is a graph showing a relationship between a luminance value of a subject and an output value of a focus detection pixel. 焦点検出用画像を表す図である。It is a figure showing the image for focus detection.

(第1の実施形態)
図1は本発明の第1の実施形態に係わる撮像装置であるところのデジタルカメラの構成を示す図である。図1において10はイメージセンサ(固体撮像素子)で、デジタルカメラのカメラ本体1の撮影レンズ5の予定結像面に配置されている。カメラ本体1は、カメラ全体を制御するカメラCPU20、イメージセンサ10を駆動制御する制御手段であるところのイメージセンサ制御回路21を備える。また、イメージセンサ10にて撮像した画像信号を画像処理する画像処理回路24、画像処理された画像を表示する表示手段であるところの液晶表示素子9、液晶表示素子9を駆動する液晶表示素子駆動回路25を備える。さらに、液晶表示素子9に表示された被写体像を観察するための接眼レンズ3、イメージセンサ10にて撮像された画像を記録するメモリ回路22、画像処理回路24にて画像処理された画像をカメラ外部に出力するためのインターフェース回路23を備える。また、メモリ回路22では、イメージセンサ10の受光分布も記憶できるようになっている。
(First embodiment)
FIG. 1 is a diagram showing a configuration of a digital camera which is an image pickup apparatus according to the first embodiment of the present invention. In FIG. 1, reference numeral 10 denotes an image sensor (solid-state imaging device), which is arranged on a predetermined image formation surface of the photographing lens 5 of the camera body 1 of the digital camera. The camera body 1 includes a camera CPU 20 that controls the entire camera, and an image sensor control circuit 21 that is a control unit that drives and controls the image sensor 10. Further, an image processing circuit 24 that performs image processing on an image signal captured by the image sensor 10, a liquid crystal display element 9 that is a display means for displaying an image processed image, and a liquid crystal display element drive that drives the liquid crystal display element 9. A circuit 25 is provided. Further, an eyepiece 3 for observing the subject image displayed on the liquid crystal display element 9, a memory circuit 22 for recording an image picked up by the image sensor 10, and an image processed by the image processing circuit 24 as a camera. An interface circuit 23 for outputting to the outside is provided. The memory circuit 22 can also store the light distribution of the image sensor 10.

撮影レンズ5はカメラ本体1に対して着脱可能で、便宜上2枚のレンズ5a、5bで図示しているが、実際は多数枚のレンズで構成されている。撮影レンズ5は、カメラ本体1のカメラCPU20から送られてくる焦点調節情報を電気接点26を介してレンズCPU50にて受信し、その焦点調節情報に基づいて撮影レンズ駆動機構51によって合焦状態に調節される。また53は撮影レンズ5の瞳近傍に配設された絞り装置で、絞り駆動機構52によって所定の絞り値に絞り込まれるようになっている。またカメラCPU20は、撮影レンズ5の焦点状態を算出する焦点検出演算部を兼ねている。   The photographic lens 5 is detachable from the camera body 1 and is shown with two lenses 5a and 5b for convenience, but is actually composed of a large number of lenses. The photographic lens 5 receives the focus adjustment information sent from the camera CPU 20 of the camera body 1 by the lens CPU 50 via the electrical contact 26, and is brought into a focused state by the photographic lens driving mechanism 51 based on the focus adjustment information. Adjusted. Reference numeral 53 denotes an aperture device disposed in the vicinity of the pupil of the photographic lens 5 so that the aperture is driven to a predetermined aperture value by the aperture drive mechanism 52. The camera CPU 20 also serves as a focus detection calculation unit that calculates the focus state of the photographing lens 5.

図2は本実施形態のCMOS型固体撮像素子であるイメージセンサの一部平面図である。図中131、132は電極である。電極131及び132で区切られた領域が1画素を示しており、1画素中に書かれた「R」「G」「B」の文字は各画素のカラーフィルタの色相を表している。「R」の文字の書かれた画素は赤の成分の光を透過し、「G」の文字の書かれた画素は緑の成分の光を透過し、「B」の文字の書かれた画素は青の成分の光を透過する。また、「R」「G」「B」の文字が書かれた各画素は、撮影レンズ5の全瞳領域を通過した光を受光するように構成されている。   FIG. 2 is a partial plan view of an image sensor which is a CMOS type solid-state imaging device of the present embodiment. In the figure, 131 and 132 are electrodes. The area delimited by the electrodes 131 and 132 represents one pixel, and the letters “R”, “G”, and “B” written in one pixel represent the hue of the color filter of each pixel. Pixels with the letter “R” transmit red component light, pixels with the letter “G” transmit green component light, and pixels with the letter “B” written Transmits blue component light. In addition, each pixel on which the characters “R”, “G”, and “B” are written is configured to receive light that has passed through the entire pupil region of the photographic lens 5.

カラーフィルタの配列がベイヤ配列の場合、1画素は「R」「B」の画素と2つの「G」の画素から構成されるが、本実施形態のデジタルカメラを構成するイメージセンサは「R」あるいは「B」であるべき画素の一部に、撮影レンズ5の一部の瞳領域を通過した光を受光する焦点検出用画素が割り当てられている。図中、Pα1、Pβ1、Pα2、Pβ2は撮影レンズ5の焦点状態を検出するための画素で、電極131にてx方向の開口が制限されている。   When the color filter array is a Bayer array, one pixel is composed of “R” and “B” pixels and two “G” pixels, but the image sensor that constitutes the digital camera of this embodiment is “R”. Alternatively, focus detection pixels that receive light that has passed through a part of the pupil region of the photographic lens 5 are assigned to some of the pixels that should be “B”. In the figure, 1, 1, 2, and 2 are pixels for detecting the focus state of the taking lens 5, and the aperture in the x direction is restricted by the electrode 131.

図3は、図2のイメージセンサ10の一部平面図に示した、A−A’面の断面図である。図3の右側の画素は、撮影レンズ5の全瞳領域を受光可能な画素(第3の画素群)を示し、図中左側の画素は、撮影レンズ5の一部の瞳領域からの光束を受光可能な焦点検出用画素を示している。   FIG. 3 is a cross-sectional view of the A-A ′ plane shown in the partial plan view of the image sensor 10 of FIG. 2. The right pixel in FIG. 3 indicates pixels (third pixel group) that can receive the entire pupil region of the photographic lens 5, and the left pixel in the drawing indicates a light beam from a part of the pupil region of the photographic lens 5. A focus detection pixel capable of receiving light is shown.

イメージセンサ10は、シリコン基板110の内部に光電変換部111が形成されている。光電変換部111で発生した信号電荷は、不図示のフローティングディフュージョン部、第1の電極131及び第2の電極132(図4に図示)を介して外部に出力される。光電変換部111と電極131との間には層間絶縁膜121が形成され、電極131とその上に形成される図4に示す電極132との間には層間絶縁膜122が形成されている。また、図4に示す電極132の光入射側には層間絶縁膜123が形成され、さらにパッシべーション膜140、平坦化層150が形成されている。平坦化層150の光入射側には、カラーフィルタ層151、平坦化層152及びマイクロレンズ153が形成されている。ここで、マイクロレンズ153のパワーは、撮影レンズ5の瞳と光電変換部111が略共役になるように設定されている。また、イメージセンサ10の中央に位置する画素ではマイクロレンズ153は画素の中心に配設され、周辺に位置する画素では、撮影レンズ5の光軸側に偏位して配設される。   In the image sensor 10, a photoelectric conversion unit 111 is formed inside a silicon substrate 110. The signal charge generated in the photoelectric conversion unit 111 is output to the outside through a floating diffusion unit (not shown), the first electrode 131 and the second electrode 132 (shown in FIG. 4). An interlayer insulating film 121 is formed between the photoelectric conversion unit 111 and the electrode 131, and an interlayer insulating film 122 is formed between the electrode 131 and the electrode 132 shown in FIG. 4 formed thereon. In addition, an interlayer insulating film 123 is formed on the light incident side of the electrode 132 shown in FIG. 4, and a passivation film 140 and a planarizing layer 150 are further formed. On the light incident side of the planarization layer 150, a color filter layer 151, a planarization layer 152, and a microlens 153 are formed. Here, the power of the microlens 153 is set so that the pupil of the photographing lens 5 and the photoelectric conversion unit 111 are substantially conjugate. Further, in the pixel located at the center of the image sensor 10, the microlens 153 is disposed at the center of the pixel, and at the pixels located at the periphery, the microlens 153 is disposed offset to the optical axis side of the photographing lens 5.

撮影レンズ5を透過した被写体光はイメージセンサ10近傍に集光される。さらにイメージセンサ10の各画素に到達した光は、マイクロレンズ153で屈折され光電変換部111に集光される。通常の撮像に使う図3の右側の画素では、入射する光を遮光しないように第1の電極131及び第2の電極132が配設されている。   The subject light transmitted through the photographing lens 5 is condensed near the image sensor 10. Further, the light reaching each pixel of the image sensor 10 is refracted by the microlens 153 and collected on the photoelectric conversion unit 111. In the pixel on the right side of FIG. 3 used for normal imaging, a first electrode 131 and a second electrode 132 are provided so as not to block incident light.

一方、図3の左側の撮影レンズ5の焦点検出を行う画素では、電極131の一部が光電変換部111を覆うように構成されている。その結果図中左側の焦点検出用画素では、撮影レンズ5の瞳の一部を透過する光束を受光可能となっている。また、電極131が入射光束の一部を遮光しているために光電変換部111の出力が小さくなることを防ぐために、焦点検出用の画素のカラーフィルタ層154は光を吸収しない透過率の高い樹脂で形成されている。   On the other hand, in the pixel that performs focus detection of the photographic lens 5 on the left side in FIG. 3, a part of the electrode 131 is configured to cover the photoelectric conversion unit 111. As a result, the focus detection pixel on the left side of the drawing can receive a light beam that passes through a part of the pupil of the photographing lens 5. Further, in order to prevent the output of the photoelectric conversion unit 111 from being reduced because the electrode 131 blocks a part of the incident light beam, the color filter layer 154 of the focus detection pixel has high transmittance that does not absorb light. It is made of resin.

本実施形態のイメージセンサ10の一部に配設される焦点検出用の画素は、マイクロレンズ153の位置と電極131の開口中心の相対位置を異ならせることによって、撮影レンズ5の受光分布を異ならせるように構成されている。   The focus detection pixels arranged in a part of the image sensor 10 of the present embodiment have different light reception distributions of the photographing lens 5 by making the relative positions of the microlens 153 and the opening center of the electrode 131 different. It is configured to let you.

図4は、図2のイメージセンサ10の一部平面図に示した、B−B’面の断面図である。図4の右側の画素は、撮影レンズ5の全瞳領域を受光可能な画素を示し、図中左側の画素は、撮影レンズ5の一部の瞳領域からの光束を受光可能な焦点検出用画素を示している。図3と同じものは同じ記号を付し、説明を省略する。   FIG. 4 is a cross-sectional view of the B-B ′ plane shown in the partial plan view of the image sensor 10 of FIG. 2. The right pixel in FIG. 4 indicates a pixel that can receive the entire pupil region of the photographic lens 5, and the left pixel in the drawing indicates a focus detection pixel that can receive a light beam from a partial pupil region of the photographic lens 5. Is shown. The same components as those shown in FIG.

図3で示したA−A’面の断面図と異なる点は、電極132が層間絶縁膜123中に存在し、電極131が層間絶縁膜122中に存在しない点である。図3で示したように、焦点検出用画素における電極131は受光する瞳領域を制限するために、電極131が光電変換部111を覆うように形成されていた。しかし、電極132は全瞳領域を受光可能な画素においても焦点検出用画素においても入射光を遮光しないように配設されている。   The difference from the cross-sectional view of the A-A ′ plane shown in FIG. 3 is that the electrode 132 exists in the interlayer insulating film 123 and the electrode 131 does not exist in the interlayer insulating film 122. As shown in FIG. 3, the electrode 131 in the focus detection pixel is formed so as to cover the photoelectric conversion unit 111 in order to limit the pupil region to receive light. However, the electrode 132 is disposed so as not to block incident light in both the pixel capable of receiving the entire pupil region and the focus detection pixel.

図5は、ある焦点検出用画素とその焦点検出用画素の周囲の画素を模式的に示した図である。図5に示される画素群(第3の画素群)503に含まれる隣接画素503_1〜4は焦点検出用画素群(第1の画素群)501に含まれる焦点検出用画素501_1の上下左右4方向に配置されており、焦点検出用画素(第2の画素群)502_1は焦点検出用画素501_1の左斜め上に配置されている。また、近接焦点検出用画素501_2は焦点検出用画素501_1から4画素離れた位置に配置されており、焦点検出用画素501_1と同様の構造をもつ。また、近接焦点検出用画素501_2の上下左右4方向には隣接画素503_5〜8が配置され、斜め上には同様に近接焦点検出用画素502_2が配置されている。   FIG. 5 is a diagram schematically showing a certain focus detection pixel and pixels around the focus detection pixel. Neighboring pixels 503_1 to 503_1 included in the pixel group (third pixel group) 503 shown in FIG. 5 are four directions in the vertical and horizontal directions of the focus detection pixel 501_1 included in the focus detection pixel group (first pixel group) 501. The focus detection pixel (second pixel group) 502_1 is arranged diagonally to the left of the focus detection pixel 501_1. Further, the near focus detection pixel 501_2 is disposed at a position 4 pixels away from the focus detection pixel 501_1, and has the same structure as the focus detection pixel 501_1. Further, adjacent pixels 503_5 to 8 are arranged in the four directions of the near focus detection pixel 501_2 in the upper, lower, left and right directions, and the near focus detection pixel 502_2 is similarly arranged obliquely above.

本実施形態のデジタルカメラの構成の一部であるカメラCPU20は、焦点検出用画素Pα1と同じ電極開口を有する焦点検出用画素群(第1の画素群)から第1の焦点検出用画像(第1の像)を生成する。また、同様に焦点検出用画素Pβ1と同じ電極開口を有する焦点検出用画素群(第2の画素群)から第2の焦点検出用画像(第2の像)を生成する。さらにカメラCPU20は、第1の焦点検出用画像と第2の焦点検出用画像に基づいて相関演算を行うことにより、焦点検出用画素Pα1とPβ1が位置する領域での撮影レンズ5の焦点状態を検出する。さらにカメラCPU20は、焦点検出結果に基づいて撮影レンズ駆動機構51に焦点調節情報を送って、撮影レンズ5の焦点調節を行う。一方、通常の画像の撮像時は、画素の電極開口が制限されている焦点検出用画素は欠陥画素として取り扱われ、焦点検出用画素の周辺に位置する画素から補間処理を行って画像信号が生成される。   The camera CPU 20, which is a part of the configuration of the digital camera according to the present embodiment, generates a first focus detection image (first pixel group) from a focus detection pixel group (first pixel group) having the same electrode opening as the focus detection pixel Pα 1. 1 image). Similarly, a second focus detection image (second image) is generated from a focus detection pixel group (second pixel group) having the same electrode opening as that of the focus detection pixel Pβ1. Further, the camera CPU 20 performs a correlation calculation based on the first focus detection image and the second focus detection image, thereby determining the focus state of the photographing lens 5 in the region where the focus detection pixels Pα1 and Pβ1 are located. To detect. Further, the camera CPU 20 sends focus adjustment information to the photographic lens driving mechanism 51 based on the focus detection result to adjust the focus of the photographic lens 5. On the other hand, during normal image capture, focus detection pixels with limited pixel electrode openings are treated as defective pixels, and interpolation processing is performed from pixels located around the focus detection pixels to generate image signals. Is done.

図6は、本実施形態における焦点検出動作を示すフローチャートである。カメラ本体1のシャッターボタンが押され、イメージセンサ10での露光動作が開始されると、イメージセンサ10の各画素の光電変換部111にレンズ5を透過した光束が入射し、光束量に応じて光電変換部111で電気信号に変化され、焦点検出のフローが開始される。   FIG. 6 is a flowchart showing the focus detection operation in the present embodiment. When the shutter button of the camera body 1 is pressed and the exposure operation in the image sensor 10 is started, the light beam that has passed through the lens 5 is incident on the photoelectric conversion unit 111 of each pixel of the image sensor 10, and according to the amount of light beam The photoelectric conversion unit 111 changes to an electric signal, and a focus detection flow is started.

ステップS1では、焦点検出用画素501と焦点検出用画素502の光電変換部111で光電変換された電荷量から焦点検出用画素501と焦点検出用画素502の出力値CNT_AとCNT_Bが抽出される。抽出が終了すると、ステップS2へと移る。   In step S <b> 1, output values CNT_A and CNT_B of the focus detection pixel 501 and the focus detection pixel 502 are extracted from the charge amounts photoelectrically converted by the photoelectric conversion units 111 of the focus detection pixel 501 and the focus detection pixel 502. When the extraction is completed, the process proceeds to step S2.

ステップS2では、ステップS1で抽出された出力値CNT_AとCNT_Bから図10(a)の焦点検出画像を表す図に示すように焦点検出用画像IMG_A1とIMG_B1が生成される。さらに、シェーディング状態を調整するための係数を乗じて補正し、図10(b)の焦点検出用画像を表す図に示すように焦点検出用画像IMG_A1とIMG_B2が生成される。具体的には、焦点検出用画素501の出力値CNT_Aの平均値をAVE_A、焦点検出用画素502の出力値CNT_Bの平均値をAVE_Bとし、係数k=AVE_A /AVE_Bとする。そして、焦点検出用画像IMG_B1にこの係数kを乗じ、これを焦点検出用画像IMG_B2とすると、図10(b)に示すように、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2はレベル差がなくなり、同一形状となる。よって、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2を相関演算することによって、焦点状態を正確に検出することが可能となる。焦点検出用画像IMG_A1とIMG_B1の生成が終了すると、ステップS3へと移る。   In step S2, focus detection images IMG_A1 and IMG_B1 are generated from the output values CNT_A and CNT_B extracted in step S1, as shown in the diagram representing the focus detection image in FIG. Further, correction is performed by multiplying by a coefficient for adjusting the shading state, and focus detection images IMG_A1 and IMG_B2 are generated as shown in the diagram showing the focus detection image in FIG. Specifically, the average value of the output values CNT_A of the focus detection pixels 501 is AVE_A, the average value of the output values CNT_B of the focus detection pixels 502 is AVE_B, and the coefficient k = AVE_A / AVE_B. Then, when the focus detection image IMG_B1 is multiplied by this coefficient k to be a focus detection image IMG_B2, as shown in FIG. 10B, the focus detection image IMG_A1 and the focus detection image IMG_B2 have no level difference. The same shape. Therefore, the focus state can be accurately detected by performing a correlation calculation between the focus detection image IMG_A1 and the focus detection image IMG_B2. When the generation of the focus detection images IMG_A1 and IMG_B1 is completed, the process proceeds to step S3.

ステップS3では、ステップS1で抽出された出力値CNT_AとCNT_Bから、焦点検出用画素501と焦点検出用画素502に隣接する画素の出力値を予測する。焦点検出用画素と隣接画素は受光する瞳領域の面積比と画素内のカラーフィルタ層151および154の透過率の比の関係から、概略予測することが可能となる。予測された焦点検出用画素501および焦点検出用画素502に隣接する画素の出力値が飽和レベルに達しているかどうかが判断される。判断が終了すると、ステップS4へと移る。   In step S3, output values of pixels adjacent to the focus detection pixel 501 and the focus detection pixel 502 are predicted from the output values CNT_A and CNT_B extracted in step S1. The focus detection pixel and the adjacent pixel can be roughly predicted from the relationship between the area ratio of the received pupil region and the transmittance ratio of the color filter layers 151 and 154 in the pixel. It is determined whether or not the output values of the predicted focus detection pixel 501 and the pixel adjacent to the focus detection pixel 502 have reached the saturation level. When the determination is finished, the process proceeds to step S4.

ステップS4では、ステップS3の結果に基づいて、焦点検出結果の信頼性を判定するためのパラメータが設定される。設定されるパラメータは焦点検出結果の信頼性を表す相関演算における像一致度の閾値である。前述したように、焦点検出用画素に隣接する画素が飽和レベルに達していないとき、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2のレベル差はなく、同一形状となる。よって、相関演算において、デフォーカスに相当する分だけ像ズレしたときの2像の一致度は大きく、焦点検出結果の信頼性も高い。一方、焦点検出用画素に隣接する画素が飽和レベルに達しているとき、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2にはレベル差があり、同一形状とはならない。そのため、本実施形態では、焦点検出用画素に隣接している画素が飽和している場合には、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2の相関演算を行う場合の、焦点検出不能と判断する像の一致度の閾値を低くする。これにより、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2の一致度が低い場合でも焦点検出を行うことが可能となる。ところが、その一方で、像の一致度の閾値を低くして得られた焦点検出結果は信頼性が落ちる。そのため、本実施形態では、後述するように像の一致度の閾値を低く設定した場合には、撮影レンズ駆動機構51によるレンズの駆動量を小さくする。パラメータの設定が完了すると、ステップS5へと移る。   In step S4, a parameter for determining the reliability of the focus detection result is set based on the result of step S3. The set parameter is a threshold value of the image coincidence in the correlation calculation representing the reliability of the focus detection result. As described above, when the pixels adjacent to the focus detection pixels do not reach the saturation level, there is no level difference between the focus detection image IMG_A1 and the focus detection image IMG_B2, and they have the same shape. Therefore, in the correlation calculation, the degree of coincidence between the two images when the image is shifted by an amount corresponding to defocus is large, and the reliability of the focus detection result is high. On the other hand, when the pixels adjacent to the focus detection pixels reach the saturation level, the focus detection image IMG_A1 and the focus detection image IMG_B2 have a level difference and do not have the same shape. Therefore, in this embodiment, when the pixel adjacent to the focus detection pixel is saturated, it is determined that focus detection is impossible when performing correlation calculation between the focus detection image IMG_A1 and the focus detection image IMG_B2. The threshold value of the matching degree of images to be reduced is lowered. Accordingly, focus detection can be performed even when the degree of coincidence between the focus detection image IMG_A1 and the focus detection image IMG_B2 is low. However, on the other hand, the focus detection result obtained by lowering the threshold value of image coincidence is unreliable. For this reason, in this embodiment, when the threshold value of the degree of coincidence of images is set low as described later, the driving amount of the lens by the photographing lens driving mechanism 51 is reduced. When the parameter setting is completed, the process proceeds to step S5.

ステップS5では、カメラCPU20がステップS2で生成された焦点検出用画像IMG_A1とIMG_B2を用いて測距演算を行う。焦点検出用画像IMG_A1とIMG_B2を相関方向に相対的にずらし、最も像の一致度が高いズレ量を算出する。ズレ量算出が完了すると、ステップS6へと移る。   In step S5, the camera CPU 20 performs a distance measurement calculation using the focus detection images IMG_A1 and IMG_B2 generated in step S2. The focus detection images IMG_A1 and IMG_B2 are shifted relative to each other in the correlation direction, and a shift amount with the highest degree of coincidence of images is calculated. When the deviation amount calculation is completed, the process proceeds to step S6.

ステップS6では、信頼性判定がなされる。ステップS2で生成された焦点検出用画像IMG_A1とIMG_B2の像の一致度がステップS4で設定された像一致度の閾値未満であったとき、測距不能であったとし、ステップS9へと移る。一方、焦点検出用画像IMG_A1とIMG_B2の像の一致度がステップS4で設定された像一致度の閾値以上であったとき、ステップS7へと移る。   In step S6, reliability is determined. If the degree of coincidence between the focus detection images IMG_A1 and IMG_B2 generated in step S2 is less than the image coincidence threshold set in step S4, it is determined that distance measurement is impossible, and the process proceeds to step S9. On the other hand, when the coincidence degree between the focus detection images IMG_A1 and IMG_B2 is equal to or larger than the image coincidence threshold set in step S4, the process proceeds to step S7.

ステップS7では、合焦判定がなされる。ステップS5で算出されたズレ量が設定された合焦範囲以下であれば、合焦状態であるとし、ステップS10へと移る。ステップS5で算出されたズレ量が設定された合焦範囲外であれば、合焦状態でないとし、ステップS8へと移る。   In step S7, in-focus determination is made. If the amount of deviation calculated in step S5 is less than or equal to the set focus range, it is determined that the in-focus state is reached, and the process proceeds to step S10. If the amount of deviation calculated in step S5 is out of the set focusing range, it is determined that the in-focus state is not set, and the process proceeds to step S8.

ステップS8では、カメラCPU20はステップS5で算出されたズレ量から、相当するデフォーカス量を算出し、電気接点26を介してレンズCPU50に送信する。そして、その焦点調節情報に基づいて撮影レンズ駆動機構51によって合焦状態となるよう、レンズが駆動される。このとき、ステップS4で設定された焦点検出結果の信頼性を判定する閾値(像の一致度の閾値)が低い場合には、焦点検出結果の信頼性が低いため、焦点調節情報から得られるレンズ駆動量に対して、1以下の係数を掛けた量だけ駆動する。レンズ駆動が完了すると、ステップS1へと移る。   In step S <b> 8, the camera CPU 20 calculates a corresponding defocus amount from the shift amount calculated in step S <b> 5 and transmits it to the lens CPU 50 via the electrical contact 26. Based on the focus adjustment information, the lens is driven so as to be brought into focus by the photographic lens driving mechanism 51. At this time, when the threshold for determining the reliability of the focus detection result set in step S4 (threshold for image coincidence) is low, since the reliability of the focus detection result is low, the lens obtained from the focus adjustment information Driving is performed by an amount obtained by multiplying the driving amount by a coefficient of 1 or less. When the lens driving is completed, the process proceeds to step S1.

ステップS9では、ステップS6の合焦判定を受けて、測距不能であることを、ユーザーに通知する。通知は、液晶表示素子9による表示や、不図示のスピーカーによる音声伝達など、ユーザーが分かる方法で行えばよい。ユーザーへの通知が完了すると、ステップS10へと移る。ステップS10では、焦点検出モードが終了し、一連のシーケンスが完了する。   In step S9, the focus determination in step S6 is received and the user is notified that distance measurement is impossible. The notification may be performed by a method that can be understood by the user, such as display by the liquid crystal display element 9 or voice transmission by a speaker (not shown). When the notification to the user is completed, the process proceeds to step S10. In step S10, the focus detection mode ends and a series of sequences is completed.

以上のような構成によれば、焦点検出用画素に隣接する画素が飽和レベルに達していることにより焦点検出が不能となることを抑制することが可能となる。   According to the configuration as described above, it is possible to prevent the focus detection from being disabled due to the pixel adjacent to the focus detection pixel reaching the saturation level.

なお、本実施形態では、焦点検出用画素の出力値から焦点検出用画素に隣接する画素の出力を予測したが、焦点検出用画素に隣接する画素の出力値を抽出し、飽和レベルに達しているかどうかを判定してもよい。   In this embodiment, the output of the pixel adjacent to the focus detection pixel is predicted from the output value of the focus detection pixel. However, the output value of the pixel adjacent to the focus detection pixel is extracted and reaches the saturation level. It may be determined whether or not.

(第2の実施形態)
第1の実施形態においては、像の一致度が閾値未満であったとき、測距不能とした。しかし、別の焦点検出演算手段を有していたときには、別の焦点検出演算手段に切り替えるようにしてもよい。以下に、別の焦点検出演算手段を有していた場合の実施形態を示す。以下、第1の実施形態で説明した焦点検出用画素の信号を用いた焦点検出演算手段を第1の焦点検出演算手段(第1の焦点検出手段)とし、前記第1の焦点検出演算手段と異なる焦点検出演算手段を第2の焦点検出演算手段(第2の焦点検出手段)と呼ぶ。
(Second Embodiment)
In the first embodiment, distance measurement is impossible when the degree of coincidence of images is less than a threshold value. However, when another focus detection calculation means is provided, it may be switched to another focus detection calculation means. In the following, an embodiment in which another focus detection calculation means is provided will be described. Hereinafter, the focus detection calculation means using the signal of the focus detection pixel described in the first embodiment is referred to as a first focus detection calculation means (first focus detection means), and the first focus detection calculation means and Different focus detection calculation means are referred to as second focus detection calculation means (second focus detection means).

本実施形態におけるデジタルカメラの主な構成は第1の実施形態と変わらないため、図示および説明は省略する。ただし、カメラCPU20は上記の第3の画素群から得られる撮影画像(第3の像)のコントラスト情報を元に、被写体の焦点検出を行う第2の演算手段を兼ねている。   Since the main configuration of the digital camera in the present embodiment is the same as that of the first embodiment, illustration and description are omitted. However, the camera CPU 20 also serves as second calculation means for detecting the focus of the subject based on the contrast information of the captured image (third image) obtained from the third pixel group.

図7は本実施形態の焦点検出動作を示すフローチャートである。ステップS104、ステップS109以外は第1の実施形態の図6と同様であるため、説明は省略する。   FIG. 7 is a flowchart showing the focus detection operation of this embodiment. Since steps other than step S104 and step S109 are the same as those in FIG. 6 of the first embodiment, description thereof will be omitted.

ステップS104では、焦点検出用画素に隣接している画素が飽和している場合には、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2の相関演算を行う場合の、焦点検出不能と判断する像の一致度の閾値を高くする。これにより、焦点検出用画素に隣接している画素が飽和していて、焦点検出用画像IMG_A1と焦点検出用画像IMG_B2の一致度が低い場合には、後述するように、強制的に第2の焦点検出演算手段により焦点検出演算が行われる。   In step S104, when a pixel adjacent to the focus detection pixel is saturated, an image that is determined to be incapable of focus detection when performing a correlation calculation between the focus detection image IMG_A1 and the focus detection image IMG_B2. Increase the threshold of coincidence. As a result, when the pixels adjacent to the focus detection pixels are saturated and the degree of coincidence between the focus detection image IMG_A1 and the focus detection image IMG_B2 is low, forcibly, as described later, the second Focus detection calculation is performed by the focus detection calculation means.

ステップS106で像の一致度が、ステップS104で高く設定された閾値よりも低い場合には、ステップS109に進む。ステップS109では、カメラCPU20により第2の焦点検出を開始する。CPU20は公知の手法により、撮影された画像のコントラスト情報を算出し、ピント状態を判定する。第2の焦点検出演算手段による合焦動作が完了すると、ステップS110へと移る。ステップS110では、焦点検出モードが終了し、一連のシーケンスが完了する。   If the image coincidence degree is lower than the threshold value set high in step S104 in step S106, the process proceeds to step S109. In step S109, the camera CPU 20 starts the second focus detection. The CPU 20 calculates the contrast information of the captured image by a known method and determines the focus state. When the focusing operation by the second focus detection calculating means is completed, the process proceeds to step S110. In step S110, the focus detection mode ends and a series of sequences is completed.

以上のような構成によれば、焦点検出用画素に隣接する画素が飽和レベルに達している場合には、第2の焦点検出演算手段により焦点検出することとなり、より広い撮影条件での焦点検出が可能となる。   According to the above configuration, when the pixel adjacent to the focus detection pixel reaches the saturation level, focus detection is performed by the second focus detection calculation unit, and focus detection under a wider shooting condition is performed. Is possible.

Claims (3)

被写体像を結像させるための撮影レンズと、
前記撮影レンズの一部の瞳領域を通過した光を受光する第1の画素群と、前記第1の画素群とは異なる瞳領域を通過した光を受光する第2の画素群と、前記撮影レンズの全瞳領域を通過した光を受光する第3の画素群とを有する固体撮像素子と、
前記第1の画素群から得られる第1の像と前記第2の画素群から得られる第2の像とに基づいて前記撮影レンズの焦点状態を検出する焦点検出手段とを備え、
前記第1の画素群を構成する画素あるいは前記第2の画素群を構成する画素に隣接する前記第3の画素群を構成する画素が飽和レベルに達した場合には、前記焦点検出手段は焦点検出結果の信頼性を判定する閾値を低く設定することを特徴とする撮像装置。
A photographic lens for forming a subject image;
A first pixel group that receives light that has passed through a part of the pupil region of the photographic lens; a second pixel group that receives light that has passed through a pupil region different from the first pixel group; A solid-state imaging device having a third pixel group that receives light that has passed through the entire pupil region of the lens;
A focus detection unit that detects a focus state of the photographing lens based on a first image obtained from the first pixel group and a second image obtained from the second pixel group;
When the pixels constituting the first pixel group or the pixels constituting the third pixel group adjacent to the pixels constituting the second pixel group reach a saturation level, the focus detection means An imaging apparatus, wherein a threshold value for determining reliability of a detection result is set low.
前記第1の画素群を構成する画素あるいは前記第2の画素群を構成する画素に隣接する前記第3の画素群を構成する画素が飽和レベルに達した場合には、前記焦点検出手段は焦点検出を行わないことを特徴とする請求項1に記載の撮像装置。   When the pixels constituting the first pixel group or the pixels constituting the third pixel group adjacent to the pixels constituting the second pixel group reach a saturation level, the focus detection means The imaging apparatus according to claim 1, wherein no detection is performed. 前記第3の画素群から得られる第3の像のコントラストに基づいて焦点状態を検出する第2の焦点検出手段をさらに備え、前記第1の画素群を構成する画素あるいは前記第2の画素群を構成する画素に隣接する前記第3の画素群を構成する画素が飽和レベルに達した場合には、前記第2の焦点検出手段により焦点検出を行うことを特徴とする請求項1に記載の撮像装置。   A second focus detection unit configured to detect a focus state based on a contrast of a third image obtained from the third pixel group; and pixels constituting the first pixel group or the second pixel group 2. The focus detection is performed by the second focus detection unit when a pixel constituting the third pixel group adjacent to the pixel constituting the pixel reaches a saturation level. Imaging device.
JP2009278944A 2009-12-08 2009-12-08 Imaging device Expired - Fee Related JP5486284B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009278944A JP5486284B2 (en) 2009-12-08 2009-12-08 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009278944A JP5486284B2 (en) 2009-12-08 2009-12-08 Imaging device

Publications (2)

Publication Number Publication Date
JP2011123133A true JP2011123133A (en) 2011-06-23
JP5486284B2 JP5486284B2 (en) 2014-05-07

Family

ID=44287099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009278944A Expired - Fee Related JP5486284B2 (en) 2009-12-08 2009-12-08 Imaging device

Country Status (1)

Country Link
JP (1) JP5486284B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013022111A1 (en) * 2011-08-11 2013-02-14 Canon Kabushiki Kaisha Image sensor and image sensing apparatus
JP2014203050A (en) * 2013-04-09 2014-10-27 キヤノン株式会社 Image capturing device and control method therefor
WO2015046246A1 (en) * 2013-09-30 2015-04-02 オリンパス株式会社 Camera system and focal point detection pixel correction method
JP2017223920A (en) * 2016-06-17 2017-12-21 キヤノン株式会社 Imaging device and method for controlling the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228914A (en) * 2001-01-30 2002-08-14 Olympus Optical Co Ltd Range finder
JP2008242182A (en) * 2007-03-28 2008-10-09 Nikon Corp Focus detection device, focus detection method and imaging apparatus
JP2009063921A (en) * 2007-09-07 2009-03-26 Canon Inc Imaging apparatus
JP2009122524A (en) * 2007-11-16 2009-06-04 Nikon Corp Focus detecting device and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228914A (en) * 2001-01-30 2002-08-14 Olympus Optical Co Ltd Range finder
JP2008242182A (en) * 2007-03-28 2008-10-09 Nikon Corp Focus detection device, focus detection method and imaging apparatus
JP2009063921A (en) * 2007-09-07 2009-03-26 Canon Inc Imaging apparatus
JP2009122524A (en) * 2007-11-16 2009-06-04 Nikon Corp Focus detecting device and imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013022111A1 (en) * 2011-08-11 2013-02-14 Canon Kabushiki Kaisha Image sensor and image sensing apparatus
JP2013041890A (en) * 2011-08-11 2013-02-28 Canon Inc Image pickup device and image pickup apparatus
US9030589B2 (en) 2011-08-11 2015-05-12 Canon Kabushiki Kaisha Image sensor and image sensing apparatus
JP2014203050A (en) * 2013-04-09 2014-10-27 キヤノン株式会社 Image capturing device and control method therefor
WO2015046246A1 (en) * 2013-09-30 2015-04-02 オリンパス株式会社 Camera system and focal point detection pixel correction method
JP2015069180A (en) * 2013-09-30 2015-04-13 オリンパス株式会社 Camera system and correction method of focus detection pixels
CN105593739A (en) * 2013-09-30 2016-05-18 奥林巴斯株式会社 Camera system and focal point detection pixel correction method
US9509899B2 (en) 2013-09-30 2016-11-29 Olympus Corporation Camera system and method for correcting focus detection pixel
JP2017223920A (en) * 2016-06-17 2017-12-21 キヤノン株式会社 Imaging device and method for controlling the same

Also Published As

Publication number Publication date
JP5486284B2 (en) 2014-05-07

Similar Documents

Publication Publication Date Title
JP5159700B2 (en) Optical apparatus and focus detection method
JP5825817B2 (en) Solid-state imaging device and imaging apparatus
JP5422889B2 (en) Solid-state imaging device and imaging apparatus using the same
JP5493010B2 (en) Imaging apparatus and focus position detection method thereof
JP5322561B2 (en) Imaging apparatus and control method thereof
JP5693082B2 (en) Imaging device
JP4957413B2 (en) Solid-state imaging device and imaging apparatus using the same
JP5493011B2 (en) Imaging apparatus and focus position detection method thereof
JP5361535B2 (en) Imaging device
JP5274299B2 (en) Imaging device
JP5219787B2 (en) Imaging device
US8902349B2 (en) Image pickup apparatus
JP5629832B2 (en) Imaging device and method for calculating sensitivity ratio of phase difference pixel
JP2011145559A (en) Image capturing apparatus
JP2005303409A (en) Solid state imaging device
JP2012027390A (en) Imaging apparatus
JP5680797B2 (en) Imaging apparatus, image processing apparatus, and image processing method
WO2012073727A1 (en) Imaging device and focal position detection method
JP5486284B2 (en) Imaging device
JP5866760B2 (en) Imaging device
JP2013054137A (en) Imaging apparatus
JP5949893B2 (en) Imaging device
JP6760424B2 (en) Focus adjuster
JP2012042863A (en) Imaging device
JP2012226115A (en) Imager, imaging apparatus and camera system with the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140221

R151 Written notification of patent or utility model registration

Ref document number: 5486284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees