JP4983271B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4983271B2
JP4983271B2 JP2007010230A JP2007010230A JP4983271B2 JP 4983271 B2 JP4983271 B2 JP 4983271B2 JP 2007010230 A JP2007010230 A JP 2007010230A JP 2007010230 A JP2007010230 A JP 2007010230A JP 4983271 B2 JP4983271 B2 JP 4983271B2
Authority
JP
Japan
Prior art keywords
focus detection
imaging
pixels
image
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007010230A
Other languages
Japanese (ja)
Other versions
JP2008177903A (en
Inventor
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007010230A priority Critical patent/JP4983271B2/en
Publication of JP2008177903A publication Critical patent/JP2008177903A/en
Application granted granted Critical
Publication of JP4983271B2 publication Critical patent/JP4983271B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は撮像装置に関する。   The present invention relates to an imaging apparatus.

瞳分割位相差検出方式の焦点検出用画素を撮影素子の中央部に配列し、この焦点検出用画素列で撮影光学系の焦点検出を行うとともに、焦点検出用画素列の周囲に二次元状に配列した撮像用画素で撮像を行うようにした撮像装置が知られている(例えば、特許文献1参照)。     Focus detection pixels of the pupil division phase difference detection method are arranged in the center of the imaging element, and the focus detection of the imaging optical system is performed with this focus detection pixel array, and two-dimensionally around the focus detection pixel array There is known an imaging apparatus that performs imaging with an array of imaging pixels (see, for example, Patent Document 1).

この出願の発明に関連する先行技術文献としては次のものがある。
特開平01−216306号公報
Prior art documents related to the invention of this application include the following.
Japanese Unexamined Patent Publication No. 01-216306

しかしながら、上述した従来の撮像装置では、焦点検出用画素位置の画像出力を周囲の撮像用画素の画素出力を用いて補間により求めなけらばならないので、撮影画面内の多くの位置で焦点検出を行うために多くの焦点検出用画素列を配置するほど画像品質が劣化するという問題がある。   However, in the conventional imaging device described above, the image output at the focus detection pixel position must be obtained by interpolation using the pixel output of the surrounding imaging pixels, so that focus detection is performed at many positions in the shooting screen. There is a problem that image quality deteriorates as more focus detection pixel rows are arranged for the purpose.

請求項1の発明による撮像装置は、光学系からの光束を互いに異なる第1方向および第2方向に分割する光束分割手段と、前記第1方向に分割された光束による像を画像信号に変換する二次元状に配列された第1撮像用画素と、該第1撮像用画素の配列中に配置された第1焦点検出用画素とを有する第1の撮像素子と、前記第2方向に分割された光束による像を画像信号に変換する二次元状に配列された第2撮像用画素と、該第2撮像用画素の配列中の、前記光学系による画面上の前記第1焦点検出用画素とは異なる位置に配置された第2焦点検出用画素とを有する第2の撮像素子とを備えたことを特徴とする。
請求項15の発明による撮像装置は、光学系からの光束を互いに異なる第1方向および第2方向に分割する光束分割手段と、前記第1方向に分割された光束による像を画像信号に変換する二次元状に配列された第1撮像用画素と、該第1撮像用画素の配列中に配置された第1焦点検出用画素とを有する第1の撮像素子と、前記第2方向に分割された光束による像を画像信号に変換する二次元状に配列された第2撮像用画素と、該第2撮像用画素の配列中に配置された第2焦点検出用画素とを有する第2の撮像素子と、前記第1の撮像素子の前記第1焦点検出用画素の位置における画像出力を、前記第2の撮像素子において前記第1焦点検出用画素に対応する位置の前記第2撮像用画素の出力に基づいて生成する画像生成手段とを備えたことを特徴とする。
An image pickup apparatus according to a first aspect of the present invention converts a light beam from the optical system into a first light beam direction and a second light beam direction that are different from each other, and an image of the light beam divided in the first direction into an image signal. A first imaging device having first imaging pixels arranged two-dimensionally and first focus detection pixels arranged in the array of the first imaging pixels; and divided in the second direction. Second imaging pixels arranged in a two-dimensional manner for converting an image of the luminous flux into an image signal, and the first focus detection pixels on the screen by the optical system in the array of the second imaging pixels, And a second imaging element having second focus detection pixels arranged at different positions .
According to a fifteenth aspect of the present invention, there is provided an image pickup apparatus that converts a light beam from an optical system into a first direction and a second direction different from each other, and converts an image of the light beam divided in the first direction into an image signal. A first imaging device having first imaging pixels arranged two-dimensionally and first focus detection pixels arranged in the array of the first imaging pixels; and divided in the second direction. Second imaging device comprising: second imaging pixels arranged in a two-dimensional manner for converting an image of the luminous flux into an image signal; and second focus detection pixels arranged in the array of the second imaging pixels. Image output at the position of the first focus detection pixel of the first image sensor and the second image pickup pixel at the position corresponding to the first focus detection pixel of the second image sensor. further comprising an image generating means for generating on the basis of the output And butterflies.

本発明によれば、撮像用画素中に焦点検出用画素を配列した固体撮像素子において、焦点検出用画素位置の画像データを補間による画質の劣化を防止することができる。   According to the present invention, in a solid-state imaging device in which focus detection pixels are arranged in image pickup pixels, image quality deterioration due to interpolation of image data at the focus detection pixel position can be prevented.

図1は一実施の形態の構成を示す。一実施の形態のデジタルカメラ201は交換レンズ202とカメラボディ203から構成され、マウント部204を介して交換レンズ202がカメラボディ203に装着される。   FIG. 1 shows the configuration of an embodiment. A digital camera 201 according to an embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 via a mount unit 204.

交換レンズ202はレンズ駆動制御装置206、ズーミングレンズ208、レンズ209、フォーカシングレンズ210、絞り211などを備えている。レンズ駆動制御装置206はマイクロコンピューターとメモリなどの周辺部品から構成され、フォーカシングレンズ208と絞り211の駆動制御、ズーミングレンズ208、フォーカシングレンズ210および絞り211の状態検出、後述するボディ駆動制御装置214との通信によりレンズ情報の送信とカメラ情報の受信などを行う。   The interchangeable lens 202 includes a lens drive control device 206, a zooming lens 208, a lens 209, a focusing lens 210, a diaphragm 211, and the like. The lens drive control device 206 is composed of peripheral components such as a microcomputer and a memory. The lens drive control device 206 controls the driving of the focusing lens 208 and the aperture 211, detects the states of the zooming lens 208, the focusing lens 210 and the aperture 211, and a body drive control device 214 which will be described later. The lens information is transmitted and the camera information is received by the communication.

一方、カメラボディ203はボディ駆動制御装置214、液晶表示装置駆動回路215、液晶表示素子216、メモリカード219、撮像素子220、221、光分割プリズム223などを備えている。光分割プリズム223は、交換レンズ202から到来する光束を反射光束と透過光束に1:1に分割するハーフミラー面222を備えている。撮像素子220は光分割プリズム223を透過した光束を受光する固体撮像素子であり、交換レンズ202の予定結像面(撮像面)に配置される。一方、撮像素子221は光分割プリズム223を反射した光束を受光する固体撮像素子であり、交換レンズ202の他の予定結像面(撮像面)に配置される。   On the other hand, the camera body 203 includes a body drive control device 214, a liquid crystal display device drive circuit 215, a liquid crystal display element 216, a memory card 219, imaging elements 220 and 221 and a light splitting prism 223. The light splitting prism 223 includes a half mirror surface 222 that splits the light beam coming from the interchangeable lens 202 into a reflected light beam and a transmitted light beam in a 1: 1 ratio. The image sensor 220 is a solid-state image sensor that receives the light beam that has passed through the light splitting prism 223, and is disposed on the planned imaging plane (imaging plane) of the interchangeable lens 202. On the other hand, the image pickup device 221 is a solid-state image pickup device that receives the light beam reflected by the light splitting prism 223, and is disposed on another scheduled image formation surface (image pickup surface) of the interchangeable lens 202.

ボディ駆動制御装置214はマイクロコンピューターとメモリなどの周辺部品から構成され、固体撮像素子220、221からの画像信号の読み出しと補正、レンズ駆動制御装置214との通信(レンズ情報の受信、デフォーカス量などのカメラ情報の送信)、交換レンズ202の焦点調節状態(デフォーカス量)の検出、およびカメラ全体の動作制御を行う。ボディ駆動制御装置214とレンズ駆動制御装置206はマウント部204に設けられた電気接点213を介して通信を行い、レンズ情報、デフォーカス量、絞り情報などの各種情報の授受を行う。   The body drive control device 214 includes peripheral components such as a microcomputer and a memory, reads and corrects image signals from the solid-state imaging devices 220 and 221, and communicates with the lens drive control device 214 (reception of lens information, defocus amount). Transmission of camera information), detection of the focus adjustment state (defocus amount) of the interchangeable lens 202, and operation control of the entire camera. The body drive control device 214 and the lens drive control device 206 communicate via an electrical contact 213 provided in the mount unit 204 to exchange various information such as lens information, defocus amount, and aperture information.

この一実施の形態のカメラでは、液晶表示素子駆動回路215と液晶表示素子216によりEVF(Electric View Finder)を構成し、固体撮像素子220、221による撮像画像を液晶表示素子216に表示して接眼レンズ217を介して撮影者に視認させる。なお、撮像画像はメモリカード219に記録される。   In the camera according to this embodiment, an EVF (Electric View Finder) is configured by the liquid crystal display element driving circuit 215 and the liquid crystal display element 216, and an image captured by the solid-state imaging elements 220 and 221 is displayed on the liquid crystal display element 216. The photographer is made to visually recognize through the lens 217. The captured image is recorded in the memory card 219.

固体撮像素子220、221には撮像用画素が2次元状に配置されるとともに、焦点検出位置に対応した部分に焦点検出用画素列が組み込まれている。交換レンズ202を透過して光分割プリズム223により分割された光束により固体撮像素子220、221上に形成された被写体像は、固体撮像素子220,221により光電変換され、それらの出力はボディ駆動制御装置214へ送られる。   The solid-state imaging devices 220 and 221 have imaging pixels arranged two-dimensionally, and a focus detection pixel array is incorporated in a portion corresponding to the focus detection position. Subject images formed on the solid-state image sensors 220 and 221 by the light beams that have been transmitted through the interchangeable lens 202 and divided by the light splitting prism 223 are photoelectrically converted by the solid-state image sensors 220 and 221, and their outputs are subjected to body drive control. Sent to device 214.

ボディ駆動制御装置214は、焦点検出用画素の出力に基づき焦点検出位置におけるデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像画素の出力に基づき生成した画像信号をメモリカード219に格納するとともに、画像信号を液晶表示素子駆動回路215へ送り、画像信号を液晶表示素子216に表示させる。さらに、ボディ駆動制御装置214は、レンズ駆動制御装置206へ絞り制御情報を伝達し、絞り開口の大きさを制御させる。   The body drive control device 214 calculates a defocus amount at the focus detection position based on the output of the focus detection pixel, and sends this defocus amount to the lens drive control device 206. The body drive control device 214 stores the image signal generated based on the output of the imaging pixel in the memory card 219 and sends the image signal to the liquid crystal display element drive circuit 215 to display the image signal on the liquid crystal display element 216. . Furthermore, the body drive control device 214 transmits aperture control information to the lens drive control device 206 to control the size of the aperture opening.

レンズ駆動制御装置206は、レンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ駆動制御装置206は、ズーミングレンズ208、フォーカシングレンズ210の位置と、絞り211の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。また、レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に基づいてフォーカシングレンズ210を不図示のモーター等の駆動源により合焦点へと駆動するとともに、受信した絞り制御情報に基づいて絞り211を不図示のモーター等の駆動源により駆動する。   The lens drive control device 206 changes the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the lens drive control device 206 monitors the positions of the zooming lens 208 and the focusing lens 210 and the aperture position of the aperture 211, calculates lens information according to the monitor information, or provides a look that is prepared in advance. Select lens information according to monitor information from the up table. The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to a focal point by a drive source such as a motor (not shown) based on the lens drive amount. Based on the received aperture control information, the aperture 211 is driven by a drive source such as a motor (not shown).

図2は固体撮像素子220の平面図である。固体撮像素子220は、単一の基板上において行方向とそれに直交する方向の列方向に二次元正方配列された撮像用画素および焦点検出用画素から構成される。すなわち、撮像用画素は行方向と列方向に稠密に配列されており、固体撮像素子220では画素の稠密配列方向は行方向と列方向になる。図2において、点100は撮影画面中心(交換レンズ202の光軸と固体撮像素子220の交点)であり、直線101は点100を通る行方向(水平方向)の直線であり、直線102は点100を通る列方向(垂直方向)の直線である。   FIG. 2 is a plan view of the solid-state image sensor 220. The solid-state imaging device 220 includes imaging pixels and focus detection pixels that are two-dimensionally arranged in a row direction and a column direction perpendicular to the row direction on a single substrate. That is, the imaging pixels are densely arranged in the row direction and the column direction, and in the solid-state imaging device 220, the dense arrangement directions of the pixels are the row direction and the column direction. In FIG. 2, a point 100 is the center of the photographing screen (intersection of the optical axis of the interchangeable lens 202 and the solid-state image sensor 220), a straight line 101 is a straight line in the row direction (horizontal direction) passing through the point 100, and a straight line 102 is a point. 100 is a straight line passing through 100 in the column direction (vertical direction).

直線102の上方向が図1に示すAの方向であり、下方向が図1に示すBの方向である。直線103は点100を中心に直線101を反時計回りに45度回転した直線であり、直線104は点100を中心に直線101を時計回りに45度回転した直線である。固体撮像素子220は直線103と直線104により4つの区域に分割され、区域110と区域130は点100から行方向で右方向および左方向に広がる区域であり、区域150と区域170は点100から列方向で上方向および下方向に広がる区域である。   The upward direction of the straight line 102 is the direction A shown in FIG. 1, and the downward direction is the direction B shown in FIG. A straight line 103 is a straight line obtained by rotating the straight line 101 about 45 degrees counterclockwise around the point 100, and a straight line 104 is a straight line obtained by rotating the straight line 101 about 45 degrees clockwise around the point 100. The solid-state imaging device 220 is divided into four areas by a straight line 103 and a straight line 104, and the area 110 and the area 130 are areas extending from the point 100 in the right and left directions in the row direction, and the area 150 and the area 170 are from the point 100. It is an area that spreads upward and downward in the row direction.

点100を中心とする楕円105、106において、点100を含む楕円105の内側が画面中心近傍の領域107であり、楕円105の外側でかつ楕円106の内側の領域は中間的な領域108であり、楕円106の外側の領域は画面周辺の領域109である。   In the ellipses 105 and 106 centered on the point 100, the inside of the ellipse 105 including the point 100 is an area 107 near the center of the screen, and the area outside the ellipse 105 and inside the ellipse 106 is an intermediate area 108. The area outside the ellipse 106 is an area 109 around the screen.

図2おいて、小さな長方形で示した領域に焦点検出画素が配列されている。この領域が焦点検出領域(焦点検出エリア)となる。長方形の長手方向が焦点検出画素の配列方向を示しており、焦点検出画素が行方向に配列された領域を黒く塗りつぶした長方形で示している。長方形の長手方向の長さは焦点検出領域の長さ(焦点検出画素の配列画素数)を示しており、領域122、142は他の領域よりその長さが短く設定されている。焦点検出領域以外には撮像用画素が配列されており、複数の焦点検出領域の間の領域は撮像用画素のみの領域となっている。   In FIG. 2, focus detection pixels are arranged in a region indicated by a small rectangle. This area becomes a focus detection area (focus detection area). The longitudinal direction of the rectangle indicates the arrangement direction of the focus detection pixels, and the region in which the focus detection pixels are arranged in the row direction is indicated by a black rectangle. The length of the rectangle in the longitudinal direction indicates the length of the focus detection area (the number of pixels in which focus detection pixels are arranged). The areas 122 and 142 are set to be shorter than the other areas. In addition to the focus detection area, imaging pixels are arranged, and an area between the plurality of focus detection areas is an area of only the imaging pixels.

図3は固体撮像素子221の平面図である。固体撮像素子221は、単一の基板上において行方向とそれに直交する方向の列方向に二次元正方配列された撮像用画素および焦点検出用画素から構成される。すなわち、撮像用画素は行方向と列方向に稠密に配列されており、固体撮像素子221では画素の稠密配列方向は行方向と列方向になる。図3において、点100は撮影画面中心(交換レンズ202の光軸と固体撮像素子221の交点)であり、直線101は点100を通る行方向(水平方向)の直線であり、直線102は点100を通る列方向(垂直方向)の直線である。   FIG. 3 is a plan view of the solid-state image sensor 221. The solid-state imaging device 221 includes imaging pixels and focus detection pixels that are two-dimensionally arranged in a row direction and a column direction perpendicular to the row direction on a single substrate. That is, the imaging pixels are densely arranged in the row direction and the column direction, and in the solid-state imaging element 221, the dense arrangement direction of the pixels is the row direction and the column direction. In FIG. 3, a point 100 is the center of the photographing screen (intersection of the optical axis of the interchangeable lens 202 and the solid-state image sensor 221), a straight line 101 is a straight line in the row direction (horizontal direction) passing through the point 100, and a straight line 102 is a point. 100 is a straight line passing through 100 in the column direction (vertical direction).

直線102の上方向が図1に示すAの方向であり、下方向が図1に示すBの方向である。直線103は点100を中心に直線101を反時計回りに45度回転した直線であり、直線104は点100を中心に直線101を時計回りに45度回転した直線である。固体撮像素子221は直線103と直線104により4つの区域に分割され、区域110と区域130は点100から行方向で右方向および左方向に広がる区域であり、区域150と区域170は点100から列方向で上方向および下方向に広がる区域である。   The upward direction of the straight line 102 is the direction A shown in FIG. 1, and the downward direction is the direction B shown in FIG. A straight line 103 is a straight line obtained by rotating the straight line 101 about 45 degrees counterclockwise around the point 100, and a straight line 104 is a straight line obtained by rotating the straight line 101 about 45 degrees clockwise around the point 100. The solid-state imaging device 221 is divided into four areas by a straight line 103 and a straight line 104. The area 110 and the area 130 are areas extending in the right and left directions in the row direction from the point 100, and the area 150 and the area 170 are from the point 100. It is an area that spreads upward and downward in the row direction.

点100を中心とした楕円105、106において、点100を含む楕円105の内側が画面中心近傍の領域107であり、楕円105の外側でかつ楕円106の内側の領域は中間的な領域108であり、楕円106の外側の領域は画面周辺の領域109である。   In the ellipses 105 and 106 centered on the point 100, the inside of the ellipse 105 including the point 100 is an area 107 near the center of the screen, and the area outside the ellipse 105 and inside the ellipse 106 is an intermediate area 108. The area outside the ellipse 106 is an area 109 around the screen.

図3おいて、小さな長方形で示した領域に焦点検出画素が配列されている。この領域が焦点検出領域(焦点検出エリア)となる。長方形の長手方向が焦点検出用画素の配列方向を示しており、焦点検出用画素が列方向に配列された領域を白抜きにした長方形で示している。長方形の長手方向の長さは焦点検出領域の長さ(焦点検出用画素の配列画素数)を示しており、領域162、182は他の領域よりその長さが短く設定されている。焦点検出領域以外には撮像用画素が配列されており、複数の焦点検出領域の間の領域は撮像用画素のみの領域となっている。   In FIG. 3, focus detection pixels are arranged in a region indicated by a small rectangle. This area becomes a focus detection area (focus detection area). The longitudinal direction of the rectangle indicates the arrangement direction of the focus detection pixels, and the region where the focus detection pixels are arranged in the column direction is indicated by a white rectangle. The length of the rectangle in the longitudinal direction indicates the length of the focus detection area (the number of pixels for focus detection pixels), and the areas 162 and 182 are set to be shorter than the other areas. In addition to the focus detection area, imaging pixels are arranged, and an area between the plurality of focus detection areas is an area of only the imaging pixels.

図4は交換レンズの撮影画面の平面図である。上述したように、交換レンズ202から到来する光束は、光分割プリズム223により透過光束と反射光束に分割される。透過光束により被写体像が結像される交換レンズ202の一方の予定結像面には固体撮像素子220が配置され、反射光束により被写体像が結像される交換レンズ202の他方の予定結像面には固体撮像素子221が配置される。したがって、透過光束側の予定結像面と反射光束側の予定結像面とに交換レンズ202の撮影画面が存在することになるが、この一実施の形態では二つの固体撮像素子220と221の撮像画像を合成して一つの画像を生成するので、二つの撮影画面を同一のものとして取り扱う。固体撮像素子220の各画素と固体撮像素子221の各画素とは一つの撮影画面を介してそれぞれ対応関係にある。   FIG. 4 is a plan view of the imaging screen of the interchangeable lens. As described above, the light beam coming from the interchangeable lens 202 is divided into a transmitted light beam and a reflected light beam by the light splitting prism 223. A solid imaging element 220 is disposed on one planned imaging surface of the interchangeable lens 202 on which the subject image is formed by the transmitted light beam, and the other scheduled imaging surface of the interchangeable lens 202 on which the subject image is formed by the reflected light beam. Is provided with a solid-state image sensor 221. Therefore, the imaging screen of the interchangeable lens 202 exists on the scheduled imaging surface on the transmitted beam side and the scheduled imaging surface on the reflected beam side. In this embodiment, the two solid-state imaging elements 220 and 221 are arranged. Since one image is generated by combining the captured images, the two shooting screens are handled as the same. Each pixel of the solid-state image sensor 220 and each pixel of the solid-state image sensor 221 have a corresponding relationship via one shooting screen.

つまり、図4は、図2に示す固体撮像素子220の焦点検出領域の配置と、図3に示す固体撮像素子221の焦点検出領域の配置とを同一の撮影画面上で表した図である。撮影画面上において、固体撮像素子220により設定される焦点検出領域(黒塗り長方形)と、固体撮像素子221により設定される焦点検出領域(白抜き長方形)とは互いに重ならないように配置されている。これにより、固体撮像素子220の焦点検出領域における画像データを、固体撮像素子221の対応する領域の撮像用画素の画像データで代用可能になるとともに、固体撮像素子221の焦点検出領域における画像データを固体撮像素子220の対応する領域の撮像用画素の画像データで代用可能になる。   That is, FIG. 4 is a diagram showing the arrangement of the focus detection areas of the solid-state image sensor 220 shown in FIG. 2 and the arrangement of the focus detection areas of the solid-state image sensor 221 shown in FIG. 3 on the same shooting screen. On the shooting screen, the focus detection area (black rectangle) set by the solid-state image sensor 220 and the focus detection area (white rectangle) set by the solid-state image sensor 221 are arranged so as not to overlap each other. . As a result, the image data in the focus detection region of the solid-state image sensor 220 can be substituted with the image data of the imaging pixels in the corresponding region of the solid-state image sensor 221, and the image data in the focus detection region of the solid-state image sensor 221 is replaced. The image data of the imaging pixels in the corresponding area of the solid-state imaging device 220 can be substituted.

点100に対して水平方向の右にある区域110内においては、画面中心近傍領域には、焦点検出用画素が垂直方向に配列された焦点検出領域111、112、113と、焦点検出用画素が水平方向に配列された焦点検出領域121が配置される。また、画面中間領域には、焦点検出用画素が垂直方向に配列された焦点検出領域114、115、116と、焦点検出用画素が水平方向に配列された焦点検出領域122が配置される。さらに、画面周辺領域には、焦点検出用画素が垂直方向に配列された焦点検出領域117、118、119が配置され、焦点検出用画素が水平方向に配列された焦点検出領域は配置されない。   In an area 110 to the right of the point 100 in the horizontal direction, focus detection areas 111, 112, and 113 in which focus detection pixels are arranged in the vertical direction and focus detection pixels are located in the area near the center of the screen. The focus detection areas 121 arranged in the horizontal direction are arranged. In the middle area of the screen, focus detection areas 114, 115, and 116 in which focus detection pixels are arranged in the vertical direction, and a focus detection area 122 in which focus detection pixels are arranged in the horizontal direction are arranged. Further, focus detection areas 117, 118, and 119 in which focus detection pixels are arranged in the vertical direction are arranged in the peripheral area of the screen, and focus detection areas in which the focus detection pixels are arranged in the horizontal direction are not arranged.

点100に対して水平方向の左にある区域130内においては、画面中心近傍領域には、焦点検出用画素が垂直方向に配列された焦点検出領域131、132、133と、焦点検出用画素が水平方向に配列された焦点検出領域141が配置される。また、画面中間領域には、焦点検出用画素が垂直方向に配列された焦点検出領域134、135、136と、焦点検出用画素が水平方向に配列された焦点検出領域142が配置される。さらに、画面周辺領域には、焦点検出用画素が垂直方向に配列された焦点検出領域137、138、139が配置され、焦点検出用画素が水平方向に配列された焦点検出領域は配置されない。   In an area 130 on the left in the horizontal direction with respect to the point 100, focus detection areas 131, 132, 133 in which focus detection pixels are arranged in the vertical direction and focus detection pixels are located in the vicinity of the center of the screen. The focus detection areas 141 arranged in the horizontal direction are arranged. Further, focus detection areas 134, 135, and 136 in which focus detection pixels are arranged in the vertical direction and a focus detection area 142 in which the focus detection pixels are arranged in the horizontal direction are arranged in the screen intermediate area. Further, focus detection areas 137, 138, and 139 in which focus detection pixels are arranged in the vertical direction are arranged in the peripheral area of the screen, and focus detection areas in which the focus detection pixels are arranged in the horizontal direction are not arranged.

点100に対して垂直方向の上にある区域150内においては、画面中心近傍領域には、焦点検出用画素が水平方向に配列された焦点検出領域151、152、153と、焦点検出用画素が垂直方向に配列された焦点検出領域161が配置される。また、画面中間領域には、焦点検出用画素が水平方向に配列された焦点検出領域154、155、156と、焦点検出用画素が垂直方向に配列された焦点検出領域162が配置される。さらに、画面周辺領域には、焦点検出用画素が水平方向に配列された焦点検出領域157、158、159が配置され、焦点検出用画素が垂直方向に配列された焦点検出領域は配置されない。   In an area 150 that is above the direction perpendicular to the point 100, focus detection areas 151, 152, and 153 in which focus detection pixels are arranged in the horizontal direction and focus detection pixels are located in the area near the center of the screen. Focus detection regions 161 arranged in the vertical direction are arranged. Further, focus detection areas 154, 155, and 156 in which focus detection pixels are arranged in the horizontal direction and a focus detection area 162 in which focus detection pixels are arranged in the vertical direction are arranged in the screen intermediate area. Further, focus detection areas 157, 158, and 159 in which focus detection pixels are arranged in the horizontal direction are arranged in the peripheral area of the screen, and focus detection areas in which focus detection pixels are arranged in the vertical direction are not arranged.

点100に対して垂直方向の下にある区域170内においては、画面中心近傍領域には、焦点検出用画素が水平方向に配列された焦点検出領域171、172、173と、焦点検出用画素が垂直方向に配列された焦点検出領域181が配置される。また、画面中間領域には、焦点検出用画素が水平方向に配列された焦点検出領域174、175、176と、焦点検出用画素が垂直方向に配列された焦点検出領域182が配置される。さらに、画面周辺領域には焦点検出用画素が水平方向に配列された焦点検出領域177、178、179が配置され、焦点検出用画素が垂直方向に配列された焦点検出領域は配置されない。   In an area 170 that is below the point 100 in the vertical direction, focus detection areas 171, 172, and 173 in which focus detection pixels are arranged in the horizontal direction and focus detection pixels are located in the area near the center of the screen. Focus detection areas 181 arranged in the vertical direction are arranged. In the middle area of the screen, focus detection areas 174, 175, and 176 in which focus detection pixels are arranged in the horizontal direction, and a focus detection area 182 in which focus detection pixels are arranged in the vertical direction are arranged. Further, focus detection areas 177, 178, and 179 in which focus detection pixels are arranged in the horizontal direction are arranged in the peripheral area of the screen, and focus detection areas in which focus detection pixels are arranged in the vertical direction are not arranged.

図5は撮像用画素配列の拡大図である。なお、図5では固体撮像素子220、221の撮像用画素のみで構成される領域を拡大して示す。撮像用画素は緑画素310、赤画素311、青画素312の3種類の画素からなり、これらの画素がベイヤー配列で2次元配列されている。図8に示すように、撮像用画素(緑画素310、赤画素311、青画素312)は、マイクロレンズ10、光電変換部11および不図示の色フィルタからなる。色フィルタは赤(R)、緑(G)、青(B)の3種類からなり、それぞれの分光感度は図10に示すものとなっている。   FIG. 5 is an enlarged view of the imaging pixel array. In FIG. 5, an area composed of only the imaging pixels of the solid-state imaging devices 220 and 221 is shown enlarged. The imaging pixels are composed of three types of pixels, ie, a green pixel 310, a red pixel 311, and a blue pixel 312. These pixels are two-dimensionally arranged in a Bayer array. As shown in FIG. 8, the imaging pixels (the green pixel 310, the red pixel 311 and the blue pixel 312) include the microlens 10, the photoelectric conversion unit 11, and a color filter (not shown). There are three types of color filters, red (R), green (G), and blue (B), and the respective spectral sensitivities are as shown in FIG.

図6、図7は焦点検出用画素配列の拡大図である。図6では固体撮像素子220の焦点検出用画素が配列された領域を拡大して示し、図7では固体撮像素子221の焦点検出用画素が配列された領域を拡大して示す。図6は、図2において焦点検出用画素が行方向に配列された領域(黒く塗りつぶした長方形で示した領域)に対応しており、図7は、図3において焦点検出用画素が列方向に配列された領域(白抜きの長方形で示した領域)に対応している。図6において、焦点検出用画素320は行方向に連続的に配列され、焦点検出領域を形成する。焦点検出用画素320の配列の周囲は撮像用画素により取り囲まれている。図7において、焦点検出用画素330は列方向に連続的に配列され、焦点検出領域を形成する。焦点検出用画素330の配列の周囲は撮像用画素により取り囲まれている。   6 and 7 are enlarged views of the focus detection pixel array. 6 shows an enlarged region where the focus detection pixels of the solid-state image sensor 220 are arranged, and FIG. 7 shows an enlarged region where the focus detection pixels of the solid-state image sensor 221 are arranged. 6 corresponds to a region in which focus detection pixels are arranged in the row direction in FIG. 2 (a region indicated by a black rectangle), and FIG. 7 illustrates the focus detection pixels in the column direction in FIG. It corresponds to the arrayed area (area indicated by a white rectangle). In FIG. 6, the focus detection pixels 320 are continuously arranged in the row direction to form a focus detection region. The periphery of the array of focus detection pixels 320 is surrounded by imaging pixels. In FIG. 7, the focus detection pixels 330 are continuously arranged in the column direction to form a focus detection region. The periphery of the array of focus detection pixels 330 is surrounded by imaging pixels.

図9に示すように、焦点検出用画素320,330は、マイクロレンズ10および一対の光電変換部12,13からなる。焦点検出用画素330は、焦点検出用画素320を90度回転した構成となっている。焦点検出用画素320、330には光量をかせぐために色フィルタは配置されておらず、その分光特性は光電変換を行うフォトダイオードの分光感度と赤外カットフィルタ(不図示)の分光特性を総合した分光特性(図11参照)となり、図10に示す緑画素、赤画素および青画素の分光特性を加算したような分光特性となり、その感度の光波長領域は緑画素、赤画素および青画素の感度の光波長領域を包括している。   As shown in FIG. 9, the focus detection pixels 320 and 330 include a microlens 10 and a pair of photoelectric conversion units 12 and 13. The focus detection pixel 330 is configured by rotating the focus detection pixel 320 by 90 degrees. The focus detection pixels 320 and 330 are not provided with a color filter in order to increase the amount of light, and their spectral characteristics are the total of the spectral sensitivity of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). The spectral characteristics (see FIG. 11) are obtained by adding the spectral characteristics of the green pixel, red pixel, and blue pixel shown in FIG. 10, and the light wavelength region of the sensitivity is the sensitivity of the green pixel, red pixel, and blue pixel. It covers the optical wavelength region.

撮像用画素の光電変換部11は、マイクロレンズ10により所定の絞り開口径(例えばF1.0)の光束をすべて受光するような形状に設計される。一方、焦点検出用画素の一対の光電変換部12、13は、マイクロレンズ10により所定の絞り開口径(例えばF2.8)の光束をすべて受光するような形状に設計される。   The photoelectric conversion unit 11 of the imaging pixel is designed so as to receive all the light flux having a predetermined aperture diameter (for example, F1.0) by the microlens 10. On the other hand, the pair of photoelectric conversion units 12 and 13 of the focus detection pixel are designed in such a shape that the microlens 10 receives all light beams having a predetermined aperture diameter (for example, F2.8).

図12は撮像用画素の断面図である。撮像用画素において、撮像用の光電変換部11の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部11が前方に投影される。光電変換部11は半導体回路基板29上に形成される。不図示の色フィルタはマイクロレンズ10と光電変換部11の中間に配置される   FIG. 12 is a cross-sectional view of the imaging pixel. In the imaging pixel, the micro lens 10 is disposed in front of the imaging photoelectric conversion unit 11, and the photoelectric conversion unit 11 is projected forward by the micro lens 10. The photoelectric conversion unit 11 is formed on the semiconductor circuit substrate 29. A color filter (not shown) is arranged between the microlens 10 and the photoelectric conversion unit 11.

図13は焦点検出用画素の断面図である。焦点検出用画素において、焦点検出用の光電変換部12、13の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部12、13が前方に投影される。光電変換部12、13は半導体回路基板29上に形成される。   FIG. 13 is a cross-sectional view of a focus detection pixel. In the focus detection pixel, the microlens 10 is disposed in front of the focus detection photoelectric conversion units 12 and 13, and the photoelectric conversion units 12 and 13 are projected forward by the microlens 10. The photoelectric conversion units 12 and 13 are formed on the semiconductor circuit substrate 29.

図14はマイクロレンズを用いた瞳分割方式による焦点検出の説明図である。90は、交換レンズ202の予定結像面に配置されたマイクロレンズの前方d0の距離に設定された射出瞳である。なお、距離d0はマイクロレンズの曲率、屈折率、マイクロレンズと光電変換部の間の距離などに応じて決まる距離であって、以下では測距瞳距離という。50,60はマイクロレンズ、(52,53)、(62,63)は焦点検出用画素の一対の光電変換部、72,73、82,83は焦点検出光束、92はマイクロレンズ50、60により投影された光電変換部52、62の領域(以下では、測距瞳という)、93はマイクロレンズ50、60により投影された光電変換部53、63の領域(測距瞳)である。   FIG. 14 is an explanatory diagram of focus detection by a pupil division method using a microlens. Reference numeral 90 denotes an exit pupil set at a distance d0 in front of the microlens arranged on the planned imaging plane of the interchangeable lens 202. The distance d0 is a distance determined according to the curvature, refractive index, distance between the microlens and the photoelectric conversion unit, and the like, and is hereinafter referred to as a distance measuring pupil distance. 50, 60 are microlenses, (52, 53), (62, 63) are a pair of photoelectric conversion units of focus detection pixels, 72, 73, 82, 83 are focus detection light beams, and 92 is a microlens 50, 60. The projected regions of the photoelectric conversion units 52 and 62 (hereinafter referred to as distance measurement pupils) and 93 are the regions of the photoelectric conversion units 53 and 63 projected by the microlenses 50 and 60 (range measurement pupils).

図14では、便宜的に光軸上にある焦点検出用画素(マイクロレンズ50と一対の光電変換部52、53からなる)と、隣接する焦点検出用画素(マイクロレンズ60と一対の光電変換部62、63からなる)を模式的に例示しているが、焦点検出用画素が画面周辺の光軸から離れた位置にあった場合においても、一対の光電変換部はそれぞれ一対の測距瞳から各マイクロレンズに到来する光束を受光する。焦点検出用画素の配列方向は、一対の測距瞳の並び方向すなわち一対の光電変換部の並び方向と一致させる。   In FIG. 14, for convenience, focus detection pixels (comprising a microlens 50 and a pair of photoelectric conversion units 52 and 53) on the optical axis, and adjacent focus detection pixels (a microlens 60 and a pair of photoelectric conversion units). 62, 63), but the pair of photoelectric conversion units are separated from the pair of distance measurement pupils even when the focus detection pixel is located away from the optical axis around the screen. A light beam arriving at each microlens is received. The arrangement direction of the focus detection pixels is made to coincide with the arrangement direction of the pair of distance measuring pupils, that is, the arrangement direction of the pair of photoelectric conversion units.

マイクロレンズ50、60は光学系の予定結像面近傍に配置されており、マイクロレンズ50によりその背後に配置された一対の光電変換部52、53の形状がマイクロレンズ50、60から投影距離d0だけ離間した射出瞳90上に投影され、その投影形状は測距瞳92,93を形成する。マイクロレンズ60によりその背後に配置された一対の光電変換部62、63の形状が投影距離d0だけ離間した射出瞳90上に投影され、その投影形状は測距瞳92,93を形成する。すなわち、投影距離d0にある射出瞳90上で各焦点検出用画素の光電変換部の投影形状(測距瞳92,93)が一致するように、各画素の投影方向が決定されている。つまり、一対の測距瞳92,93と、一対の光電変換部(52、53)およびは一対の光電変換部(62、63)は、マイクロレンズ50,60を介して共役な関係となっている。   The microlenses 50 and 60 are disposed in the vicinity of the planned imaging plane of the optical system, and the shape of the pair of photoelectric conversion units 52 and 53 disposed behind the microlens 50 is projected from the microlenses 50 and 60 to the projection distance d0. Projected onto the exit pupil 90 separated by a distance, the projection shape forms distance measuring pupils 92 and 93. The shape of the pair of photoelectric conversion units 62 and 63 arranged behind the microlens 60 is projected onto the exit pupil 90 separated by the projection distance d0, and the projection shape forms the distance measurement pupils 92 and 93. That is, the projection direction of each pixel is determined so that the projection shapes (ranging pupils 92 and 93) of the photoelectric conversion units of the focus detection pixels coincide on the exit pupil 90 at the projection distance d0. That is, the pair of distance measuring pupils 92 and 93, the pair of photoelectric conversion units (52 and 53), and the pair of photoelectric conversion units (62 and 63) have a conjugate relationship via the microlenses 50 and 60. Yes.

光電変換部52は測距瞳92を通過し、マイクロレンズ50に向う焦点検出光束72によりマイクロレンズ50上に形成される像の強度に対応した信号を出力する。光電変換部53は測距瞳93を通過し、マイクロレンズ50に向う焦点検出光束73によりマイクロレンズ50上に形成される像の強度に対応した信号を出力する。また、光電変換部62は測距瞳92を通過し、マイクロレンズ60に向う焦点検出光束82によりマイクロレンズ60上に形成される像の強度に対応した信号を出力する。光電変換部63は測距瞳93を通過し、マイクロレンズ60に向う焦点検出光束83によりマイクロレンズ60上に形成される像の強度に対応した信号を出力する。   The photoelectric conversion unit 52 passes through the distance measuring pupil 92 and outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 72 directed to the microlens 50. The photoelectric conversion unit 53 passes through the distance measuring pupil 93 and outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 73 directed to the microlens 50. The photoelectric conversion unit 62 outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 82 passing through the distance measuring pupil 92 and directed to the microlens 60. The photoelectric conversion unit 63 outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 83 passing through the distance measuring pupil 93 and directed to the microlens 60.

上記のような焦点検出用画素を直線状に複数個配置し、各画素の一対の光電変換部の出力を測距瞳92および測距瞳93に対応した出力グループにまとめることによって、測距瞳92と測距瞳93を各々通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関する情報が得られる。これらの情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことにより、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を行うことにより、予定結像面に対する現在の結像面(予定結像面上のマイクロレンズアレイの位置に対応した焦点検出位置における結像面)の偏差(デフォーカス量)が算出される。   A plurality of focus detection pixels as described above are arranged in a straight line, and the output of a pair of photoelectric conversion units of each pixel is grouped into an output group corresponding to the distance measurement pupil 92 and the distance measurement pupil 93, whereby the distance measurement pupil Information on the intensity distribution of a pair of images formed on the focus detection pixel array by the focus detection light fluxes that respectively pass through 92 and the distance measuring pupil 93 is obtained. By performing image shift detection calculation processing (correlation calculation processing, phase difference detection processing), which will be described later, on these pieces of information, the amount of image shift between a pair of images is detected by a so-called pupil division type phase difference detection method. Furthermore, by performing a conversion calculation according to the center of gravity distance of the pair of distance measuring pupils to the image shift amount, the current imaging plane with respect to the planned imaging plane (the focal point corresponding to the position of the microlens array on the planned imaging plane) The deviation (defocus amount) of the imaging plane at the detection position is calculated.

なお、上記説明では測距瞳は交換レンズの開口制限要素(絞り開口、レンズ外形、フードなど)によって制限されていない(けられていない)状態として説明を行ったが、交換レンズの開口制限要素によって測距瞳が制限される場合には、焦点検出用画素の光電変換部は制限を受けた測距瞳を通過する光束を焦点検出光束として受光することになる   In the above description, the range-finding pupil has been described as being not limited (not broken) by the aperture limiting element (aperture aperture, lens outer shape, hood, etc.) of the interchangeable lens. When the distance measuring pupil is limited by the above, the photoelectric conversion unit of the focus detection pixel receives the light beam passing through the limited distance measuring pupil as the focus detection light beam.

図15は撮像用画素と射出瞳の関係を説明する図である。なお、図14に示す要素と同様な要素については説明を省略する。70はマイクロレンズ、71は撮像画素の光電変換部、81は撮像光束、94はマイクロレンズ70により投影された光電変換部71の領域である。図15では、光軸上にある撮像画素(マイクロレンズ70と光電変換部71からなる)を模式的に例示しているが、その他の撮像画素においても光電変換部はそれぞれ領域94から各マイクロレンズに到来する光束を受光する。   FIG. 15 is a diagram illustrating the relationship between the imaging pixels and the exit pupil. Note that description of elements similar to those illustrated in FIG. 14 is omitted. Reference numeral 70 denotes a microlens, 71 denotes a photoelectric conversion unit of an imaging pixel, 81 denotes an imaging light beam, and 94 denotes a region of the photoelectric conversion unit 71 projected by the microlens 70. FIG. 15 schematically illustrates an imaging pixel (consisting of a microlens 70 and a photoelectric conversion unit 71) on the optical axis. However, in other imaging pixels, the photoelectric conversion unit is connected from the region 94 to each microlens. Receives the light flux coming in

マイクロレンズ70は光学系の予定結像面近傍に配置されており、マイクロレンズ70によりその背後に配置された光電変換部71の形状がマイクロレンズ70から投影距離d0だけ離間した射出瞳90上に投影され、その投影形状は領域94を形成する。光電変換部71は領域94を通過し、マイクロレンズ70に向う焦点検出光束81によりマイクロレンズ70上に形成される像の強度に対応した信号を出力する。上記のような撮像用画素を2次元状に多数配置することにより、各画素の光電変換部に基づいて画像情報が得られる。   The microlens 70 is disposed in the vicinity of the planned imaging plane of the optical system, and the shape of the photoelectric conversion unit 71 disposed behind the microlens 70 is on the exit pupil 90 separated from the microlens 70 by the projection distance d0. The projected shape forms a region 94. The photoelectric conversion unit 71 passes through the region 94 and outputs a signal corresponding to the intensity of the image formed on the microlens 70 by the focus detection light beam 81 directed to the microlens 70. By arranging a large number of imaging pixels as described above two-dimensionally, image information can be obtained based on the photoelectric conversion unit of each pixel.

図16、図17は射出瞳面における測距瞳の正面図である。図16において、焦点検出用画素320から一対の光電変換部をマイクロレンズにより射出瞳面90に投影した測距瞳922,933の外接円は、結像面から見た場合に所定の開口F値(測距瞳F値と称する。ここではF2.8)となる。破線で示す領域901は絞り値F2.8よりも大きな絞り値(例えばF2)に対応した領域を示し、測距瞳922,933を内部に含んでいる。測距瞳922,933の並び方向(図では水平方向)における測距瞳922、933を通過する光束(焦点検出光束)の重心952,953の間隔は、Gとなる。   16 and 17 are front views of the distance measuring pupil on the exit pupil plane. In FIG. 16, the circumscribed circle of the distance measuring pupils 922 and 933 obtained by projecting a pair of photoelectric conversion units from the focus detection pixel 320 onto the exit pupil plane 90 by a microlens is a predetermined aperture F value when viewed from the imaging plane. (Referred to as a distance measuring pupil F value, here F2.8). A region 901 indicated by a broken line indicates a region corresponding to an aperture value (for example, F2) larger than the aperture value F2.8, and includes distance measuring pupils 922 and 933 therein. The distance between the centers of gravity 952 and 953 of the light fluxes (focus detection light fluxes) passing through the distance measurement pupils 922 and 933 in the arrangement direction of the distance measurement pupils 922 and 933 (horizontal direction in the figure) is G.

図17において、焦点検出用画素330から一対の光電変換部をマイクロレンズにより射出瞳面90に投影した測距瞳822,833の外接円は、結像面から見た場合に所定の開口F値(測距瞳F値と称する。ここではF2.8)となる。破線で示す領域901は絞り値F2.8よりも大きな絞り値(例えばF2)に対応した領域を示し、測距瞳822,833を内部に含んでいる。測距瞳822,823の並び方向(図では垂直方向)における測距瞳822、833を通過する光束(焦点検出光束)の重心852,853の間隔はGとなる。   In FIG. 17, the circumscribed circle of the distance measuring pupils 822 and 833 obtained by projecting a pair of photoelectric conversion units from the focus detection pixel 330 onto the exit pupil plane 90 by a microlens is a predetermined aperture F value when viewed from the imaging plane. (Referred to as a distance measuring pupil F value, here F2.8). A region 901 indicated by a broken line indicates a region corresponding to an aperture value (for example, F2) larger than the aperture value F2.8, and includes distance measuring pupils 822 and 833 therein. The distance between the centroids 852 and 853 of the luminous fluxes (focus detection luminous fluxes) passing through the ranging pupils 822 and 833 in the direction in which the ranging pupils 822 and 823 are arranged (vertical direction in the figure) is G.

交換レンズの絞り値がF2.8よりも小さな絞り値(例えばF4)になると測距瞳の一部が遮光され(ケラレ)、交換レンズの射出瞳の位置が測距瞳の位置(d0)と異なる場合は、画面周辺において一対の測距瞳のケラレ方がアンバランスになる。ケラレにより測距瞳の面積の比がアンバランスになると、結果的に一対の測距瞳によって形成される一対の像の強度比がアンバランスになって一致性(同一性)が崩れるため焦点検出精度が低下し、ケラレの程度が大きい場合には焦点検出不能になってしまう。   When the aperture value of the interchangeable lens becomes smaller than F2.8 (for example, F4), part of the distance measuring pupil is shielded (vignetting), and the exit pupil position of the interchangeable lens is the distance pupil position (d0). If they are different, the vignetting of the pair of distance measuring pupils is imbalanced around the screen. If the ratio of the area of the distance measurement pupil becomes unbalanced due to vignetting, the intensity ratio of the pair of images formed by the pair of distance measurement pupils will eventually become unbalanced and the consistency (identity) will be lost. If the accuracy decreases and the degree of vignetting is large, focus detection becomes impossible.

一対の測距瞳の並び方向が水平方向の場合は、画面中心近傍および画面中心に対し上下方向の領域では一対の測距瞳のケラレ方のアンバランス量は少なく、焦点検出精度の維持が可能であるが、画面中心に対し左右方向の周辺領域では一対の測距瞳のケラレ方のアンバランス量が大きくなり、焦点検出精度の維持が困難である。一対の測距瞳の並び方向が垂直方向の場合は、画面中心近傍および画面中心に対し左右方向の領域では一対の測距瞳のケラレ方のアンバランス量は少なく、焦点検出精度の維持が可能であるが、画面中心に対し左上下向の周辺領域では一対の測距瞳のケラレ方のアンバランス量が大きくなり、焦点検出精度の維持が困難である。   When the alignment direction of a pair of distance measurement pupils is horizontal, the amount of vignetting of the pair of distance measurement pupils is small in the vicinity of the screen center and in the vertical direction with respect to the screen center, and the focus detection accuracy can be maintained. However, in the peripheral region in the left-right direction with respect to the center of the screen, the amount of unbalance in the vignetting direction of the pair of distance measuring pupils becomes large, and it is difficult to maintain focus detection accuracy. When the alignment direction of a pair of ranging pupils is vertical, the amount of unbalance in the vignetting direction of the pair of ranging pupils is small in the vicinity of the screen center and in the left-right direction with respect to the screen center, and the focus detection accuracy can be maintained. However, the amount of unbalance in the vignetting direction of the pair of distance measuring pupils is large in the peripheral area in the upper left and lower directions with respect to the center of the screen, and it is difficult to maintain the focus detection accuracy.

以上のように、図4に示す画面中心に対して水平方向に分離した区域110および区域130では、焦点検出用画素330を垂直方向に配列した焦点検出領域の方が、焦点検出用画素320を水平方向に配列した焦点検出領域に比較して焦点検出性能を維持し易い。逆に、図4に示す画面中心に対して垂直方向に分離した区域150および区域170では、焦点検出用画素320を水平方向に配列した焦点検出領域の方が、焦点検出用画素330を垂直方向に配列した焦点検出領域に比較して焦点検出性能を維持し易い。   As described above, in the area 110 and the area 130 separated in the horizontal direction with respect to the screen center shown in FIG. 4, the focus detection pixel 320 is arranged in the focus detection area in which the focus detection pixels 330 are arranged in the vertical direction. Compared to the focus detection areas arranged in the horizontal direction, it is easy to maintain focus detection performance. On the other hand, in the area 150 and the area 170 separated in the vertical direction with respect to the screen center shown in FIG. 4, the focus detection pixel 330 is arranged in the vertical direction in the focus detection area in which the focus detection pixels 320 are arranged in the horizontal direction. Compared to the focus detection areas arranged in the above, it is easy to maintain the focus detection performance.

図18は、図1に示すデジタルスチルカメラ(撮像装置)の撮像動作を示すフローチャートである。ボディ駆動制御装置214は、ステップ100でカメラの電源がオンされると、この撮像動作を開始する。ステップ110において、各固体撮像素子220、221の撮像用画素の画像データに基づいて被写体輝度を検出し、各固体撮像素子220、221の電荷蓄積時間を決定して独立に電荷蓄積制御を行う。   FIG. 18 is a flowchart showing an imaging operation of the digital still camera (imaging device) shown in FIG. When the camera is turned on in step 100, the body drive control device 214 starts this imaging operation. In step 110, the subject brightness is detected based on the image data of the imaging pixels of the solid-state image sensors 220 and 221 and the charge accumulation time of the solid-state image sensors 220 and 221 is determined to perform charge accumulation control independently.

このとき、例えば、撮影画面中心に対し上下方向の区域150と170の画像データが最適なレベルになるように固体撮像素子220の電荷蓄積時間を決定し、撮影画面中心に対し左右方向の区域110と130の画像データが最適なレベルになるように固体撮像素子221の電荷蓄積時間を決定する。つまり、焦点検出領域が配置される区域の撮像用画素の画像データが最適なレベルになるように各固体撮像素子220、221の電荷蓄積時間を決定する。また、一方の固体撮像素子220に対して、その撮像画像における高輝度領域の撮像用画素の画像データが最適なレベルとなる電荷蓄積時間を決定するとともに、他方の固体撮像素子221に対して、その撮像画像における低輝度領域の撮像用画素の画像データが最適なレベルとなる電荷蓄積時間を決定するようにしてもよい。なお、専用の測光素子を設け、被写界を複数の領域に分割して測光するようにしてもよい。   At this time, for example, the charge accumulation time of the solid-state image sensor 220 is determined so that the image data in the vertical areas 150 and 170 with respect to the center of the shooting screen is at an optimal level, and The charge accumulation time of the solid-state image sensor 221 is determined so that the image data of 130 and 130 are at an optimum level. That is, the charge accumulation time of each of the solid-state imaging devices 220 and 221 is determined so that the image data of the imaging pixels in the area where the focus detection area is arranged has an optimal level. In addition, for one solid-state image sensor 220, the charge accumulation time during which the image data of the imaging pixels in the high-luminance region in the captured image is at an optimum level is determined, and for the other solid-state image sensor 221, You may make it determine the electric charge accumulation time when the image data of the imaging pixel of the low-intensity area | region in the captured image becomes an optimal level. A dedicated photometric element may be provided, and the object field may be divided into a plurality of areas for photometry.

ステップ120において、2つの固体撮像素子220、221から撮像用画素のデータおよび焦点検出用画素のデータを読み出す。続くステップ130で撮像用画素のデータを合成し、合成データを電子ビューファインダーに表示させる。データ合成の際には、電荷蓄積時間の相違を考慮して合成する。例えば基準電荷蓄積時間(一方の固体撮像素子の電荷蓄積時間、2つの固体撮像素子の電荷蓄積時間の平均など)での画像データとなるように、2つの固体撮像素子の画像データを補正してから合成する。合成処理は例えば加算平均処理である。一方の固体撮像素子の焦点検出領域における画像データは、他方の固体撮像素子の画像データを上記と同様に補正して使用する。   In step 120, data of the imaging pixels and focus detection pixel data are read from the two solid-state imaging devices 220 and 221. In subsequent step 130, the data of the imaging pixels is synthesized and the synthesized data is displayed on the electronic viewfinder. When data is synthesized, the data is synthesized in consideration of the difference in charge accumulation time. For example, by correcting the image data of the two solid-state image sensors so that the image data becomes the reference charge accumulation time (the charge accumulation time of one solid-state image sensor, the average of the charge accumulation times of the two solid-state image sensors, etc.) Synthesize from The combining process is, for example, an averaging process. The image data in the focus detection region of one solid-state image sensor is used after correcting the image data of the other solid-state image sensor in the same manner as described above.

ステップ140では、焦点検出用画素列に対応した一対の像データに基づいて後述する像ズレ検出演算処理(相関演算処理)を行う。複数の焦点検出領域において像ズレ量を演算し、さらにデフォーカス量を算出する。複数の焦点検出領域において算出されたデフォーカス量に基づき、最終的にひとつのデフォーカス量を求める。例えば複数のデフォーカス量の平均値、あるいは最も近距離の被写体に対応するデフォーカス量などを最終的なデフォーカス量とする。ステップ150において合焦近傍か否か、すなわち算出されたデフォーカス量の絶対値が所定値以内であるか否かを調べる。合焦近傍でないと判定された場合はステップ160へ進み、デフォーカス量をレンズ駆動制御装置206へ送信し、交換レンズ202のフォーカシングレンズ210を合焦位置に駆動させ、ステップ110へ戻って上述した動作を繰り返す。   In step 140, an image shift detection calculation process (correlation calculation process) described later is performed based on a pair of image data corresponding to the focus detection pixel array. An image shift amount is calculated in a plurality of focus detection areas, and a defocus amount is further calculated. Based on the defocus amounts calculated in the plurality of focus detection areas, one defocus amount is finally obtained. For example, an average value of a plurality of defocus amounts or a defocus amount corresponding to the closest object is set as the final defocus amount. In step 150, it is checked whether or not the focus is close, that is, whether or not the calculated absolute value of the defocus amount is within a predetermined value. If it is determined that the lens is not in focus, the process proceeds to step 160, the defocus amount is transmitted to the lens drive control device 206, the focusing lens 210 of the interchangeable lens 202 is driven to the in-focus position, and the process returns to step 110 and described above. Repeat the operation.

なお、焦点検出不能な場合もこのステップ160へ分岐し、レンズ駆動制御装置206へスキャン駆動命令を送信し、交換レンズ202のフォーカシングレンズ210を無限から至近間でスキャン駆動させ、ステップ110へ戻って上述した動作を繰り返す。   Even when focus detection is impossible, the process branches to step 160, a scan drive command is transmitted to the lens drive control unit 206, the focusing lens 210 of the interchangeable lens 202 is scanned from infinity to the nearest position, and the process returns to step 110. The above operation is repeated.

一方、合焦近傍であると判定された場合はステップ170へ進み、不図示のレリーズボタンの操作によりシャッターレリーズがなされたか否かを判定し、なされていないと判定された場合はステップ110へ戻って上述した動作を繰り返す。シャッターレリーズがなされたと判定された場合はステップ180へ進み、レンズ駆動制御装置206へ絞り制御情報を送信し、交換レンズ202の絞り値を撮影絞り値にする。絞り制御が終了した時点で、上記ステップ110で検出した被写界輝度に応じて2つの固体撮像素子220、221の電荷蓄積時間を決定し、独立に電荷蓄積制御を行う。この実施の形態では、画面内の高輝度領域の画像データが最適なレベル(高輝度重視)になるように固体撮像素子220の電荷蓄積時間を決定し、画面内の低輝度領域の画像データが最適なレベル(低輝度重視)になるように固体撮像素子221の電荷蓄積時間を決定し、2つの固体撮像素子に電荷蓄積を行わせる。   On the other hand, if it is determined that the focus is close, the process proceeds to step 170, where it is determined whether or not a shutter release has been performed by operating a release button (not shown), and if it is determined that the shutter release has not been performed, the process returns to step 110. The above operation is repeated. If it is determined that the shutter release has been performed, the process proceeds to step 180, the aperture control information is transmitted to the lens drive control device 206, and the aperture value of the interchangeable lens 202 is set to the photographing aperture value. When the aperture control is completed, the charge accumulation times of the two solid-state imaging devices 220 and 221 are determined according to the field luminance detected in step 110, and the charge accumulation control is performed independently. In this embodiment, the charge accumulation time of the solid-state imaging device 220 is determined so that the image data in the high brightness area in the screen is at an optimal level (high brightness is emphasized), and the image data in the low brightness area in the screen is The charge accumulation time of the solid-state image sensor 221 is determined so as to obtain an optimum level (emphasis on low luminance), and charge accumulation is performed by the two solid-state image sensors.

ステップ190で2つの固体撮像素子220、221から撮像用画素のデータおよび焦点検出用画素のデータを読み出す。続くステップ200では低輝度重視の撮像用画素のデータと高輝度重視の撮像用画素のデータを合成し、ダイナミックレンジを拡大した高品質な画像データを生成する。その際一方の固体撮像素子の焦点検出領域における画像データは、他方の固体撮像素子の画像データを補正して使用する。ステップ210で画像データをメモリーカード219に保存し、ステップ110へ戻って上述した動作を繰り返す。   In step 190, image data for pixels and data for focus detection pixels are read from the two solid-state image sensors 220 and 221. In the subsequent step 200, the data of the imaging pixels emphasizing low luminance and the data of the imaging pixels emphasizing high luminance are synthesized to generate high quality image data with an expanded dynamic range. At that time, the image data in the focus detection region of one solid-state image sensor is used after correcting the image data of the other solid-state image sensor. In step 210, the image data is stored in the memory card 219, and the process returns to step 110 to repeat the above-described operation.

図19は、図18のステップ140における焦点検出演算の詳細を説明するための図である。焦点検出用画素列から出力される一対のデータ列(α1〜αM、β1〜βM:Mはデータ数)に対し、下記(1)式に示すような高周波カットフィルター処理を施し、第1データ列(A1〜AN)、第2データ列(B1〜BN)を生成することによって、データ列から相関処理に悪影響を及ぼすノイズ成分や高周波成分を除去する。
An=αn+2×αn+1+αn+2,
Bn=βn+2×βn+1+βn+2 ・・・(1)
(1)式において、n=1〜Nである。また、α1〜αMは図14において測距瞳92を通る焦点検出光束により形成された像の画像データに相当し、β1〜βMは測距瞳93を通る焦点検出光束により形成された像の画像データに相当する。なお、演算時間の短縮を図る場合や、すでに大きくデフォーカスしていて高周波成分が少ないことがわかっている場合などには、この処理を省略することもできる。
FIG. 19 is a diagram for explaining the details of the focus detection calculation in step 140 of FIG. A pair of data strings (α1 to αM, β1 to βM, where M is the number of data) output from the focus detection pixel column is subjected to a high frequency cut filter process as shown in the following equation (1) to obtain a first data string By generating (A1 to AN) and the second data sequence (B1 to BN), noise components and high frequency components that adversely affect the correlation processing are removed from the data sequence.
An = αn + 2 × αn + 1 + αn + 2,
Bn = βn + 2 × βn + 1 + βn + 2 (1)
In the formula (1), n = 1 to N. Further, α1 to αM correspond to image data of an image formed by the focus detection light beam passing through the distance measuring pupil 92 in FIG. 14, and β1 to βM are image images of an image formed by the focus detection light beam passing through the distance measurement pupil 93. Corresponds to data. Note that this processing can be omitted when the calculation time is shortened or when it is known that the high-frequency component is small because the focus is already largely defocused.

データ列An、Bnに対し(2)式に示す相関演算を行い、相関量C(k)を演算する。
C(k)=Σ|An−Bn+k| ・・・(2)
(2)式において、Σ演算はnについて累積される総和演算である。nのとる範囲は、ずらし量kに応じてAn、Bn+kのデータが存在する範囲に限定される。ずらし量kは整数であり、データ列のデータ間隔(画素ピッチ)を単位とした相対的シフト量である。(2)式の演算結果は、図19(a)に示すように、一対のデータの相関が高いシフト量(図19(a)ではk=kj=2)において相関量C(k)が極小(小さいほど相関度が高い)になる。
The correlation calculation shown in the equation (2) is performed on the data strings An and Bn, and the correlation amount C (k) is calculated.
C (k) = Σ | An−Bn + k | (2)
In equation (2), the Σ operation is a sum operation that is accumulated for n. The range of n is limited to a range in which data of An and Bn + k exists according to the shift amount k. The shift amount k is an integer and is a relative shift amount with the data interval (pixel pitch) of the data string as a unit. As shown in FIG. 19A, the calculation result of the expression (2) shows that the correlation amount C (k) is minimal in the shift amount where the correlation between the pair of data is high (k = kj = 2 in FIG. 19A). (The smaller the value, the higher the degree of correlation).

次に、(3)〜(6)式による3点内挿の手法を用いて連続的な相関量に対する極小値C(x)を与えるシフト量xを求める。
x=kj+D/SLOP ・・・(3),
C(x)= C(kj)-|D| ・・・(4),
D={C(kj-1)−C(kj+1)}/2 ・・・(5),
SLOP=MAX{C(kj+1)−C(kj),C(kj-1)−C(kj)} ・・・(6)
(3)式で算出されたずらし量xの信頼性があるかどうかは、以下のようにして判定される。図19(b)に示すように、一対のデータの相関度が低い場合は内挿された相関量の極小値C(x)の値が大きくなる。したがって、C(x)が所定のしきい値以上の場合は算出されたずらし量の信頼性が低いと判定し、算出されたずらし量xをキャンセルする。あるいは、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が所定値以上の場合は、算出されたずらし量の信頼性が低いと判定し、算出されたずらし量xをキャンセルする。さらにはまた、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたずらし量の信頼性が低いと判定し、算出されたずらし量xをキャンセルする。図19(c)に示すように、一対のデータの相関度が低く、シフト範囲kmin〜kmaxの間で相関量C(x)の落ち込みがない場合は、極小値C(x)を求めることができず、このような場合は焦点検出不能と判定する。
Next, a shift amount x that gives a minimum value C (x) with respect to a continuous correlation amount is obtained using a three-point interpolation method according to equations (3) to (6).
x = kj + D / SLOP (3),
C (x) = C (kj)-| D | (4),
D = {C (kj-1) -C (kj + 1)} / 2 (5),
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (6)
Whether or not the shift amount x calculated by the equation (3) is reliable is determined as follows. As shown in FIG. 19B, when the correlation degree between the pair of data is low, the value of the interpolated minimum value C (x) of the correlation amount becomes large. Therefore, when C (x) is equal to or greater than a predetermined threshold value, it is determined that the calculated shift amount has low reliability, and the calculated shift amount x is canceled. Alternatively, in order to normalize C (x) with the contrast of data, when the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined value, the reliability of the calculated shift amount Is determined to be low, and the calculated shift amount x is canceled. Furthermore, when SLOP which is a value proportional to contrast is equal to or smaller than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled. . As shown in FIG. 19C, when the correlation between the pair of data is low and there is no drop in the correlation amount C (x) between the shift ranges kmin to kmax, the minimum value C (x) is obtained. In such a case, it is determined that the focus cannot be detected.

算出されたずらし量xの信頼性があると判定された場合は、被写体像面の予定結像面に対するデフォーカス量DEFを(7)式で求めることができる。
DEF=KX・PY・x ・・・(7)
(7)式において、PYは検出ピッチ(焦点検出画素のピッチ)であり、KXは一対の測距瞳を通過する光束の重心の開き角の大きさ(測距瞳重心間隔と測距瞳距離によって決まる)によって決まる変換係数である。
When it is determined that the calculated shift amount x is reliable, the defocus amount DEF of the subject image plane with respect to the planned image formation plane can be obtained by Expression (7).
DEF = KX · PY · x (7)
In equation (7), PY is a detection pitch (pitch of focus detection pixels), and KX is a size of an opening angle of the center of gravity of a light beam passing through a pair of distance measurement pupils (range of distance pupil center of gravity and distance pupil distance). Conversion coefficient determined by

《以上説明した撮像装置の構成の特徴》
以上の説明に基づいて、図4の固体撮像素子の構成すなわち焦点検出領域の配置の特徴を説明する。まず、撮影光束を2つに分割し、分割された各光束を2つの固体撮像素子にて撮像するようにし、各固体撮像素子上に焦点検出用画素を配列することによって焦点検出領域を設定するとともに、撮影画面上において各固体撮像素子の焦点検出領域が互いに重ならないように設定したため、一方の固体撮像素子の焦点検出領域における画素データとして、焦点検出領域に重なっている他方の固体撮像素子の撮像用画素の画像データを使用できるようになり、焦点検出領域における画像データを焦点検出領域の周囲の撮像用画素の画像データから補間する場合に比較して、画像品質が向上する。
<< Characteristics of the configuration of the imaging apparatus described above >>
Based on the above description, the configuration of the solid-state imaging device in FIG. First, the photographing light beam is divided into two, and each of the divided light beams is picked up by two solid-state image sensors, and a focus detection pixel is arranged on each solid-state image sensor to set a focus detection region. At the same time, since the focus detection areas of the respective solid-state image sensors are set so as not to overlap each other on the photographing screen, the pixel data of the focus detection area of one solid-state image sensor is used as the pixel data of the other solid-state image sensor overlapping the focus detection area The image data of the imaging pixels can be used, and the image quality is improved as compared with the case where the image data in the focus detection area is interpolated from the image data of the imaging pixels around the focus detection area.

また、複数の焦点検出領域を備えた2つの固体撮像素子に対して独立に電荷蓄積時間の制御が可能となるため、1つの固体撮像素子に対して一律に電荷蓄積時間を設定した場合に比較して、明暗差の大きな画像においても焦点検出に用いる画像データの出力レベルの飽和や不足の問題が少なくなり、確実に焦点検出ができる。   In addition, since the charge accumulation time can be controlled independently for two solid-state image sensors having a plurality of focus detection areas, the charge accumulation time is uniformly set for one solid-state image sensor. As a result, even in an image having a large difference in brightness, the problem of saturation or deficiency in the output level of image data used for focus detection is reduced, and focus detection can be performed reliably.

さらに、1つの撮像画面に対し2つの固体撮像素子で撮像および焦点検出を行うため、1つの固体撮像素子で撮像および焦点検出を行う場合に比較して、焦点検出領域を撮影画面上で密に配置でき焦点検出性能が向上するとともに、解像度も向上するので画像品質も向上する。   Furthermore, since imaging and focus detection are performed with two solid-state imaging devices for one imaging screen, the focus detection area is denser on the imaging screen than when imaging and focus detection are performed with one solid-state imaging device. It can be arranged and the focus detection performance is improved, and the resolution is also improved, so that the image quality is improved.

区域110、130、150および170のそれぞれに、焦点検出用画素320を水平方向に配列した焦点検出領域、および焦点検出用画素330を垂直方向に配列した焦点検出領域をそれぞれ複数配置することによって、焦点検出対象を画面上において可能な限り多く位置で捕捉できるようにするとともに、像コントラストの方向による焦点検出性能の低下を防止している。   By disposing a plurality of focus detection regions in which the focus detection pixels 320 are arranged in the horizontal direction and a plurality of focus detection regions in which the focus detection pixels 330 are arranged in the vertical direction in each of the areas 110, 130, 150, and 170, The focus detection target can be captured at as many positions as possible on the screen, and the deterioration of the focus detection performance due to the image contrast direction is prevented.

焦点検出対象が存在する可能性の高い画面中心領域107においては、焦点検出用画素320および焦点検出用画素330、あるいは焦点検出用画素320を水平方向に配列した焦点検出領域および焦点検出用画素330を垂直方向に配列した焦点検出領域を、中間領域108と周辺領域109に比較して単位面積あたりの密度を高くして配置することによって、焦点検出性能が効率的に発揮できるように焦点検出用画素320と焦点検出用画素330を配分している。   In the screen center region 107 where there is a high possibility that a focus detection target exists, the focus detection pixel 320 and the focus detection pixel 330 or the focus detection region and the focus detection pixel 330 in which the focus detection pixels 320 are arranged in the horizontal direction. Focus detection areas arranged in the vertical direction are arranged with a higher density per unit area than the intermediate area 108 and the peripheral area 109, so that the focus detection performance can be efficiently exhibited. Pixels 320 and focus detection pixels 330 are distributed.

画面中心に対して水平方向に分離した区域110および区域130においては、焦点検出用画素330を垂直方向に配列した焦点検出領域の数が、焦点検出用画素320を水平方向に配列した焦点検出領域の数より多くなるようにするともに、画面中心に対して垂直方向に分離した区域150および区域170においては、焦点検出用画素320を水平方向に配列した焦点検出領域の数が、焦点検出用画素330を垂直方向に配列した焦点検出領域の数より多くなるようにすることによって、ケラレに対する焦点検出性能維持を図り、焦点検出用画素数の制限の中で焦点検出性能が効率的に発揮できるように焦点検出用画素320と焦点検出用画素330を配分している。   In the areas 110 and 130 separated in the horizontal direction with respect to the center of the screen, the number of focus detection areas in which the focus detection pixels 330 are arranged in the vertical direction is equal to the focus detection area in which the focus detection pixels 320 are arranged in the horizontal direction. In the area 150 and the area 170 separated in the vertical direction with respect to the center of the screen, the number of focus detection areas in which the focus detection pixels 320 are arranged in the horizontal direction is the focus detection pixel. By making 330 larger than the number of focus detection areas arranged in the vertical direction, the focus detection performance against vignetting can be maintained, and the focus detection performance can be efficiently exhibited within the limit of the number of focus detection pixels. The focus detection pixels 320 and the focus detection pixels 330 are distributed.

画面中心近傍においては焦点検出性能に与えるケラレの影響が少なく、画面中心から離れるにつれてその影響が増大するので、画面中心に対して水平方向の左右にある区域110、130内においては、画面中心からの距離が大きくなるにつれて、焦点検出用画素320および焦点検出用画素320を水平方向に配列した焦点検出領域の数を少なくするとともに、単位面積当たりの密度を低くしている。また、焦点検出用画素330および焦点検出用画素330を垂直方向に配列した焦点検出領域の数および密度との相対比も、画面中心から離れるにつれて小さくなるようにしている。さらに、画面中心に対して垂直方向の上下にある区域150、170内においては、画面中心からの距離が大きくなるにつれて、焦点検出用画素330および焦点検出用画素330を垂直方向に配列した焦点検出領域の数を少なくするとともに、単位面積当たりの密度を低くしている。さらにまた、焦点検出用画素320および焦点検出用画素320を水平方向に配列した焦点検出領域の数および密度との相対比も、画面中心から離れるにつれて小さくなるようにしている。これにより、ケラレに対する焦点検出性能維持を図っている。   In the vicinity of the center of the screen, the influence of vignetting on the focus detection performance is small, and the influence increases as the distance from the center of the screen increases. As the distance becomes larger, the number of focus detection areas in which the focus detection pixels 320 and the focus detection pixels 320 are arranged in the horizontal direction is reduced, and the density per unit area is reduced. In addition, the relative ratio between the number of focus detection pixels 330 and the focus detection pixels 330 in which the focus detection pixels 330 are arranged in the vertical direction and the density is also reduced as the distance from the screen center increases. Further, in the areas 150 and 170 that are above and below in the vertical direction with respect to the screen center, the focus detection pixel 330 and the focus detection pixel 330 are arranged in the vertical direction as the distance from the screen center increases. The number of regions is reduced and the density per unit area is reduced. Furthermore, the relative ratio between the focus detection pixels 320 and the number and density of focus detection regions in which the focus detection pixels 320 are arranged in the horizontal direction is also reduced as the distance from the screen center increases. As a result, focus detection performance against vignetting is maintained.

画面中心に対して水平方向の左右にある区域110、130内においては、周辺領域に焦点検出性能がケラレの影響を受けにくい焦点検出用画素330を垂直方向に配列した焦点検出領域のみを配置している。一方、画面中心に対して垂直方向の上下にある区域150、170内においては、周辺領域に焦点検出性能がケラレの影響を受けにくい焦点検出用画素320を水平方向に配列した焦点検出領域のみを配置している。結果的に、複数の焦点検出領域を包括する範囲の水平方向の外周領域においては、焦点検出用画素330を垂直方向に配列した焦点検出領域のみが配置され、垂直方向の外周領域においては焦点検出用画素320を水平方向に配列した焦点検出領域のみが配置される。これにより、ケラレに対する焦点検出性能維持を図っている。   In the areas 110 and 130 on the left and right in the horizontal direction with respect to the center of the screen, only the focus detection area in which the focus detection pixels 330 in which the focus detection performance is hardly affected by vignetting is arranged in the peripheral area is arranged in the peripheral area. ing. On the other hand, in the areas 150 and 170 that are vertically above and below the center of the screen, only the focus detection region in which the focus detection pixels 320 that are less susceptible to vignetting are arranged in the peripheral region. It is arranged. As a result, only the focus detection region in which the focus detection pixels 330 are arranged in the vertical direction is arranged in the horizontal outer peripheral region including a plurality of focus detection regions, and focus detection is performed in the vertical outer peripheral region. Only the focus detection area in which the pixels 320 are arranged in the horizontal direction is arranged. As a result, focus detection performance against vignetting is maintained.

《その他の実施の形態》
図20〜図22は変形例の固体撮像素子220A、221Aの撮像画面の平面図である。図2および図3に示す固体撮像素子220、221では、一方の固体撮像素子220に、測距瞳の並び方向が水平方向の焦点検出用画素を水平方向に配列した焦点検出領域を主として画面中心100の垂直方向に配置し、もう一方の固体撮像素子221に、測距瞳の並び方向が垂直方向の焦点検出用画素を垂直方向に配列した焦点検出領域を主として画面中心100の水平方向に配置した例を示したが、2つの固体撮像素子における焦点検出領域の配分はこのような配置に限られることはなく、良好な焦点検出を行うために異なる配置をとることができる。
<< Other Embodiments >>
20 to 22 are plan views of imaging screens of the solid-state imaging devices 220A and 221A according to modified examples. 2 and 3, the focus detection region in which focus detection pixels in which the alignment direction of the distance measurement pupils is arranged in the horizontal direction is arranged in the horizontal direction in one solid-state image pickup device 220 is mainly the center of the screen. The focus detection area is arranged in the vertical direction of 100, and the focus detection region in which focus detection pixels whose alignment pupils are arranged in the vertical direction is arranged in the vertical direction on the other solid-state imaging device 221 is mainly arranged in the horizontal direction of the screen center 100. However, the distribution of the focus detection areas in the two solid-state imaging devices is not limited to such an arrangement, and different arrangements can be taken in order to perform good focus detection.

以下では、図2〜図4に示す固体撮像素子220、221と同様な要素に対しては説明を省略する。図20に示す固体撮像素子220Aにおいて、小さな長方形で示す領域に焦点検出用画素が配列されている。この領域が焦点検出領域(焦点検出エリア)であり、撮影画面の上半分に複数の焦点検出領域が配置されている。また、長方形の長手方向が焦点検出用画素の配列方向を示しており、焦点検出用画素が配列された領域を黒く塗りつぶした長方形で示している。図21に示す固体撮像素子221Aにおいて、小さな長方形で示す領域に焦点検出用画素が配列されている。この領域が焦点検出領域(焦点検出エリア)であり、撮影画面の下半分に複数の焦点検出領域が配置されている。また、長方形の長手方向が焦点検出用画素の配列方向を示しており、焦点検出用画素が配列された領域を白抜きにした長方形で示している。   Below, description is abbreviate | omitted with respect to the element similar to the solid-state image sensor 220,221 shown in FIGS. In the solid-state imaging device 220A shown in FIG. 20, focus detection pixels are arranged in a region indicated by a small rectangle. This area is a focus detection area (focus detection area), and a plurality of focus detection areas are arranged in the upper half of the photographing screen. Further, the longitudinal direction of the rectangle indicates the arrangement direction of the focus detection pixels, and the area where the focus detection pixels are arranged is indicated by a black rectangle. In the solid-state imaging device 221A shown in FIG. 21, focus detection pixels are arranged in a region indicated by a small rectangle. This area is a focus detection area (focus detection area), and a plurality of focus detection areas are arranged in the lower half of the photographing screen. Further, the longitudinal direction of the rectangle indicates the arrangement direction of the focus detection pixels, and the region where the focus detection pixels are arranged is indicated by a white rectangle.

図22は、図20に示す固体撮像素子220Aの構成と、図21に示す固体撮像素子221Aの構成とを同一の撮像画面上で重ね合わせて示す。撮像画面上において固体撮像素子220Aにより設定される焦点検出領域(黒塗り長方形)と、固体撮像素子221Aにより設定される焦点検出領域(白抜き長方形)とは互いに重ならないように配置されている。これにより、固体撮像素子220Aの焦点検出領域における画像データを、固体撮像素子221Aの対応する領域の撮像用画素の画像データで代用可能になるとともに、固体撮像素子221Aの焦点検出領域における画像データを、固体撮像素子220Aの対応する領域の撮像用画素の画像データで代用可能になる。   FIG. 22 shows the configuration of the solid-state imaging device 220A shown in FIG. 20 and the configuration of the solid-state imaging device 221A shown in FIG. 21 on the same imaging screen. On the imaging screen, the focus detection area (black rectangle) set by the solid-state image sensor 220A and the focus detection area (white rectangle) set by the solid-state image sensor 221A are arranged so as not to overlap each other. As a result, the image data in the focus detection area of the solid-state image sensor 220A can be substituted with the image data of the imaging pixels in the corresponding area of the solid-state image sensor 221A, and the image data in the focus detection area of the solid-state image sensor 221A can be replaced. The image data of the imaging pixels in the corresponding area of the solid-state imaging device 220A can be substituted.

この変形例の固体撮像素子220A、221Aの構成においては、複数の焦点検出領域が撮影画面の上半分と下半分で独立に電荷蓄積時間の設定ができる。通常の撮影では、上部と下部の明るさが異なるシチュエーション(例えば風景写真で上部に明るい空部分や日向部分となり、下部が日陰部分)が多く、画面上部と下部の電荷蓄積時間を独立に制御することによって、複数の焦点検出領域における焦点検出用画素の出力レベルを適正化でき、飛躍的に焦点検出能力が向上する。   In the configuration of the solid-state imaging devices 220A and 221A of this modification, the charge accumulation time can be set independently for the plurality of focus detection areas in the upper half and the lower half of the shooting screen. In normal shooting, there are many situations where the brightness of the upper and lower parts is different (for example, in landscape photography, the upper part is a bright sky or sunny part, and the lower part is a shaded part), and the charge accumulation time at the top and bottom of the screen is controlled independently. As a result, the output level of the focus detection pixels in the plurality of focus detection areas can be optimized, and the focus detection capability is dramatically improved.

図23〜図25は他の変形例の固体撮像素子220B、221Bの撮像画面の平面図である。図23に示す固体撮像素子220Bにおいて、小さな長方形で示した領域に焦点検出用画素が配列されている。この領域が焦点検出領域(焦点検出エリア)であり、撮影画面の周辺部分に複数の焦点検出領域が配置されている。長方形の長手方向が焦点検出用画素の配列方向を示しており、焦点検出用画素が配列された領域を黒く塗りつぶした長方形で示している。一方、図24に示す固体撮像素子221Bにおいて、小さな長方形で示した領域に焦点検出用画素が配列されている。この領域が焦点検出領域(焦点検出エリア)であり、撮影画面の中心部分に複数の焦点検出領域が配置されている。長方形の長手方向が焦点検出用画素の配列方向を示しており、焦点検出用画素が配列された領域を白抜きにした長方形で示している。   23 to 25 are plan views of imaging screens of solid-state imaging devices 220B and 221B according to other modified examples. In the solid-state imaging device 220B shown in FIG. 23, focus detection pixels are arranged in a region indicated by a small rectangle. This area is a focus detection area (focus detection area), and a plurality of focus detection areas are arranged in the peripheral portion of the photographing screen. The longitudinal direction of the rectangle indicates the arrangement direction of the focus detection pixels, and the region in which the focus detection pixels are arranged is indicated by a black rectangle. On the other hand, in the solid-state imaging device 221B shown in FIG. 24, focus detection pixels are arranged in a region indicated by a small rectangle. This area is a focus detection area (focus detection area), and a plurality of focus detection areas are arranged at the center of the photographing screen. The longitudinal direction of the rectangle indicates the arrangement direction of the focus detection pixels, and the region where the focus detection pixels are arranged is indicated by a white rectangle.

図25は、図23に示す固体撮像素子220Bの構成と、図24に示す固体撮像素子221Bの構成とを同一の撮像画面上で重ね合わせて示す。撮像画面上において固体撮像素子220Bにより設定される焦点検出領域(黒塗り長方形)と、固体撮像素子221Bにより設定される焦点検出領域(白抜き長方形)とは互いに重ならないように配置されている。これにより、固体撮像素子220Bの焦点検出領域における画像データを、固体撮像素子221Bの対応する領域の撮像用画素の画像データで代用可能になるとともに、固体撮像素子221Bの焦点検出領域における画像データを、固体撮像素子220Bの対応する領域の撮像用画素の画像データで代用可能になる。   FIG. 25 illustrates the configuration of the solid-state imaging device 220B illustrated in FIG. 23 and the configuration of the solid-state imaging device 221B illustrated in FIG. 24 on the same imaging screen. On the imaging screen, the focus detection area (black rectangle) set by the solid-state image sensor 220B and the focus detection area (white rectangle) set by the solid-state image sensor 221B are arranged so as not to overlap each other. As a result, the image data in the focus detection area of the solid-state image sensor 220B can be substituted with the image data of the imaging pixels in the corresponding area of the solid-state image sensor 221B, and the image data in the focus detection area of the solid-state image sensor 221B can be replaced. The image data of the imaging pixels in the corresponding area of the solid-state imaging device 220B can be substituted.

この変形例の固体撮像素子220B、221Bのような構成においては、複数の焦点検出領域が撮影画面の中心部分と周辺部分で独立に電荷蓄積時間の設定ができる。通常の撮影では、中心部分と周辺部分の明るさが異なるシチュエーション(例えば人物写真で中心部分に明るい人物、周辺部分が暗い背景)が多く、画面中心部分と周辺部分の電荷蓄積時間を独立に制御することによって、複数の焦点検出領域における焦点検出画素の出力レベルを適正化でき、飛躍的に焦点検出能力が向上する。   In the configuration such as the solid-state imaging devices 220B and 221B of this modification, the charge accumulation time can be set independently for the central portion and the peripheral portion of the photographing screen in the plurality of focus detection areas. In normal shooting, there are many situations where the brightness of the central part differs from that of the peripheral part (for example, a portrait of a person with a bright person in the central part and a dark background in the peripheral part). By doing so, the output level of the focus detection pixels in the plurality of focus detection regions can be optimized, and the focus detection capability is dramatically improved.

図26、図27は焦点検出用画素配列の拡大図である。図6、図7に示す固体撮像素子おいては、1つの焦点検出用画素が一対の測距瞳に対応する一対の光電変換部を備えているが、1つの焦点検出用画素が一対の測距瞳の片方に対応する一つの光電変換部を備え、隣接する焦点検出用画素が一対の測距瞳のもう一方に対応する一つの光電変換部を備えるようにし、対となった焦点検出用画素を配列することにより焦点検出領域を形成するようにしてもよい。図26、図27はこのようにして形成された焦点検出用画素が配列された領域を拡大した図である。図26は、図2に示す焦点検出用画素が行方向に配列された領域(黒く塗りつぶした長方形で示した領域)に対応しており、図27は、図2に示す焦点検出用画素が列方向に配列された領域(白抜きの長方形で示した領域)に対応している。   26 and 27 are enlarged views of the focus detection pixel array. In the solid-state imaging device shown in FIGS. 6 and 7, one focus detection pixel includes a pair of photoelectric conversion units corresponding to a pair of distance measurement pupils, but one focus detection pixel includes a pair of measurement sensors. One photoelectric conversion unit corresponding to one of the distance pupils is provided, and adjacent focus detection pixels are provided with one photoelectric conversion unit corresponding to the other of the pair of distance measurement pupils. The focus detection area may be formed by arranging pixels. 26 and 27 are enlarged views of the region where the focus detection pixels formed in this way are arranged. 26 corresponds to a region where the focus detection pixels shown in FIG. 2 are arranged in the row direction (a region indicated by a black rectangle), and FIG. 27 shows the focus detection pixels shown in FIG. This corresponds to a region arranged in the direction (a region indicated by a white rectangle).

図26において、焦点検出用画素321、322のペアは行方向に連続的に配列され、焦点検出領域を形成する。焦点検出用画素321、322の配列の周囲は撮像用画素により取り囲まれている。一方、図27において、焦点検出用画素331、332のペアは列方向に連続的に配列され、焦点検出領域を形成する。焦点検出用画素331、332の配列の周囲は撮像用画素により取り囲まれている。以上のように、焦点検出用画素が1つの光電変換部を備えるように構成することによって、単位画素の回路構成が撮像用画素の回路構成と同一にできるので、固体撮像素子全体の回路をシンプルに構成することができる。   In FIG. 26, pairs of focus detection pixels 321 and 322 are continuously arranged in the row direction to form a focus detection region. The periphery of the array of focus detection pixels 321 and 322 is surrounded by imaging pixels. On the other hand, in FIG. 27, pairs of focus detection pixels 331 and 332 are continuously arranged in the column direction to form a focus detection region. The periphery of the array of focus detection pixels 331 and 332 is surrounded by imaging pixels. As described above, by configuring the focus detection pixel to have one photoelectric conversion unit, the circuit configuration of the unit pixel can be made the same as the circuit configuration of the imaging pixel, so that the circuit of the entire solid-state imaging device is simplified. Can be configured.

図28は変形例の撮影光路を示す図である。図1ではハーフミラー面222を備えた光分割プリズム223により交換レンズ202から到来する光束が2分割され、別個に設置された固体撮像素子220と固体撮像素子221上に光束を導いているが、図28に示すような光学構成により1つの基板240上に形成された2つの固体撮像素子230,231に光束を導くようにすることもできる。交換レンズから到来する光束は、ハーフミラーM1により透過光と反射光に分割され、透過光束は全反射ミラーM4で反射されて固体撮像素子230へ導かれる。ハーフミラーM1により反射された光束は、全反射ミラーM2とM3で反射されて固体撮像素子231に導かれる。なお、ハーフミラーM1から全反射ミラーM4を経て固体撮像素子230に至る光路長と、ハーフミラーM1から全反射ミラーM2、M3を経て固体撮像素子231に至る光路長は等しく設定される。このような構成によれば、固体撮像素子を1つの基板(パッケージ)としてボディに組み込めるので、固体撮像素子間の相対的な位置調整が不要になるとともに、電気系の構成を簡易化することができる。   FIG. 28 is a diagram showing a photographing optical path of a modification. In FIG. 1, the light beam coming from the interchangeable lens 202 is divided into two by the light splitting prism 223 having the half mirror surface 222, and the light beam is guided onto the solid-state image sensor 220 and the solid-state image sensor 221 that are separately installed. It is also possible to guide the light flux to the two solid-state imaging devices 230 and 231 formed on one substrate 240 by the optical configuration as shown in FIG. The light beam coming from the interchangeable lens is divided into transmitted light and reflected light by the half mirror M1, and the transmitted light beam is reflected by the total reflection mirror M4 and guided to the solid-state imaging device 230. The light beam reflected by the half mirror M1 is reflected by the total reflection mirrors M2 and M3 and guided to the solid-state image sensor 231. The optical path length from the half mirror M1 through the total reflection mirror M4 to the solid-state image sensor 230 is set equal to the optical path length from the half mirror M1 through the total reflection mirrors M2 and M3 to the solid-state image sensor 231. According to such a configuration, since the solid-state imaging device can be incorporated into the body as one substrate (package), it is not necessary to adjust the relative position between the solid-state imaging devices, and the configuration of the electrical system can be simplified. it can.

《一実施の形態の変形例》
上述した一実施の形態では、2つの固体撮像素子の電荷蓄積時間を独立に制御する例を示したが、電荷蓄積時間を共通に制御し、2つの固体撮像素子の画素出力の増幅度を独立に制御するようにしてもよい。
<< Modification of Embodiment >>
In the above-described embodiment, an example in which the charge accumulation times of the two solid-state imaging devices are independently controlled has been described. However, the charge accumulation times are controlled in common, and the amplification degrees of the pixel outputs of the two solid-state imaging devices are independent. You may make it control to.

上述した一実施の形態では、低輝度重視の撮像用画素のデータと高輝度重視の撮像用画素のデータを合成し、ダイナミックレンジを拡大した高品質な画像データを生成する例を示したが、単純に加算平均して画像データを生成してもよい。   In the above-described embodiment, an example in which data of imaging pixels that emphasize low luminance and data of imaging pixels that emphasize high luminance is combined to generate high-quality image data with an expanded dynamic range. Image data may be generated simply by averaging.

上述した一実施の形態では、ハーフミラーを用いて撮影光路を2分割するとともに、各光路に固体撮像素子を配置していたが、光路を3分割以上に分割し、各光路中にそれぞれ焦点検出画素を備えた固体撮像素子を配置するようにしてもよい。   In the above-described embodiment, the imaging optical path is divided into two using a half mirror, and the solid-state imaging device is disposed in each optical path. However, the optical path is divided into three or more, and focus detection is performed in each optical path. You may make it arrange | position the solid-state image sensor provided with the pixel.

上述した一実施の形態では、ハーフミラーを用いて撮影光路を2分割するとともに、各光路の予定焦点面に固体撮像素子を配置していたが、予定焦点面からずらして固体撮像素子を配置してもよい。例えば、一方の固体撮像素子を予定焦点面より前方に微小距離離れた位置に配置し、もう一方の固体撮像素子を予定焦点面より後方に微小距離離れた位置に配置し、2つの固体撮像素子の撮像用画素の出力のコントラスト評価を行い、2つの固体撮像素子の撮像用画素の出力のコントラスト評価値が等しくなるようにフォーカス制御を行うことによって、固体撮像素子に組み込まれた焦点検出用画素の出力による位相差方式によるオートフォーカスの他にコントラスト方式でもオートフォーカスが可能になる。   In the embodiment described above, the imaging optical path is divided into two using a half mirror, and the solid-state imaging device is arranged on the planned focal plane of each optical path. However, the solid-state imaging device is arranged shifted from the planned focal plane. May be. For example, one solid-state image sensor is arranged at a position that is separated by a minute distance forward from the planned focal plane, and the other solid-state image sensor is arranged at a position that is separated by a minute distance behind the planned focal plane. The focus detection pixels incorporated in the solid-state image sensor are evaluated by performing contrast evaluation of the output of the image-capturing pixels and performing focus control so that the contrast evaluation values of the output of the image-capturing pixels of the two solid-state image sensors are equal. In addition to the autofocus based on the phase difference method based on the output, the autofocus can be performed using the contrast method.

図1に示す一実施の形態の構成では、固体撮像素子220,221の撮像用画素を緑画素、赤画素、青画素のベイヤー配列とした例を示したが、一方の固体撮像素子の撮像用画素を全て緑画素とし、他方の固体撮像素子の撮像用画素を市松模様に配置された赤画素と青画素とすることによって、合成画像の解像度を2倍にすることができる。   In the configuration of the embodiment shown in FIG. 1, an example in which the imaging pixels of the solid-state imaging devices 220 and 221 are Bayer arrays of green pixels, red pixels, and blue pixels is shown. The resolution of the composite image can be doubled by setting all the pixels as green pixels and the imaging pixels of the other solid-state imaging device as red pixels and blue pixels arranged in a checkered pattern.

図1に示す一実施の形態の構成では、ハーフミラー222により波長依存がないように光束を分割しているが、分光ミラーにより光束を分割することもできる。例えば図10のGの分光特性の光を透過し、それ以外を反射する分光ミラーを配置し、透過側に配置する固体撮像素子の撮像用画素を全て緑画素とし、反射側に配置する固体撮像素子の撮像用画素を市松模様に配置された赤画素と青画素とすることによって、合成画像の解像度を2倍にすることができる。   In the configuration of the embodiment shown in FIG. 1, the light beam is split by the half mirror 222 so as not to depend on the wavelength, but the light beam can also be split by the spectroscopic mirror. For example, a spectral mirror that transmits light having the spectral characteristic of G in FIG. 10 and reflects the other is arranged, and all the imaging pixels of the solid-state imaging device arranged on the transmission side are green pixels, and the solid-state imaging arranged on the reflection side By using red and blue pixels arranged in a checkered pattern as the imaging pixels of the element, the resolution of the composite image can be doubled.

図1に示す一実施の形態の構成では、光分割プリズム223により光束を分割しているが、薄板ガラスを用いたハーフミラーやペリクルハーフミラーを用いることもできる。   In the configuration of the embodiment shown in FIG. 1, the light beam is split by the light splitting prism 223, but a half mirror using a thin glass plate or a pellicle half mirror can also be used.

図1に示す一実施の形態の構成において、ハーフミラー222を多層膜によって形成してもいいし、偏光ミラー(例えば図1の紙面に平行な偏光成分を反射し、紙面に垂直な偏光成分を透過する)として形成してもよい。   In the configuration of the embodiment shown in FIG. 1, the half mirror 222 may be formed of a multilayer film, or a polarizing mirror (for example, a polarization component that reflects a polarization component parallel to the paper surface of FIG. It may be formed as a transparent).

図1に示す一実施の形態の構成では、光分割プリズム223により透過された光束の予定結像面(撮像面)に固体撮像素子220を配置し、光分割プリズム223により反射された光束の予定結像面に固体撮像素子221を配置した例を示したが、透過側に固体撮像素子221を配置し、反射側に固体撮像素子220を配置することもできる。   In the configuration of the embodiment shown in FIG. 1, the solid-state imaging device 220 is arranged on the planned image formation surface (imaging surface) of the light beam transmitted by the light splitting prism 223, and the light beam reflected by the light splitting prism 223 is scheduled. Although an example in which the solid-state image sensor 221 is arranged on the imaging surface is shown, the solid-state image sensor 221 can be arranged on the transmission side, and the solid-state image sensor 220 can be arranged on the reflection side.

図20〜図22に示す変形例においては、撮影画面の上半分の焦点検出領域を一方の固体撮像素子上に形成し、下半分の焦点検出領域をもう一方の固体撮像素子上に形成した例を示したが、撮影画面の右半分の焦点検出領域を一方の固体撮像素子上に形成し、左半分の焦点検出領域をもう一方の固体撮像素子上に形成することもできる。   20 to 22, an example in which the upper half focus detection area of the photographing screen is formed on one solid-state image sensor and the lower half focus detection area is formed on the other solid-state image sensor. However, it is also possible to form the focus detection area of the right half of the shooting screen on one solid-state image sensor and form the focus detection area of the left half on the other solid-state image sensor.

図5〜図7に示す固体撮像素子において、撮像用画素がベイヤー配列の色フィルターを備えた例を示したが、色フィルタの構成や配列はこれに限定されることはなく、補色フィルター(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)を採用してもよい。   In the solid-state imaging device shown in FIGS. 5 to 7, the example in which the imaging pixel includes a Bayer color filter is shown. However, the configuration and arrangement of the color filter are not limited thereto, and the complementary color filter (green : G, yellow: Ye, magenta: Mg, cyan: Cy) may be employed.

図6、図7に示す固体撮像素子において、焦点検出用画素には色フィルターを設けない例を示したが、撮像用画素と同色の色フィルターのうち一つのフィルター(たとえば緑フィルター)を備えるようにした場合でも、本発明を適用することができる。このようにすれば、画像データの補間において焦点検出用画素の画像データも利用することができるので、画像品質が向上する。   In the solid-state imaging device shown in FIGS. 6 and 7, an example in which a color filter is not provided in the focus detection pixel is shown. However, one of the color filters of the same color as the imaging pixel (for example, a green filter) is provided. Even in this case, the present invention can be applied. In this way, the image data of the focus detection pixels can be used in the interpolation of the image data, so that the image quality is improved.

図6、図7に示す固体撮像素子において、焦点検出用画素が連続して配列された例を示したが、画像品質の劣化を防止するために、焦点検出用画素の間に撮像用画素を挟んで配列するようにしてもよい。固体撮像素子における焦点検出用画素の配列は、図6、図7に示す配列に限定されず、本発明の意図を反映した形でこれ以外の配列にも応用することができる。   In the solid-state imaging device shown in FIGS. 6 and 7, the example in which the focus detection pixels are continuously arranged is shown. However, in order to prevent the image quality from being deteriorated, the image pickup pixels are arranged between the focus detection pixels. You may make it arrange | position between. The arrangement of the focus detection pixels in the solid-state imaging device is not limited to the arrangement shown in FIGS. 6 and 7 and can be applied to other arrangements reflecting the intention of the present invention.

図2〜図4に示す固体撮像素子において、水平線101、垂直線102に対して45度傾斜されて画面中心を通る直線102および103により画面を上下左右の4つの区域に区分し、それぞれの区域において画像品質と焦点検出性能のバランスがとれるように焦点検出用画素を配列しているが、これは撮像用画素および焦点検出用画素を正方配列としたためである。撮像用画素および焦点検出用画素を正方配列以外の配列とすることもできる。例えば撮像用画素および焦点検出用画素を六方稠密配列(ハニカム配列)とした場合には、画素が稠密に配列する方向が3方向(相対角度が60度)となるので3方向を挟んで画面中心を通る3つの直線(相対的な角度が60度)の直線により画面を6つの区域に区分でき、それぞれの区域において、AF性能の維持と画像品質のバランスをとって3つの方向に対して焦点検出画素を配列することが可能である。   In the solid-state imaging device shown in FIGS. 2 to 4, the screen is divided into four areas, upper, lower, left, and right by straight lines 102 and 103 that are inclined 45 degrees with respect to the horizontal line 101 and the vertical line 102 and pass through the center of the screen. In FIG. 1, focus detection pixels are arranged so that the balance between image quality and focus detection performance is achieved, because the imaging pixels and focus detection pixels are arranged in a square array. The imaging pixels and the focus detection pixels may be arranged other than the square arrangement. For example, when the imaging pixels and focus detection pixels are arranged in a hexagonal close-packed arrangement (honeycomb arrangement), the directions in which the pixels are arranged densely are 3 directions (relative angle is 60 degrees), so the screen center is sandwiched between the 3 directions. The screen can be divided into six areas by three straight lines (relative angle of 60 degrees) that pass through, and focus on the three directions in each area to maintain the AF performance and balance the image quality. It is possible to arrange the detection pixels.

本発明はマイクロレンズを用いた瞳分割型位相差検出方式の焦点検出用画素を有する固体撮像素子に限定されず、他の方式の瞳分割型位相差検出方式の焦点検出用画素を有する固体撮像素子に適用が可能である。例えば偏光を利用した瞳分割型位相差検出方式の焦点検出用画素を備えた固体撮像素子にも適用可能である。   The present invention is not limited to a solid-state imaging device having focus detection pixels of a pupil division type phase difference detection method using a microlens, and is a solid state imaging having focus detection pixels of another type of pupil division type phase difference detection method. Applicable to devices. For example, the present invention can also be applied to a solid-state imaging device having focus detection pixels of a pupil division type phase difference detection method using polarized light.

上述した一実施の形態においては、撮影時には2つの固体撮像素子の出力を合成して画像データを合成しているが、一方の固体撮像素子の出力で画像データを生成するようにしてもよい。例えば2つの固体撮像素子の出力を交互に用いて画像データを生成することにより、高速連続撮影を行うことができる。   In the above-described embodiment, the image data is synthesized by synthesizing the outputs of the two solid-state imaging elements at the time of shooting, but the image data may be generated by the output of one of the solid-state imaging elements. For example, high-speed continuous shooting can be performed by generating image data by alternately using outputs of two solid-state imaging devices.

上述した一実施の形態において、固体撮像素子はCCDイメージセンサーであってもいいし、CMOSイメージセンサーであってもよい。CMOSイメージセンサーを採用した場合には、ローリングシャッター方式で電荷蓄積制御と出力読み出しが行われるので、同一の行または列においては電荷蓄積タイミングが同一となるが、異なる行または列においては電荷蓄積タイミングがずれを生ずる。焦点検出に用いる出力は電荷蓄積タイミングが揃っていないと、移動する被写体に対して焦点検出誤差を生ずる。同一の焦点検出領域に属する焦点検出画素の並び方向は、ローリングシャッターの進行方向に対して垂直な方向に並べると電荷蓄積時間がそろうので、移動被写体に対する焦点検出誤差を生じない。したがって、同じ固体撮像素子内においては複数の焦点検出領域の延在方向(焦点検出画素の並び方向)を揃えるとともに、その方向をローリングシャッターの進行方向と垂直にしておくと良好に焦点検出を行うことができる。   In the above-described embodiment, the solid-state imaging device may be a CCD image sensor or a CMOS image sensor. When a CMOS image sensor is used, charge accumulation control and output readout are performed by a rolling shutter method, so that the charge accumulation timing is the same in the same row or column, but the charge accumulation timing is different in a different row or column. Causes a shift. If the output used for focus detection does not have the same charge accumulation timing, a focus detection error occurs for the moving subject. If the alignment directions of the focus detection pixels belonging to the same focus detection region are aligned in a direction perpendicular to the moving direction of the rolling shutter, the charge accumulation time is aligned, so that a focus detection error for a moving subject does not occur. Therefore, in the same solid-state image pickup device, when the extending directions of the plurality of focus detection regions (alignment direction of the focus detection pixels) are aligned, and the direction is perpendicular to the moving direction of the rolling shutter, the focus detection is performed satisfactorily. be able to.

例えば図2に示す固体撮像素子220をCMOSイメージセンサーで構成した場合、ローリングシャッターの進行方向を垂直方向になるように固体撮像素子を構成すれば、同一の焦点検出領域に属する焦点検出用画素の電荷蓄積タイミングを揃えることができる。また、図3の固体撮像素子221をCMOSイメージセンサーで構成した場合、ローリングシャッターの進行方向を水平方向になるように固体撮像素子を構成すれば、同一の焦点検出領域に属する焦点検出用画素の電荷蓄積タイミングを揃えることができる。   For example, when the solid-state image sensor 220 shown in FIG. 2 is configured by a CMOS image sensor, if the solid-state image sensor is configured so that the moving direction of the rolling shutter is vertical, the focus detection pixels belonging to the same focus detection region are Charge accumulation timing can be aligned. In addition, when the solid-state image sensor 221 of FIG. 3 is configured by a CMOS image sensor, if the solid-state image sensor is configured so that the moving direction of the rolling shutter is horizontal, the focus detection pixels belonging to the same focus detection region are arranged. Charge accumulation timing can be aligned.

なお、本発明の撮像装置は交換レンズとカメラボディから構成されるデジタルスチルカメラに限定されない。例えばレンズ一体型のデジタルスチルカメラやビデオカメラにも適用できる。また、携帯電話などに内蔵される小型カメラモジュールや監視カメラなどにも適用できる。さらに、カメラ以外の焦点検出装置や測距装置やステレオ測距装置にも適用できる。   Note that the imaging apparatus of the present invention is not limited to a digital still camera including an interchangeable lens and a camera body. For example, the present invention can be applied to a digital still camera and a video camera with a lens. It can also be applied to small camera modules and surveillance cameras built into mobile phones. Furthermore, the present invention can be applied to a focus detection device other than a camera, a distance measuring device, and a stereo distance measuring device.

一実施の形態の構成を示す図The figure which shows the structure of one embodiment 固体撮像素子の平面図Plan view of solid-state image sensor 固体撮像素子の平面図Plan view of solid-state image sensor 交換レンズの撮影画面の平面図Plan view of the interchangeable lens shooting screen 撮像用画素配列の拡大図Enlarged view of pixel array for imaging 焦点検出用画素配列の拡大図Enlarged view of pixel array for focus detection 焦点検出用画素配列の拡大図Enlarged view of pixel array for focus detection 撮像用画素の正面図Front view of imaging pixels 焦点検出用画素の正面図Front view of focus detection pixels 撮像用画素の色フィルターの分光感度を示す図The figure which shows the spectral sensitivity of the color filter of the pixel for image pickup 焦点検出用画素の分光特性を示す図The figure which shows the spectral characteristic of the pixel for focus detection 撮像用画素の断面図Cross-sectional view of imaging pixels 焦点検出用画素の断面図Cross section of focus detection pixel マイクロレンズを用いた瞳分割方式による焦点検出の説明図Illustration of focus detection by pupil division method using microlenses 撮像用画素と射出瞳の関係を説明する図The figure explaining the relationship between the imaging pixel and the exit pupil 射出瞳面における測距瞳の正面図Front view of ranging pupil on exit pupil plane 射出瞳面における測距瞳の正面図Front view of ranging pupil on exit pupil plane 一実施の形態の撮影動作を示すフローチャートThe flowchart which shows the imaging operation of one embodiment 焦点検出演算の詳細を説明するための図Diagram for explaining details of focus detection calculation 変形例の固体撮像素子の撮像画面の平面図Plan view of imaging screen of solid-state imaging device of modification 変形例の固体撮像素子の撮像画面の平面図Plan view of imaging screen of solid-state imaging device of modification 変形例の固体撮像素子の撮像画面の平面図Plan view of imaging screen of solid-state imaging device of modification 他の変形例の固体撮像素子の撮像画面の平面図Plan view of an imaging screen of a solid-state imaging device of another modification 他の変形例の固体撮像素子の撮像画面の平面図Plan view of an imaging screen of a solid-state imaging device of another modification 他の変形例の固体撮像素子の撮像画面の平面図Plan view of an imaging screen of a solid-state imaging device of another modification 焦点検出用画素配列の拡大図Enlarged view of pixel array for focus detection 焦点検出用画素配列の拡大図Enlarged view of pixel array for focus detection 変形例の撮影光路を示す図The figure which shows the imaging optical path of a modification

符号の説明Explanation of symbols

202 交換レンズ
206 レンズ駆動制御装置
214 ボディ駆動制御装置
220、220A、220B、221、221A、221B、230、231 固体撮像素子
223、M1〜M4 光分割プリズム
310、311、312 撮像用画素
320、321、322、330、331、332 焦点検出用画素
202 Interchangeable lens 206 Lens drive controller 214 Body drive controller 220, 220A, 220B, 221, 221A, 221B, 230, 231 Solid-state image sensor 223, M1-M4 Light splitting prisms 310, 311, 312 Imaging pixels 320, 321 322, 330, 331, 332 Focus detection pixels

Claims (15)

光学系からの光束を互いに異なる第1方向および第2方向に分割する光束分割手段と、
前記第1方向に分割された光束による像を画像信号に変換する二次元状に配列された第1撮像用画素と、該第1撮像用画素の配列中に配置された第1焦点検出用画素とを有する第1の撮像素子と、
前記第2方向に分割された光束による像を画像信号に変換する二次元状に配列された第2撮像用画素と、該第2撮像用画素の配列中の、前記光学系による画面上の前記第1焦点検出用画素とは異なる位置に配置された第2焦点検出用画素とを有する第2の撮像素子とを備えたことを特徴とする撮像装置。
Light beam splitting means for splitting the light beam from the optical system in different first and second directions;
First imaging pixels arranged in a two-dimensional manner for converting an image of a light beam divided in the first direction into an image signal, and first focus detection pixels arranged in the array of the first imaging pixels A first imaging device having:
Two-dimensionally arranged second imaging pixels for converting an image of the luminous flux divided in the second direction into an image signal, and the optical system in the array of the second imaging pixels on the screen by the optical system An imaging apparatus comprising: a second imaging element having a second focus detection pixel arranged at a position different from the first focus detection pixel.
請求項1に記載の撮像装置において、
前記複数の撮像素子の前記撮像用画素の出力に基づいて画像情報を生成する画像生成手段を備え、
前記画像生成手段は、前記第1の撮像素子の前記第1焦点検出用画素の位置における画像出力を、前記第2の撮像素子において前記第1焦点検出用画素に対応する位置の前記第2撮像用画素の出力に基づいて生成することを特徴とする撮像装置。
The imaging device according to claim 1,
Image generating means for generating image information based on outputs of the imaging pixels of the plurality of imaging elements;
The image generation means outputs the image output at the position of the first focus detection pixel of the first image sensor to the second image of the second image sensor at a position corresponding to the first focus detection pixel. An image pickup apparatus that generates an image based on an output of a pixel for use.
請求項1または請求項2に記載の撮像装置において、
前記第1および第2焦点検出用画素は、前記光学系による画面内の互いに異なる区域に対応する位置に配置されていることを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
The imaging device according to claim 1, wherein the first and second focus detection pixels are arranged at positions corresponding to different areas in the screen by the optical system.
請求項に記載の撮像装置において、
前記各撮像素子における電荷蓄積動作を独立に制御する蓄積制御手段とを備えることを特徴とする撮像装置。
The imaging device according to claim 2 ,
An image pickup apparatus comprising: an accumulation control unit that independently controls a charge accumulation operation in each of the image sensors.
請求項4に記載の撮像装置において、
前記蓄積制御手段は、前記第1および第2の撮像素子ごとに蓄積制御の基準とする像の明るさを異ならせたことを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The image pickup apparatus according to claim 1, wherein the accumulation control unit varies the brightness of an image as a reference for accumulation control for each of the first and second image sensors.
請求項5に記載の撮像装置において、
前記蓄積制御手段は、前記光学系による像の明るさが所定値よりも明るい部分の明るさを基準に、前記第1の撮像素子に対する蓄積制御を行うことを特徴とする撮像装置。
The imaging apparatus according to claim 5,
The image pickup apparatus according to claim 1, wherein the accumulation control unit performs accumulation control on the first image sensor based on brightness of a portion where the image brightness by the optical system is brighter than a predetermined value.
請求項5に記載の撮像装置において、
前記蓄積制御手段は、前記光学系による像の明るさが所定値よりも暗い部分の明るさを基準に、前記第2の撮像素子に対する蓄積制御を行うことを特徴とする撮像装置。
The imaging apparatus according to claim 5,
The image pickup apparatus according to claim 1, wherein the accumulation control unit performs accumulation control on the second image sensor based on a brightness of a portion where an image brightness by the optical system is darker than a predetermined value.
請求項3に記載の撮像装置において、
前記光学系による画面を前記光学系の光軸を中心とした第3方向に沿った第1区域と前記第3方向と直交する第4方向に沿った第2区域に区分した場合に、前記第1の撮像素子は、前記第1区域に相当する領域に前記第1焦点検出用画素を配置し、前記第2の撮像素子は、前記第2区域に相当する領域に前記第2焦点検出用画素を配置したことを特徴とする撮像装置。
The imaging device according to claim 3.
When the screen of the optical system is divided into a first area along a third direction centered on the optical axis of the optical system and a second area along a fourth direction orthogonal to the third direction, The first image sensor has the first focus detection pixel arranged in a region corresponding to the first area, and the second image sensor has the second focus detection pixel arranged in a region corresponding to the second area. An image pickup apparatus characterized in that is arranged.
請求項3に記載の撮像装置において、
前記光学系による画面を上下に分割した第1区域と第2区域に区分した場合に、前記第1の撮像素子は、前記第1区域に相当する領域に前記第1焦点検出用画素を配置し、前記第2の撮像素子は、前記第2区域に相当する領域に前記第2焦点検出用画素を配置したことを特徴とする撮像装置。
The imaging device according to claim 3.
When the screen by the optical system is divided into a first area and a second area which are divided vertically, the first imaging device arranges the first focus detection pixels in a region corresponding to the first area. The second imaging element has the second focus detection pixel arranged in a region corresponding to the second area.
請求項3に記載の撮像装置において、
前記光学系による画面の中央部と周辺部に区分した場合に、前記第1の撮像素子は、前記中央部に相当する領域に前記第1焦点検出用画素を配置し、前記第2の撮像素子は、前記周辺部に相当する領域に前記第2焦点検出用画素を配置したことを特徴とする撮像装置。
The imaging device according to claim 3.
In the case where the screen is divided into a central part and a peripheral part of the screen by the optical system, the first imaging element arranges the first focus detection pixels in a region corresponding to the central part, and the second imaging element. , Wherein the second focus detection pixels are arranged in an area corresponding to the peripheral portion.
請求項1〜10のいずれか一項に記載の撮像装置において、
前記焦点検出用画素で検出される前記焦点検出信号に基づいて、前記光学系の焦点調節状態を検出する焦点検出手段を備えたことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 10,
An imaging apparatus comprising: focus detection means for detecting a focus adjustment state of the optical system based on the focus detection signal detected by the focus detection pixel.
請求項11に記載の撮像装置において、
前記第1焦点検出用画素は、前記光学系の射出瞳の一対の領域の一方からの光束を受光する第1の光電変換部を有し、前記第2焦点検出用画素は、前記一対の領域の他方からの光束を受光する第2の光電変換部を有し、
前記焦点検出手段は、前記第1および第2の焦点検出用画素の出力を組として前記焦点調節状態を検出することを特徴とする撮像装置。
The imaging device according to claim 11,
The first focus detection pixel includes a first photoelectric conversion unit that receives a light beam from one of a pair of regions of an exit pupil of the optical system, and the second focus detection pixel includes the pair of regions. A second photoelectric conversion unit that receives a light beam from the other side of
The imaging apparatus according to claim 1, wherein the focus detection unit detects the focus adjustment state based on a set of outputs from the first and second focus detection pixels.
請求項1〜12のいずれか1項に記載の撮像装置において、
前記撮像素子は単一の基板上に形成されることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 12,
The imaging device, wherein the imaging device is formed on a single substrate.
請求項1〜13のいずれか1項に記載の撮像装置において、
前記各撮像素子はローリングシャッター方式で画素の電荷蓄積が制御されるCMOSイメージセンサーであり、ローリングシャッター方式により電荷蓄積タイミングが同一となる配列に同一の焦点検出領域を構成する焦点検出用画素を配置することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 13,
Each of the image sensors is a CMOS image sensor in which charge accumulation of pixels is controlled by a rolling shutter method, and focus detection pixels constituting the same focus detection region are arranged in an array having the same charge accumulation timing by the rolling shutter method. An imaging apparatus characterized by:
光学系からの光束を互いに異なる第1方向および第2方向に分割する光束分割手段と、
前記第1方向に分割された光束による像を画像信号に変換する二次元状に配列された第1撮像用画素と、該第1撮像用画素の配列中に配置された第1焦点検出用画素とを有する第1の撮像素子と、
前記第2方向に分割された光束による像を画像信号に変換する二次元状に配列された第2撮像用画素と、該第2撮像用画素の配列中に配置された第2焦点検出用画素とを有する第2の撮像素子と、
前記第1の撮像素子の前記第1焦点検出用画素の位置における画像出力を、前記第2の撮像素子において前記第1焦点検出用画素に対応する位置の前記第2撮像用画素の出力に基づいて生成する画像生成手段とを備えたことを特徴とする撮像装置。
Light beam splitting means for splitting the light beam from the optical system in different first and second directions;
First imaging pixels arranged in a two-dimensional manner for converting an image of a light beam divided in the first direction into an image signal, and first focus detection pixels arranged in the array of the first imaging pixels A first imaging device having:
Second imaging pixels arranged in a two-dimensional manner for converting an image of a light beam divided in the second direction into an image signal, and second focus detection pixels arranged in the array of the second imaging pixels A second imaging device having:
The image output at the position of the first focus detection pixel of the first imaging element is based on the output of the second imaging pixel at the position corresponding to the first focus detection pixel of the second imaging element. An image pickup apparatus comprising: an image generation means for generating the image.
JP2007010230A 2007-01-19 2007-01-19 Imaging device Expired - Fee Related JP4983271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007010230A JP4983271B2 (en) 2007-01-19 2007-01-19 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007010230A JP4983271B2 (en) 2007-01-19 2007-01-19 Imaging device

Publications (2)

Publication Number Publication Date
JP2008177903A JP2008177903A (en) 2008-07-31
JP4983271B2 true JP4983271B2 (en) 2012-07-25

Family

ID=39704583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007010230A Expired - Fee Related JP4983271B2 (en) 2007-01-19 2007-01-19 Imaging device

Country Status (1)

Country Link
JP (1) JP4983271B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5434761B2 (en) * 2010-04-08 2014-03-05 株式会社ニコン Imaging device and imaging apparatus
JP5929021B2 (en) * 2011-07-04 2016-06-01 株式会社ニコン Focus detection device, imaging device
JP2014122957A (en) * 2012-12-20 2014-07-03 Canon Inc Imaging device
US9473688B2 (en) 2012-12-20 2016-10-18 Canon Kabushiki Kaisha Image pickup apparatus comprising a plurality of imaging sensors and image processing units
JP6111430B2 (en) 2013-05-24 2017-04-12 パナソニックIpマネジメント株式会社 Imaging device
US9706116B2 (en) * 2013-10-31 2017-07-11 Ricoh Co., Ltd. Plenoptic color imaging system with enhanced resolution
GB2548462B (en) * 2016-01-29 2020-06-17 Canon Kk Image sensor and image capturing apparatus
CN109196857B (en) 2016-06-01 2020-10-27 富士胶片株式会社 Imaging element and imaging device
WO2022064659A1 (en) * 2020-09-25 2022-03-31 オリンパス株式会社 Autofocus system, endoscope system, and control method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01216306A (en) * 1988-02-24 1989-08-30 Canon Inc Focus detecting device having image pickup means
JPH07333488A (en) * 1994-06-06 1995-12-22 Nikon Corp Focus detector
JPH11355650A (en) * 1998-06-09 1999-12-24 Nikon Corp Image fetching device
JP2001086411A (en) * 1999-09-13 2001-03-30 Matsushita Electric Ind Co Ltd Solid-state image pickup device
JP2002090619A (en) * 2000-09-18 2002-03-27 Canon Inc Focus detector
JP4708595B2 (en) * 2001-05-09 2011-06-22 キヤノン株式会社 Imaging apparatus and camera
JP4323781B2 (en) * 2002-11-27 2009-09-02 キヤノン株式会社 Imaging apparatus and control method thereof
JP4858179B2 (en) * 2007-01-19 2012-01-18 株式会社ニコン Focus detection apparatus and imaging apparatus

Also Published As

Publication number Publication date
JP2008177903A (en) 2008-07-31

Similar Documents

Publication Publication Date Title
JP4961993B2 (en) Imaging device, focus detection device, and imaging device
JP5176959B2 (en) Imaging device and imaging apparatus
JP4807131B2 (en) Imaging device and imaging apparatus
JP4952060B2 (en) Imaging device
JP4867552B2 (en) Imaging device
JP5163068B2 (en) Imaging device
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
JP4983271B2 (en) Imaging device
JP5157400B2 (en) Imaging device
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
JP5045007B2 (en) Imaging device
JP4867566B2 (en) Imaging device, focus detection device, and imaging device
JP5619294B2 (en) Imaging apparatus and focusing parameter value calculation method
JP5133533B2 (en) Imaging device
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
WO2016158618A1 (en) Imaging device
JP5211590B2 (en) Image sensor and focus detection apparatus
JP5067148B2 (en) Imaging device, focus detection device, and imaging device
JP5381472B2 (en) Imaging device
JP6642628B2 (en) Imaging device and imaging device
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2019195185A (en) Image pick-up device and imaging apparatus
JP2018026604A (en) Imaging device and imaging device system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120306

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

R150 Certificate of patent or registration of utility model

Ref document number: 4983271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees