JP2010181485A - Image-pickup device and imaging element - Google Patents

Image-pickup device and imaging element Download PDF

Info

Publication number
JP2010181485A
JP2010181485A JP2009022897A JP2009022897A JP2010181485A JP 2010181485 A JP2010181485 A JP 2010181485A JP 2009022897 A JP2009022897 A JP 2009022897A JP 2009022897 A JP2009022897 A JP 2009022897A JP 2010181485 A JP2010181485 A JP 2010181485A
Authority
JP
Japan
Prior art keywords
focus detection
imaging
pixels
pixel
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009022897A
Other languages
Japanese (ja)
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009022897A priority Critical patent/JP2010181485A/en
Publication of JP2010181485A publication Critical patent/JP2010181485A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding

Landscapes

  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To ensure focus detection performance of high precision by a focus-detecting pixel, while ensuring the high pixelation of an imaging element, reduction in chip size and improved image quality by pixel-size reduction in an imaging pixel. <P>SOLUTION: The pixel size of a focus-detecting pixel 311, which is arranged in an imaging element 212, is made equal to that of four imaging elements 310, to ensure focus detection performance. The focus-detecting pixel 311 is arranged obliquely in a 45° direction on the imaging element 212 to ensure many peripheral imaging pixels 212 which are used for complementing image data at the position of the focus-detecting pixel 311. Accordingly, deterioration in the image quality which is caused, accompanying the pixel size of the focus-detecting pixel 311 being made larger than that of the imaging pixel 310 is prevented. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置および撮像素子に関する。   The present invention relates to an imaging device and an imaging element.

複数個の焦点検出画素の配列を有する撮像素子を備え、いわゆる瞳分割型位相差検出方式の焦点検出機能を備えた撮像装置が知られている(例えば、特許文献1参照)。   There is known an imaging apparatus that includes an imaging element having an array of a plurality of focus detection pixels and has a focus detection function of a so-called pupil division type phase difference detection method (see, for example, Patent Document 1).

特開2007−189312号公報JP 2007-188931 A

このような撮像装置の撮像素子において、焦点検出画素、撮像画素はマイクロレンズとその背後に形成された光電変換部とから構成されている。上述した従来の撮像装置の撮像素子においては、撮像画素の画素サイズが縮められていくと、マイクロレンズの開口径が可視光の波長オーダーに近づくにつれ回折効果が急激に増大するために、焦点検出画素による瞳分割作用が不完全となる。このため、撮像装置は、焦点検出性能低下あるいは焦点検出不能を引き起こしてしまうという問題がある。   In the image pickup device of such an image pickup apparatus, the focus detection pixel and the image pickup pixel are composed of a microlens and a photoelectric conversion unit formed behind the microlens. In the imaging device of the conventional imaging device described above, when the pixel size of the imaging pixel is reduced, the diffraction effect increases rapidly as the aperture diameter of the microlens approaches the wavelength order of visible light. The pupil division action by pixels becomes incomplete. For this reason, the imaging device has a problem that the focus detection performance deteriorates or the focus detection is impossible.

請求項1の発明による撮像装置は、互いに異なる分光感度特性を有し、光学系を通過する光束が形成する像に対応する出力信号を生成する複数種類の撮像画素と、光学系を通過する一対の光束が形成する一対の像に対応した一対の出力信号を生成する複数の焦点検出画素とが2次元的に配置された撮像素子と、一対の出力信号に基づいて、光学系の焦点調節状態を検出する焦点検出手段と、複数の焦点検出画素の位置に複数種類の撮像画素を配置した場合に該複数種類の撮像画素が生成する出力信号を、複数の焦点検出画素の周囲に配置された複数種類の撮像用画素の出力信号に基づき補間することにより、補間値を生成する補間手段とを備え、複数種類の撮像画素は所定の配置規則に従って配置され、複数の焦点検出画素の各々は、複数種類の撮像画素の各々よりも大きく、撮像素子上、斜め方向に連続した配列に従って配置されることを特徴とする。
請求項12の発明による撮像素子は、互いに異なる分光感度特性を有し、光学系を通過する光束が形成する像に対応する出力信号を生成する複数種類の撮像画素と、焦点検出のため、光学系を通過する一対の光束が形成する一対の像に対応した一対の出力信号を生成する複数の焦点検出画素とを備え、複数種類の撮像画素と複数の焦点検出画素とが2次元的に配置され、複数種類の撮像画素は所定の配置規則に従って配置され、複数の焦点検出画素の各々は、複数種類の撮像画素の各々よりも大きく、斜め方向に連続した配列に従って配置されることを特徴とする撮像素子。
An image pickup apparatus according to a first aspect of the present invention includes a plurality of types of image pickup pixels that have different spectral sensitivity characteristics and generate an output signal corresponding to an image formed by a light beam passing through the optical system, and a pair that passes through the optical system. An imaging device in which a plurality of focus detection pixels that generate a pair of output signals corresponding to a pair of images formed by the light beam and a pair of output signals are used, and the focus adjustment state of the optical system based on the pair of output signals The focus detection means for detecting the output signal, and when a plurality of types of imaging pixels are arranged at the positions of the plurality of focus detection pixels, output signals generated by the plurality of types of imaging pixels are arranged around the plurality of focus detection pixels. Interpolating means for generating an interpolation value by interpolating based on output signals of a plurality of types of imaging pixels, the plurality of types of imaging pixels are arranged according to a predetermined arrangement rule, and each of the plurality of focus detection pixels is Multiple species Greater than each of the imaging pixels, on the image pickup device, characterized in that it is arranged according to contiguous sequences in a diagonal direction.
An image pickup device according to a twelfth aspect of the present invention includes a plurality of types of image pickup pixels having different spectral sensitivity characteristics and generating an output signal corresponding to an image formed by a light beam passing through an optical system, and an optical element for focus detection. A plurality of focus detection pixels that generate a pair of output signals corresponding to a pair of images formed by a pair of light beams passing through the system, and a plurality of types of imaging pixels and a plurality of focus detection pixels are arranged two-dimensionally The plurality of types of imaging pixels are arranged according to a predetermined arrangement rule, and each of the plurality of focus detection pixels is larger than each of the plurality of types of imaging pixels and is arranged according to an array that is continuous in an oblique direction. An image sensor.

本発明によれば、撮像装置における良好な画像生成と良好な焦点検出とを可能とする撮像素子と、その撮像素子を備えて良好な画像生成と良好な焦点検出とを行う撮像装置とを提供することができる。   According to the present invention, there are provided an image pickup device that enables good image generation and good focus detection in the image pickup device, and an image pickup device that includes the image pickup device and performs good image generation and good focus detection. can do.

一実施の形態のレンズ交換式デジタルスチルカメラの構成を示す横断面図。1 is a cross-sectional view illustrating a configuration of an interchangeable lens digital still camera according to an embodiment. 交換レンズの撮影画面上における焦点検出位置を示す図。The figure which shows the focus detection position on the imaging | photography screen of an interchangeable lens. 瞳分割型位相差検出方式の原理について説明する図。The figure explaining the principle of a pupil division type phase difference detection system. 撮像素子の詳細な構成を示す正面図。The front view which shows the detailed structure of an image pick-up element. 焦点検出画素と、本来その位置にベイヤー配列の配置規則に従って配置されるべき撮像画素(赤画素、緑画素、青画素)との位置関係を示した図。The figure which showed the positional relationship of a focus detection pixel and the imaging pixel (red pixel, green pixel, blue pixel) which should be arrange | positioned according to the arrangement | positioning rule of a Bayer arrangement in the position originally. 撮像画素と焦点検出画素の正面図。The front view of an imaging pixel and a focus detection pixel. 緑画素、赤画素および青画素の分光特性を示す図。The figure which shows the spectral characteristic of a green pixel, a red pixel, and a blue pixel. 焦点検出画素の分光特性を示す図。The figure which shows the spectral characteristic of a focus detection pixel. 撮像画素と焦点検出画素の断面図。Sectional drawing of an imaging pixel and a focus detection pixel. 焦点検出画素による瞳分割型位相差検出方式の原理を説明するための図。The figure for demonstrating the principle of the pupil division type phase difference detection system by a focus detection pixel. 撮像画素が受光する撮影光束の様子を説明するための図。The figure for demonstrating the mode of the imaging light beam which an imaging pixel receives. 撮像画素および焦点検出画素が有する光電変換部の基本回路構成を示す図。The figure which shows the basic circuit structure of the photoelectric conversion part which an imaging pixel and a focus detection pixel have. 撮像素子において、6行6列の撮像画素の領域に対応する半導体基板上の回路配線レイアウトを示した図。The figure which showed the circuit wiring layout on the semiconductor substrate corresponding to the area | region of the imaging pixel of 6 rows 6 columns in an imaging device. デジタルスチルカメラの撮像動作を示すフローチャート。The flowchart which shows the imaging operation of a digital still camera. 一対のデータのシフト量kに対する相関量C(k)の関係を示す図。The figure which shows the relationship of the correlation amount C (k) with respect to the shift amount k of a pair of data. 6行6列の撮像画素の領域に、右上がり斜め45度方向に焦点検出画素が配置された場合を示す図。The figure which shows the case where a focus detection pixel is arrange | positioned in the area | region of an imaging pixel of 6 rows and 6 columns at 45 degree | times diagonally upward. デジタルスチルカメラの撮像動作に伴う焦点検出画素位置の画像データの補間処理を示すフローチャート。The flowchart which shows the interpolation process of the image data of the focus detection pixel position accompanying the imaging operation of a digital still camera. 撮像素子の詳細な構成を示す正面図。The front view which shows the detailed structure of an image pick-up element. 6行6列の撮像画素の領域に、右上がり斜め45度方向に焦点検出画素が配置された場合を示す図。The figure which shows the case where a focus detection pixel is arrange | positioned in the area | region of an imaging pixel of 6 rows and 6 columns at 45 degree | times diagonally upward. 撮像素子の詳細な構成を示す正面図。The front view which shows the detailed structure of an image pick-up element. 撮像素子の詳細な構成を示す正面図。The front view which shows the detailed structure of an image pick-up element. 焦点検出画素の断面図。Sectional drawing of a focus detection pixel.

本発明の一実施の形態の撮像装置および撮像素子を説明する。図1は一実施の形態のレンズ交換式デジタルスチルカメラの構成を示す横断面図である。一実施の形態のデジタルスチルカメラ201は交換レンズ202とカメラボディ203から構成され、種々の交換レンズ202がマウント部204を介してカメラボディ203に装着される。カメラボディ203にはマウント部204を介して種々の光学系を有する交換レンズ202が装着可能である。   An imaging apparatus and an imaging element according to an embodiment of the present invention will be described. FIG. 1 is a cross-sectional view showing the configuration of an interchangeable lens digital still camera according to an embodiment. A digital still camera 201 according to an embodiment includes an interchangeable lens 202 and a camera body 203, and various interchangeable lenses 202 are attached to the camera body 203 via a mount unit 204. An interchangeable lens 202 having various optical systems can be attached to the camera body 203 via a mount unit 204.

交換レンズ202はレンズ209、ズーミング用レンズ208、フォーカシング用レンズ210、絞り211、レンズ駆動制御装置206などを備えている。レンズ駆動制御装置206は不図示のマイクロコンピューター、メモリ、駆動制御回路などから構成され、フォーカシング用レンズ210の焦点調節と絞り211の開口径調節のための駆動制御や、ズーミング用レンズ208、フォーカシング用レンズ210および絞り211の状態検出などを行う他、後述するボディ駆動制御装置214との通信によりレンズ情報の送信とカメラ情報の受信を行う。絞り211は、光量およびボケ量調整のために光軸中心に開口径が可変な開口を形成する。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, an aperture 211, a lens drive control device 206, and the like. The lens drive control device 206 includes a microcomputer (not shown), a memory, a drive control circuit, and the like. The lens drive control device 206 includes drive control for adjusting the focus of the focusing lens 210 and the aperture diameter of the aperture 211, zooming lens 208, and focusing. In addition to detecting the state of the lens 210 and the aperture 211, the lens information is transmitted and the camera information is received through communication with a body drive control device 214 described later. The aperture 211 forms an aperture having a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur.

カメラボディ203は撮像素子212、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219などを備えている。撮像素子212には、撮像画素が二次元状に配置されるとともに、焦点検出位置に対応した部分に焦点検出画素が組み込まれている。この撮像素子212については詳細を後述する。   The camera body 203 includes an imaging element 212, a body drive control device 214, a liquid crystal display element drive circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, and the like. In the imaging element 212, imaging pixels are two-dimensionally arranged, and focus detection pixels are incorporated in portions corresponding to focus detection positions. Details of the image sensor 212 will be described later.

ボディ駆動制御装置214はマイクロコンピューター、メモリ、駆動制御回路などから構成され、撮像素子212の駆動制御と画像信号および焦点検出信号の読み出しと、焦点検出信号に基づく焦点検出演算と交換レンズ202の焦点調節を繰り返し行うとともに、画像信号の処理と記録、カメラの動作制御などを行う。また、ボディ駆動制御装置214は電気接点213を介してレンズ駆動制御装置206と通信を行い、レンズ情報の受信とカメラ情報(デフォーカス量や絞り値など)の送信を行う。   The body drive control device 214 includes a microcomputer, a memory, a drive control circuit, and the like. The adjustment is repeated, and image signal processing and recording, camera operation control, and the like are performed. The body drive control device 214 communicates with the lens drive control device 206 via the electrical contact 213 to receive lens information and send camera information (defocus amount, aperture value, etc.).

液晶表示素子216は電気的なビューファインダー(EVF:Electronic View Finder)として機能する。液晶表示素子駆動回路215は撮像素子212によるスルー画像を液晶表示素子216に表示し、撮影者は接眼レンズ217を介してスルー画像を観察することができる。メモリカード219は、撮像素子212により撮像された画像を記憶する画像ストレージである。   The liquid crystal display element 216 functions as an electric view finder (EVF). The liquid crystal display element driving circuit 215 displays a through image by the imaging element 212 on the liquid crystal display element 216, and the photographer can observe the through image through the eyepiece lens 217. The memory card 219 is an image storage that stores an image captured by the image sensor 212.

交換レンズ202を通過した光束により、撮像素子212の受光面上に被写体像が形成される。この被写体像は撮像素子212により光電変換され、画像信号と焦点検出信号がボディ駆動制御装置214へ送られる。   A subject image is formed on the light receiving surface of the image sensor 212 by the light beam that has passed through the interchangeable lens 202. This subject image is photoelectrically converted by the image sensor 212, and an image signal and a focus detection signal are sent to the body drive control device 214.

ボディ駆動制御装置214は、撮像素子212の焦点検出画素からの焦点検出信号に基づいてデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像素子212からの画像信号を処理して画像データを生成し、メモリカード219に格納するとともに、撮像素子212からのスルー画像信号を液晶表示素子駆動回路215へ送り、スルー画像を液晶表示素子216に表示させる。さらに、ボディ駆動制御装置214は、レンズ駆動制御装置206へ絞り制御情報を送って絞り211の開口制御を行う。   The body drive control device 214 calculates the defocus amount based on the focus detection signal from the focus detection pixel of the image sensor 212 and sends the defocus amount to the lens drive control device 206. The body drive control device 214 processes the image signal from the image sensor 212 to generate image data, stores the image data in the memory card 219, and transmits the through image signal from the image sensor 212 to the liquid crystal display element drive circuit 215. The through image is displayed on the liquid crystal display element 216. Further, the body drive control device 214 sends aperture control information to the lens drive control device 206 to control the aperture of the aperture 211.

レンズ駆動制御装置206は、フォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じてレンズ情報を更新する。具体的には、ズーミング用レンズ208とフォーカシング用レンズ210の位置と絞り211の絞り値を検出し、これらのレンズ位置と絞り値に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからレンズ位置と絞り値に応じたレンズ情報を選択する。   The lens drive controller 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the positions of the zooming lens 208 and the focusing lens 210 and the aperture value of the aperture 211 are detected, and lens information is calculated according to these lens positions and aperture values, or a lookup prepared in advance. Lens information corresponding to the lens position and aperture value is selected from the table.

レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に応じてフォーカシング用レンズ210を合焦位置へ駆動する。また、レンズ駆動制御装置206は受信した絞り値に応じて絞り211を駆動する。   The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to the in-focus position according to the lens drive amount. Further, the lens drive control device 206 drives the diaphragm 211 in accordance with the received diaphragm value.

図2は、交換レンズ202の撮影画面上における焦点検出位置を示す図であり、後述する撮像素子212上の焦点検出画素列が焦点検出の際に撮影画面上で像をサンプリングする領域(焦点検出エリア、焦点検出位置)の一例を示す。この例では、矩形の撮影画面100上の中央および上下の3箇所に焦点検出エリア101〜103が配置される。長方形で示す焦点検出エリア101〜103は、撮影画面100において斜め右上がり方向に延在し、各焦点検出エリアの長手方向に焦点検出画素が直線的に配列される。   FIG. 2 is a diagram showing a focus detection position on the photographing screen of the interchangeable lens 202, and a region (focus detection) in which a focus detection pixel array on the image sensor 212 described later samples an image on the photographing screen when focus detection is performed. An example of an area and a focus detection position is shown. In this example, focus detection areas 101 to 103 are arranged at the center and three locations above and below the rectangular shooting screen 100. The focus detection areas 101 to 103 indicated by rectangles extend obliquely upward in the shooting screen 100, and focus detection pixels are linearly arranged in the longitudinal direction of each focus detection area.

撮像素子212の詳細な構成について説明する前に、特許文献1に開示されている瞳分割型位相差検出方式の原理について、図3を用いて説明する。   Before describing the detailed configuration of the image sensor 212, the principle of the pupil division type phase difference detection method disclosed in Patent Document 1 will be described with reference to FIG.

撮像面110上に焦点検出画素111が複数配列される。焦点検出画素111はマイクロレンズ112と一対の光電変換部113,114を有している。一対の光電変換部113,114はマイクロレンズ112により撮像面110から前方の距離dにある測距瞳面120に投影され、一対の測距瞳123,124が形成される。逆に言うと、撮像面110から前方の距離dにある測距瞳面120上を通過する光束のうち測距瞳123の光束が、焦点検出画素111の光電変換部113により受光され、測距瞳面120上を通過する光束のうち測距瞳124の光束が、焦点検出画素111の光電変換部114により受光される。焦点検出画素111の配列の光電変換部113の系列の像信号と、光電変換部114の系列の像信号との相対的なズレ量(位相差、像ズレ量)は、撮像面110上に像を形成する光学系の焦点調節状態に応じて変化するので、このズレ量を焦点検出画素が生成する一対の像信号を演算処理することによって求めれば、光学系の焦点調節状態を検出することができる。   A plurality of focus detection pixels 111 are arranged on the imaging surface 110. The focus detection pixel 111 includes a microlens 112 and a pair of photoelectric conversion units 113 and 114. The pair of photoelectric conversion units 113 and 114 is projected by the microlens 112 onto the distance measuring pupil plane 120 at a distance d ahead of the imaging surface 110, thereby forming a pair of distance measuring pupils 123 and 124. In other words, the luminous flux of the distance measuring pupil 123 out of the light flux passing through the distance measuring pupil plane 120 at a distance d ahead of the imaging surface 110 is received by the photoelectric conversion unit 113 of the focus detection pixel 111 and is measured. Of the light beams passing through the pupil surface 120, the light beam of the distance measuring pupil 124 is received by the photoelectric conversion unit 114 of the focus detection pixel 111. The relative shift amount (phase difference, image shift amount) between the image signal of the photoelectric conversion unit 113 in the array of the focus detection pixels 111 and the image signal of the photoelectric conversion unit 114 is an image on the imaging surface 110. Therefore, if the amount of deviation is calculated by processing a pair of image signals generated by the focus detection pixels, the focus adjustment state of the optical system can be detected. it can.

ところで上記一対の測距瞳123,124は一対の光電変換部113,114を単純に投影した分布とはならず、マイクロレンズ112の開口径(画素サイズと略一致)に応じた光の回折効果により、ボケを生じて裾野を引いた分布となる。図3において一対の測距瞳123,124の並び方向と垂直な方向のスリットを用いて一対の測距瞳123,124を並び方向に走査すると、一対の測距瞳分布133,134が得られる。上記回折効果により一対の測距瞳分布133,134は隣接した部分で互いに重畳部135を有する。測距瞳分布133あるいは134の全体に対して、重畳部135の割合が増えるほど、一対の測距瞳123,124の分離が不完全となり、焦点検出性能は低下する。特に光学系の絞り値F値が大きく、絞り開口径が小さくなってきた場合には、光学系を透過した一対の光束は、一対の測距瞳123,124内の光軸近傍の領域を通過して焦点検出画素111に入射する。このため、重畳部135の割合が増え、焦点検出に用いる一対の光束の分離が不完全になるので、焦点検出性能が低下したり、焦点検出が不能になってしまう。   By the way, the pair of distance measurement pupils 123 and 124 do not have a distribution obtained by simply projecting the pair of photoelectric conversion units 113 and 114, but the light diffraction effect according to the aperture diameter (substantially coincides with the pixel size) of the microlens 112. Due to this, the distribution is blurred and has a base. In FIG. 3, when the pair of distance measurement pupils 123 and 124 are scanned in the alignment direction using the slit in the direction perpendicular to the alignment direction of the pair of distance measurement pupils 123 and 124, a pair of distance measurement pupil distributions 133 and 134 are obtained. . Due to the diffraction effect, the pair of distance measuring pupil distributions 133 and 134 have overlapping portions 135 at adjacent portions. As the ratio of the superimposing unit 135 increases with respect to the entire distance measurement pupil distribution 133 or 134, the pair of distance measurement pupils 123 and 124 are not completely separated, and the focus detection performance decreases. In particular, when the aperture value F value of the optical system is large and the aperture diameter is small, the pair of light beams transmitted through the optical system pass through the region in the vicinity of the optical axis in the pair of distance measuring pupils 123 and 124. Then, the light enters the focus detection pixel 111. For this reason, since the ratio of the superimposing unit 135 increases and the pair of light beams used for focus detection is incompletely separated, the focus detection performance deteriorates or the focus detection becomes impossible.

表1は光学系の絞りF値と回折による点像分布の広がりの直径との関係を示したものであって、エアリーディスクの式(点像の直径=1.22×2×波長×F値とし、波長=500nmとした場合)より求めたものである。明るい光学系(絞りF値が小さい)に対しては点像の直径がμmオーダーとなるために、撮像画素の画素サイズは点像の直径以下にすることにより、解像度の向上が期待できる。

Figure 2010181485
Table 1 shows the relationship between the aperture F value of the optical system and the diameter of the spread of the point image distribution by diffraction, and the Airy disk formula (diameter of point image = 1.22 × 2 × wavelength × F value). And the wavelength = 500 nm). For a bright optical system (small aperture F value), the diameter of the point image is on the order of μm, so that the resolution can be expected to be improved by setting the pixel size of the imaging pixel to be equal to or smaller than the diameter of the point image.
Figure 2010181485

一方前述したように、画素サイズが小さくなると回折の影響が増大して測距瞳の分離が不完全になるために、焦点検出性能は低下する。   On the other hand, as described above, when the pixel size is reduced, the influence of diffraction increases and the separation of the distance measuring pupil becomes incomplete, so that the focus detection performance is degraded.

表2は画素サイズ(マイクロレンズの開口径D)と図3の距離dを一対の測距瞳分布の重畳部135の寸法xで除して求めた重畳部135に対応するF値との関係を示したものであって、エアリーディスクの式(F=D/(1.22×2×波長)とし、波長=500nmとした場合)より求めたものである。画素サイズ7μm以下においては重畳部135のF値が5.7以下となる。

Figure 2010181485
Table 2 shows the relationship between the pixel size (opening diameter D of the microlens) and the F value corresponding to the overlapping portion 135 obtained by dividing the distance d in FIG. 3 by the dimension x of the overlapping portion 135 of the pair of distance measurement pupil distributions. And obtained from the Airy disk equation (when F = D / (1.22 × 2 × wavelength) and wavelength = 500 nm). When the pixel size is 7 μm or less, the F value of the overlapping portion 135 is 5.7 or less.
Figure 2010181485

多くのカメラ用交換レンズの開放F値がF5.6と設定されているので、これらの交換レンズを使用した場合には、焦点検出画素の画素サイズを7μm以下とすると、F5.6の開口を通る一対の焦点検出光束が全体に亘って重畳するため、焦点検出性能の低下が顕在化してくる。さらに焦点検出画素の画素サイズを4μm以下とすると、略F2.8の開口を通る一対の焦点検出光束が全体に亘って重畳するため、焦点検出性能の低下が顕著になる。   Since the open F value of many interchangeable lenses for cameras is set to F5.6, when these interchangeable lenses are used, if the pixel size of the focus detection pixel is 7 μm or less, the aperture of F5.6 is set. Since the pair of focus detection light fluxes that pass through overlap each other, a drop in focus detection performance becomes obvious. Further, when the pixel size of the focus detection pixel is 4 μm or less, a pair of focus detection light beams passing through the aperture of approximately F2.8 are superimposed over the entire area, so that the focus detection performance is significantly deteriorated.

以上のように画素サイズについては、撮像画素と焦点検出画素とに対しては相反する要求があり、撮像画素と焦点検出画素の画素サイズを揃えたままではこの課題を解決することは困難である。   As described above, regarding the pixel size, there are conflicting requirements for the imaging pixel and the focus detection pixel, and it is difficult to solve this problem if the pixel sizes of the imaging pixel and the focus detection pixel are kept the same. .

そこで本実施の形態の撮像装置の撮像素子においては、撮像画素の画素サイズを縮小するとともに、焦点検出画素の画素サイズを撮像画素の4個分の画素サイズとすることにより、焦点検出性能を維持する。   Therefore, in the image pickup device of the image pickup apparatus of the present embodiment, the focus detection performance is maintained by reducing the pixel size of the image pickup pixel and setting the pixel size of the focus detection pixel to the pixel size of four image pickup pixels. To do.

図4は、撮像素子212の詳細な構成を示す正面図であり、撮像素子212上の焦点検出エリア101の近傍を拡大して示す。撮像素子212には撮像画素310が二次元正方格子状に稠密に配列される。撮像画素310は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。焦点検出エリア101に対応する位置には撮像画素310の4個分の画素サイズを有する焦点検出用の焦点検出画素311が、本来赤画素と青画素が連続的に配置されるべき右上がり斜め45度方向の直線上に連続して配列される。   FIG. 4 is a front view showing a detailed configuration of the image sensor 212, and shows an enlarged vicinity of the focus detection area 101 on the image sensor 212. Imaging pixels 310 are densely arranged on the imaging element 212 in a two-dimensional square lattice pattern. The imaging pixel 310 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule. At a position corresponding to the focus detection area 101, a focus detection focus detection pixel 311 having a pixel size corresponding to four of the imaging pixels 310 is arranged so that a red pixel 45 and a blue pixel should be continuously arranged. It is arranged continuously on a straight line in the degree direction.

図5は焦点検出画素311と、本来その位置にベイヤー配列の配置規則に従って配置されるべき撮像画素(赤画素、緑画素、青画素)との位置関係を示した図である。焦点検出画素311を斜め方向に配置している理由は、焦点検出画素311を水平または垂直方向に連続して配置した場合と比較して、焦点検出画素311の周囲を取り囲む撮像画素310の数が増加するためである。これにより、焦点検出画素311の周囲には、焦点検出画素311を水平または垂直方向に連続して配置した場合と比較して撮像画素310が配置される。これらの撮像画素310を用いた画素補間が可能となるため、画素補間の性能が向上し、高品質な画像が得られる。   FIG. 5 is a diagram showing the positional relationship between the focus detection pixels 311 and the imaging pixels (red pixels, green pixels, and blue pixels) that should be originally arranged at the positions according to the arrangement rule of the Bayer array. The reason why the focus detection pixels 311 are arranged in the oblique direction is that the number of imaging pixels 310 surrounding the focus detection pixels 311 is larger than that in the case where the focus detection pixels 311 are continuously arranged in the horizontal or vertical direction. This is because it increases. Accordingly, the imaging pixels 310 are arranged around the focus detection pixels 311 as compared to the case where the focus detection pixels 311 are continuously arranged in the horizontal or vertical direction. Since pixel interpolation using these imaging pixels 310 is possible, the performance of pixel interpolation is improved, and a high-quality image is obtained.

撮像画素310の画素サイズは、理論上の最小値として可視光の波長オーダーの値を取り得るが、ここでは製造技術上の最小限界とされる2μmとし、焦点検出画素311の画素サイズは4μmとする。なお、図示を省略するが、焦点検出エリア102、103の近傍の構成も図3に示す構成と同様である。   The pixel size of the imaging pixel 310 can take a value in the wavelength order of visible light as a theoretical minimum value, but here, the pixel size of the focus detection pixel 311 is 4 μm, which is 2 μm, which is the minimum limit in terms of manufacturing technology. To do. Although not shown, the configuration in the vicinity of the focus detection areas 102 and 103 is the same as the configuration shown in FIG.

撮像画素310は、図6(a)に示すようにマイクロレンズ19、光電変換部11、および色フィルター(不図示)を有している。色フィルターは赤(R)、緑(G)、青(B)の3種類からなり、それぞれの分光感度は図7に示す特性になっている。撮像素子212には、各色フィルターを備えた撮像画素310がベイヤー配列の配置規則に従って配置されている。   As shown in FIG. 6A, the imaging pixel 310 includes the microlens 19, the photoelectric conversion unit 11, and a color filter (not shown). There are three types of color filters, red (R), green (G), and blue (B), and the respective spectral sensitivities have the characteristics shown in FIG. In the imaging device 212, imaging pixels 310 having respective color filters are arranged according to the arrangement rule of the Bayer array.

焦点検出画素311は、図6(b)に示すようにマイクロレンズ10と一対の光電変換部13,14を有している。焦点検出画素311には光量低減フィルターとして後述するNDフィルター(ニュートラルデンシティフィルター)が配置されており、その分光特性は光電変換を行うフォトダイオードの分光特性と、赤外カットフィルター(不図示)の分光特性とを合わせ持つ(図8参照)。つまり、図7に示す緑画素、赤画素および青画素の分光特性を加算したような分光特性となり、高い分光感度を示す光波長領域は、緑画素、赤画素および青画素が高い分光感度を示す光波長領域を包括し、可視光のほぼ全波長領域に等しい。   The focus detection pixel 311 includes the microlens 10 and a pair of photoelectric conversion units 13 and 14 as illustrated in FIG. The focus detection pixel 311 is provided with an ND filter (neutral density filter), which will be described later, as a light amount reduction filter. The spectral characteristics of the focus detection pixel 311 include the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). (See FIG. 8). That is, the spectral characteristics are obtained by adding the spectral characteristics of the green pixel, the red pixel, and the blue pixel shown in FIG. 7, and in the light wavelength region that exhibits high spectral sensitivity, the green pixel, red pixel, and blue pixel exhibit high spectral sensitivity. It covers the light wavelength region and is equal to almost the entire wavelength region of visible light.

撮像画素310の光電変換部11は、マイクロレンズ19によって最も明るい交換レンズの射出瞳径(例えばF1.0)を通過する光束をすべて受光するような形状に設計される。また、焦点検出画素311の光電変換部13、14は、マイクロレンズ10によって交換レンズの射出瞳(射出瞳径は、例えばF1.0)の所定の領域を通過する光束をすべて受光するような形状に設計される。   The photoelectric conversion unit 11 of the imaging pixel 310 is designed in such a shape that the microlens 19 receives all light beams that pass through the exit pupil diameter (for example, F1.0) of the brightest interchangeable lens. In addition, the photoelectric conversion units 13 and 14 of the focus detection pixel 311 are configured so that the microlens 10 receives all the light beams that pass through a predetermined region of the exit pupil (exit pupil diameter is F1.0, for example) of the interchangeable lens. Designed to.

図9(a)、図9(b)は撮像画素310と焦点検出画素311の断面図(斜め右上がり45度方向の断面)を並べて示した図である。図9(a)の撮像画素310では撮像用の光電変換部11の上方にマイクロレンズ19が配置され、マイクロレンズ19により光電変換部11の形状が上方に投影される。光電変換部11は半導体回路基板29上に形成される。光電変換部11の上には平坦化層30,31が形成され、平坦化層31の上に色フィルター33が形成され、その上に平坦化層32が形成され、その上にマイクロレンズ19が形成される。   FIGS. 9A and 9B are cross-sectional views of the imaging pixel 310 and the focus detection pixel 311 (a cross section in a 45-degree direction obliquely upward to the right). In the imaging pixel 310 of FIG. 9A, the microlens 19 is disposed above the photoelectric conversion unit 11 for imaging, and the shape of the photoelectric conversion unit 11 is projected upward by the microlens 19. The photoelectric conversion unit 11 is formed on the semiconductor circuit substrate 29. Flattening layers 30 and 31 are formed on the photoelectric conversion unit 11, a color filter 33 is formed on the flattening layer 31, a flattening layer 32 is formed thereon, and the microlens 19 is formed thereon. It is formed.

図9(b)の焦点検出画素311において、光電変換部13、14の上方にインナーレンズ35と上層レンズ36からなるマイクロレンズ10が配置され、マイクロレンズ10により光電変換部13、14の形状が上方に投影される。光電変換部13、14は半導体回路基板29上に形成される。光電変換部13,14の上には平坦化層30が形成され、平坦化層30の上にインナーレンズ35が形成され、インナーレンズ35の上には平坦化層31が形成され、平坦化層31の上にNDフィルター34が形成され、その上に平坦化層32が形成され、その上に上層レンズ36が形成される。   In the focus detection pixel 311 in FIG. 9B, the microlens 10 including the inner lens 35 and the upper lens 36 is disposed above the photoelectric conversion units 13 and 14, and the shape of the photoelectric conversion units 13 and 14 is changed by the microlens 10. Projected upward. The photoelectric conversion units 13 and 14 are formed on the semiconductor circuit substrate 29. A planarization layer 30 is formed on the photoelectric conversion units 13 and 14, an inner lens 35 is formed on the planarization layer 30, a planarization layer 31 is formed on the inner lens 35, and the planarization layer An ND filter 34 is formed on 31, a planarizing layer 32 is formed thereon, and an upper lens 36 is formed thereon.

焦点検出画素311のマイクロレンズを上層レンズ36とインナーレンズ35とに分割して形成している理由は、撮像画素310と焦点検出画素311の光入射面(マイクロレンズ19と上層レンズ36とが形成される面である平坦化層32の上面)と光電変換面(光電変換部11,13,14が形成される半導体回路基板29の上面)との間の距離を同一にしたほうが製造上好ましいが、撮像画素310のマイクロレンズ19をそのまま画素サイズを2倍にした焦点検出画素311に適用することができないためである。   The reason why the micro lens of the focus detection pixel 311 is divided into the upper layer lens 36 and the inner lens 35 is that the light incident surface of the imaging pixel 310 and the focus detection pixel 311 (the micro lens 19 and the upper layer lens 36 are formed). However, it is preferable in manufacturing that the distance between the upper surface of the planarization layer 32 and the photoelectric conversion surface (the upper surface of the semiconductor circuit substrate 29 on which the photoelectric conversion units 11, 13, and 14 are formed) is the same. This is because the microlens 19 of the imaging pixel 310 cannot be applied to the focus detection pixel 311 with the pixel size doubled as it is.

上記光入射面と光電変換面との間の距離は、隣接画素からの斜入射迷光を防止するために、なるべく短くなるように設定されている。それに合わせて撮像画素311のマイクロレンズ19の曲率半径は焦点距離が概略前記光入射面と光電変換面との間の距離と等しくなるように小さく作られており、マイクロレンズ19の周辺部ではかなり傾斜を持った形状となる。従って焦点検出画素311のマイクロレンズ10が撮像画素310のマイクロレンズ19と同じ焦点距離を有するように、マイクロレンズ19と同じ曲率半径を持つレンズをマイクロレンズ10に適用しても、撮像画素310の2倍の画素サイズを持つ焦点検出画素311の光入射面の全域をカバーすることができない。   The distance between the light incident surface and the photoelectric conversion surface is set to be as short as possible in order to prevent oblique incident stray light from adjacent pixels. Accordingly, the radius of curvature of the microlens 19 of the imaging pixel 311 is made small so that the focal length is substantially equal to the distance between the light incident surface and the photoelectric conversion surface. The shape has an inclination. Therefore, even if a lens having the same radius of curvature as the microlens 19 is applied to the microlens 10 so that the microlens 10 of the focus detection pixel 311 has the same focal length as the microlens 19 of the imaging pixel 310, The entire area of the light incident surface of the focus detection pixel 311 having twice the pixel size cannot be covered.

そこで、マイクロレンズ10を上層レンズ36とインナーレンズ35とに分離し、上層レンズ36の曲率半径を大きくして、上層レンズ36とインナーレンズ35との合成焦点距離が概略前記光入射面と光電変換面との間の距離になるようにする。これにより、撮像画素310の2倍の画素サイズを持つ焦点検出画素311の光入射面の全域をカバーできる。   Therefore, the microlens 10 is separated into the upper layer lens 36 and the inner lens 35, the radius of curvature of the upper layer lens 36 is increased, and the combined focal length of the upper layer lens 36 and the inner lens 35 is approximately the light incident surface and the photoelectric conversion. Keep the distance between the faces. Thus, the entire area of the light incident surface of the focus detection pixel 311 having a pixel size twice that of the imaging pixel 310 can be covered.

焦点検出画素311にNDフィルター34を設置している理由は、後述するようなライブビュー表示動作を行う場合に、同一の露光量条件において焦点検出画素の出力が撮像画素の出力と略等しいか、それ以下になるように調整するためである。これにより、1回の露光動作において、ライブビュー表示用の画像データと焦点検出用のデータとが良好に得られる。   The reason why the ND filter 34 is installed in the focus detection pixel 311 is that, when a live view display operation as described later is performed, whether the output of the focus detection pixel is substantially equal to the output of the imaging pixel under the same exposure amount condition, It is for adjusting so that it may become less. Thereby, the image data for live view display and the data for focus detection are satisfactorily obtained in one exposure operation.

NDフィルターがない場合、白色の入射光に対する焦点検出画素311の出力は、撮像画素310の出力に比して、色フィルタの有無により約2倍(白色光を構成する各色のうちで最も出力が高い緑色のフィルタを備える撮像画素310の出力に対し、色フィルタの無い撮像画素310の出力は約2倍になる点に基づく)、画素サイズの違いにより約4倍、光電変換部の受光領域の広さの違いにより約1/2(焦点検出画素311の光電変換部は2分割されている点に基づく)となり、合計で約4倍となる。この場合、撮像画素の出力レベルとして適切なレベルとなるような露光条件(電荷蓄積時間)では、焦点検出画素の出力が飽和する可能性が高い。   When there is no ND filter, the output of the focus detection pixel 311 with respect to white incident light is approximately twice the output of the image pickup pixel 310 depending on the presence or absence of the color filter (the most output among the colors constituting the white light). The output of the image pickup pixel 310 without the color filter is about twice that of the output of the image pickup pixel 310 having a high green filter), and is about 4 times due to the difference in pixel size. Due to the difference in size, it is about ½ (based on the point that the photoelectric conversion unit of the focus detection pixel 311 is divided into two), which is about four times in total. In this case, there is a high possibility that the output of the focus detection pixel is saturated under an exposure condition (charge accumulation time) that is an appropriate level as the output level of the imaging pixel.

そこで、焦点検出画素311に光量を1/4〜1/8に減光するNDフィルターを設置して、撮像画素310と同一露光条件でも焦点検出画素311の出力が飽和しないようにする。ここで、光学系の口径蝕の状態によっては、焦点検出画素311への入射光が2つの光電変換部13,14の一方に集中する場合があるため、NDフィルターの減光率は、1/4〜1/8であることが好ましい。   Therefore, an ND filter that reduces the amount of light to ¼ to 8 is installed in the focus detection pixel 311 so that the output of the focus detection pixel 311 does not saturate even under the same exposure conditions as the imaging pixel 310. Here, depending on the state of vignetting of the optical system, the incident light to the focus detection pixel 311 may be concentrated on one of the two photoelectric conversion units 13 and 14, and thus the attenuation rate of the ND filter is 1 / It is preferable that it is 4 to 1/8.

図10は、図4に示す撮像素子212の焦点検出画素311による瞳分割型位相差検出方式の原理を説明するための図である。光学系の射出瞳90は、交換レンズの予定結像面に配置された焦点検出画素311a,311bの前方へ距離dの位置に設定される。ここで、距離dは、マイクロレンズ50,60の曲率半径、屈折率、マイクロレンズ50,60と光電変換部との間の距離などに応じて決まる距離であって、以下では測距瞳距離と呼ぶ。図10には他に、交換レンズの光軸91、焦点検出画素311a,311bにおける対を成す光電変換部(53,54)、(63,64)、焦点検出用光束73,74、83,84が示されている。   FIG. 10 is a diagram for explaining the principle of the pupil division type phase difference detection method using the focus detection pixels 311 of the image sensor 212 shown in FIG. The exit pupil 90 of the optical system is set at a position of a distance d in front of the focus detection pixels 311a and 311b arranged on the planned imaging plane of the interchangeable lens. Here, the distance d is a distance determined in accordance with the radius of curvature and the refractive index of the microlenses 50 and 60, the distance between the microlenses 50 and 60 and the photoelectric conversion unit, and is hereinafter referred to as a distance measurement pupil distance. Call. In addition to FIG. 10, photoelectric conversion units (53, 54), (63, 64) that form pairs in the optical axis 91 of the interchangeable lens, focus detection pixels 311 a, 311 b, focus detection light beams 73, 74, 83, 84. It is shown.

さらに、測距瞳93は、光電変換部53,63の形状がマイクロレンズ50、60により投影されて形成される。同様に、測距瞳94は、光電変換部54,64の形状がマイクロレンズ50、60により投影されて形成される。図17では、光軸91上にある焦点検出画素311a(マイクロレンズ50と一対の光電変換部53、54を有する)と、一つおいて隣の焦点検出画素311b(マイクロレンズ60と一対の光電変換部63、64を有する)を模式的に例示しているが、撮像面上、周辺に配置された他の焦点検出用画素311の各々においても、一対の光電変換部はそれぞれ一対の測距瞳93、94からマイクロレンズに到来する光束を受光する。焦点検出画素311の配列方向は一対の測距瞳93、94の並び方向と一致させる。   Further, the distance measuring pupil 93 is formed by projecting the shapes of the photoelectric conversion units 53 and 63 by the microlenses 50 and 60. Similarly, the distance measuring pupil 94 is formed by projecting the shapes of the photoelectric conversion units 54 and 64 by the microlenses 50 and 60. In FIG. 17, a focus detection pixel 311a (having a microlens 50 and a pair of photoelectric conversion units 53 and 54) on the optical axis 91 and an adjacent focus detection pixel 311b (a microlens 60 and a pair of photoelectric conversions) are provided. (Converters 63 and 64) are schematically illustrated, but in each of the other focus detection pixels 311 arranged on the periphery of the imaging surface, the pair of photoelectric conversion units is a pair of distance measuring units. A light beam coming from the pupils 93 and 94 to the microlens is received. The arrangement direction of the focus detection pixels 311 is made to coincide with the arrangement direction of the pair of distance measuring pupils 93 and 94.

マイクロレンズ50、60は光学系の予定結像面近傍に配置されており、光軸91上に配置されたマイクロレンズ50によって、その背後に配置された一対の光電変換部53、54の形状がマイクロレンズ50から測距瞳距離dだけ離間した射出瞳90上に投影され、その投影形状は測距瞳93,94を形成する。またマイクロレンズ60によって、その背後に配置された一対の光電変換部63、64の形状がマイクロレンズ60から測距瞳距離dだけ離間した射出瞳90上に投影され、その投影形状は測距瞳93,94を形成する。すなわち、測距瞳距離dにある射出瞳90上で各焦点検出画素311の光電変換部の投影形状(測距瞳93,94)が一致するように、各焦点検出画素311におけるマイクロレンズと光電変換部の相対的位置関係が決定されている。   The microlenses 50 and 60 are disposed in the vicinity of the planned imaging plane of the optical system, and the shape of the pair of photoelectric conversion units 53 and 54 disposed behind the microlens 50 disposed on the optical axis 91 is formed. Projection is performed on the exit pupil 90 separated from the microlens 50 by the distance measurement pupil distance d, and the projection shape forms distance measurement pupils 93 and 94. Further, the shape of the pair of photoelectric conversion units 63 and 64 disposed behind the microlens 60 is projected onto the exit pupil 90 separated from the microlens 60 by the distance measurement pupil distance d, and the projection shape is the distance measurement pupil. 93, 94 are formed. In other words, the microlens and photoelectric sensor in each focus detection pixel 311 are arranged so that the projection shapes (ranging pupils 93 and 94) of the photoelectric conversion units of the focus detection pixels 311 coincide on the exit pupil 90 at the distance measurement pupil distance d. The relative positional relationship of the conversion unit is determined.

光電変換部53は、測距瞳93を通過してマイクロレンズ50へ向う焦点検出光束73によってマイクロレンズ50上に形成される像の強度に対応した信号を出力する。また、光電変換部54は、測距瞳94を通過してマイクロレンズ50へ向う焦点検出光束74によってマイクロレンズ50上に形成される像の強度に対応した信号を出力する。同様に、光電変換部63は、測距瞳93を通過してマイクロレンズ60へ向う焦点検出光束83によってマイクロレンズ60上に形成される像の強度に対応した信号を出力する。また、光電変換部64は、測距瞳94を通過してマイクロレンズ60へ向う焦点検出光束84によってマイクロレンズ60上に形成される像の強度に対応した信号を出力する。   The photoelectric conversion unit 53 outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 73 passing through the distance measuring pupil 93 and traveling toward the microlens 50. In addition, the photoelectric conversion unit 54 outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 74 that passes through the distance measuring pupil 94 and travels toward the microlens 50. Similarly, the photoelectric conversion unit 63 outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 83 that passes through the distance measuring pupil 93 and travels toward the microlens 60. In addition, the photoelectric conversion unit 64 outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 84 that passes through the distance measuring pupil 94 and travels toward the microlens 60.

このような焦点検出画素311を直線状に多数配置し、各焦点検出画素311の一対の光電変換部の出力を測距瞳93および測距瞳94に対応した出力グループにまとめることによって、測距瞳93と測距瞳94とを各々通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に所定の変換処理を施すことによって、予定結像面に対する現在の結像面(予定結像面上のマイクロレンズアレイの位置に対応した焦点検出位置における結像面)の偏差(デフォーカス量)が算出される。   A large number of such focus detection pixels 311 are arranged in a straight line, and the output of a pair of photoelectric conversion units of each focus detection pixel 311 is collected into an output group corresponding to the distance measurement pupil 93 and the distance measurement pupil 94, thereby ranging. Information on the intensity distribution of a pair of images formed on the focus detection pixel array by the focus detection light fluxes that respectively pass through the pupil 93 and the distance measurement pupil 94 is obtained. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process), which will be described later, to this information, an image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method. Further, by applying a predetermined conversion process to the image shift amount, the deviation of the current imaging plane (imaging plane at the focus detection position corresponding to the position of the microlens array on the planned imaging plane) with respect to the planned imaging plane (Defocus amount) is calculated.

図11は、図4に示す撮像素子212の撮像画素311が受光する撮影光束の様子を図10と比較して説明するための図であって、図10と重複する部分の説明は省略する。   FIG. 11 is a diagram for explaining the state of the imaging light beam received by the imaging pixel 311 of the imaging element 212 shown in FIG. 4 in comparison with FIG. 10, and a description of portions overlapping those in FIG. 10 is omitted.

撮像画素310は、マイクロレンズ59とその背後に配置された光電変換部51から構成され、光電変換部51の形状がマイクロレンズ59から測距瞳距離dだけ離間した射出瞳90上に投影され、その投影形状は測距瞳93、94に略外接する領域92を形成する。   The imaging pixel 310 includes a microlens 59 and a photoelectric conversion unit 51 disposed behind the microlens 59, and the shape of the photoelectric conversion unit 51 is projected onto the exit pupil 90 that is separated from the microlens 59 by the distance measurement pupil distance d. The projection shape forms a region 92 that is substantially circumscribed by the distance measuring pupils 93 and 94.

光電変換部51は、領域92を通過してマイクロレンズ59へ向う撮影光束71によってマイクロレンズ51上に形成される像の強度に対応した信号を出力する。   The photoelectric conversion unit 51 outputs a signal corresponding to the intensity of the image formed on the microlens 51 by the imaging light beam 71 that passes through the region 92 and travels toward the microlens 59.

本実施の形態において、撮像素子212は、CMOSイメージセンサーとして構成されている。図12は、撮像画素310および焦点検出画素311が有する1つの光電変換部の基本回路構成を示す図である。   In the present embodiment, the image sensor 212 is configured as a CMOS image sensor. FIG. 12 is a diagram illustrating a basic circuit configuration of one photoelectric conversion unit included in the imaging pixel 310 and the focus detection pixel 311.

光電変換部はフォトダイオードPDで構成される。PDで蓄積された電荷は浮遊拡散層FD(フローティングディフュージョン)に蓄積される。FDは増幅MOSトランジスタAMPのゲートに接続されており、AMPはFDに蓄積された電荷の量に応じた信号を発生する。FDはリセットMOSトランジスタSW1を介し、電源電圧Vddに接続されている。制御信号ΦRnによりリセットMOSトランジスタSW1がONすることにより、FDおよびPDに溜まった電荷がクリアされリセット状態となる。AMPの出力端子は行選択MOSトランジスタSW2を介して垂直出力線Voutに接続されており、制御信号ΦSnにより行選択MOSトランジスタSW2がONすることにより、AMPの出力が垂直出力線Voutに出力される。なお、ここでは省略したが、PDとFDとの間には、転送トランジスタが配置されている。   The photoelectric conversion unit includes a photodiode PD. The charges accumulated in the PD are accumulated in the floating diffusion layer FD (floating diffusion). The FD is connected to the gate of the amplification MOS transistor AMP, and the AMP generates a signal corresponding to the amount of charge accumulated in the FD. The FD is connected to the power supply voltage Vdd via the reset MOS transistor SW1. When the reset MOS transistor SW1 is turned on by the control signal ΦRn, the charges accumulated in the FD and PD are cleared and the reset state is set. The output terminal of the AMP is connected to the vertical output line Vout via the row selection MOS transistor SW2. When the row selection MOS transistor SW2 is turned on by the control signal ΦSn, the output of the AMP is output to the vertical output line Vout. . Although omitted here, a transfer transistor is arranged between PD and FD.

図13は、図4に示した撮像素子212において、6行6列の撮像画素310の領域に対応する半導体基板上の回路配線レイアウトを示した図である。右上がり斜め45度方向に焦点検出画素311が配置され、PDは撮像画素310の光電変換部、PD1とPD2は焦点検出画素311の一対の光電変換部、CMは撮像画素310の画素回路(図12のCMとして示す破線領域の回路に相当)、CM1、CM2は焦点検出画素311の一対の画素回路、Vout1〜Vout6は第1列〜第6列の画素に対応する垂直出力線、H1〜H6は第1行〜第6行の画素に対応する水平制御信号線(図12のHとして示す破線領域の制御信号線に相当)を示す。   FIG. 13 is a diagram showing a circuit wiring layout on the semiconductor substrate corresponding to the region of the imaging pixels 310 of 6 rows and 6 columns in the imaging device 212 shown in FIG. A focus detection pixel 311 is arranged in a 45 ° upward and diagonal direction, PD is a photoelectric conversion unit of the imaging pixel 310, PD1 and PD2 are a pair of photoelectric conversion units of the focus detection pixel 311, and CM is a pixel circuit of the imaging pixel 310 (FIG. CM1 and CM2 are a pair of pixel circuits of the focus detection pixel 311, Vout1 to Vout6 are vertical output lines corresponding to pixels in the first to sixth columns, and H1 to H6. Indicates horizontal control signal lines (corresponding to the control signal lines in the broken line area indicated by H in FIG. 12) corresponding to the pixels in the first to sixth rows.

焦点検出画素311の一対の光電変換部PD1、PD2はF値が暗い交換レンズにも対応して焦点検出を行うために極めて狭い間隔で隣接させる必要がある。垂直出力線Vout3と水平制御信号線H3は、その他の垂直制御信号線および水平制御信号線と同様にレイアウトとすると、焦点検出画素311の光電変換部PD1、PD2との干渉が生じるおそれがあるために、焦点検出画素311の光電変換部PD1、PD2の周囲を迂回して配線される。これにより、焦点検出画素311がない撮像画素310のみの撮像素子212と同様な画素信号読み出し動作により、高精度に焦点検出画素311の信号を読み出すことができる。   The pair of photoelectric conversion units PD1 and PD2 of the focus detection pixel 311 needs to be adjacent to each other at an extremely narrow interval in order to perform focus detection corresponding to an interchangeable lens having a low F value. If the vertical output line Vout3 and the horizontal control signal line H3 are laid out in the same manner as the other vertical control signal lines and horizontal control signal lines, there is a risk of interference with the photoelectric conversion units PD1 and PD2 of the focus detection pixel 311. In addition, wiring around the photoelectric conversion units PD1 and PD2 of the focus detection pixel 311 is bypassed. Thereby, the signal of the focus detection pixel 311 can be read with high accuracy by the same pixel signal read-out operation as that of the image sensor 212 having only the image pickup pixel 310 without the focus detection pixel 311.

図14は、本実施の形態のデジタルスチルカメラ201の撮像動作を示すフローチャートである。ボディ駆動制御装置214は、ステップS100でデジタルスチルカメラ201の電源がオンされると、ステップS110以降の撮像動作を開始する。ステップS110において撮像画素310のデータを間引き読み出しし、電子ビューファインダーに表示させる。続くステップS120では、焦点検出画素列から一対の像に対応した一対の像データを読み出す。なお、焦点検出エリアは、撮影者が焦点検出エリア選択部材(不図示)を用いて焦点検出エリア101〜103の内のいずれかを予め選択しているものとする。   FIG. 14 is a flowchart illustrating an imaging operation of the digital still camera 201 according to the present embodiment. When the power of the digital still camera 201 is turned on in step S100, the body drive control device 214 starts an imaging operation after step S110. In step S110, the data of the imaging pixel 310 is read out and displayed on the electronic viewfinder. In subsequent step S120, a pair of image data corresponding to the pair of images is read from the focus detection pixel array. The focus detection area is assumed to be selected in advance by the photographer using one of the focus detection areas 101 to 103 using a focus detection area selection member (not shown).

ステップS130では、読み出された一対の像データに基づいて後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を行い、像ズレ量を演算してデフォーカス量に変換する。ステップS140で合焦近傍か否か、すなわち算出されたデフォーカス量の絶対値が所定値以内であるか否かを調べる。合焦近傍でないと判定された場合はステップS150へ進み、デフォーカス量をレンズ駆動制御装置206へ送信し、交換レンズ202のフォーカシングレンズ210を合焦位置に駆動させる。その後、ステップS110へ戻って上述した動作を繰り返す。   In step S130, an image shift detection calculation process (correlation calculation process, phase difference detection process) described later is performed based on the read pair of image data, and the image shift amount is calculated and converted into a defocus amount. In step S140, it is checked whether or not the focus is close, that is, whether or not the calculated absolute value of the defocus amount is within a predetermined value. If it is determined that the lens is not in focus, the process proceeds to step S150, the defocus amount is transmitted to the lens drive controller 206, and the focusing lens 210 of the interchangeable lens 202 is driven to the focus position. Then, it returns to step S110 and repeats the operation | movement mentioned above.

なお、焦点検出不能な場合もこのステップに分岐し、レンズ駆動制御装置206へスキャン駆動命令を送信し、交換レンズ202のフォーカシングレンズ210を無限から至近までの間でスキャン駆動させる。その後、ステップS110へ戻って上述した動作を繰り返す。   Even when focus detection is impossible, the process branches to this step, a scan drive command is transmitted to the lens drive control device 206, and the focusing lens 210 of the interchangeable lens 202 is driven to scan from infinity to the nearest. Then, it returns to step S110 and repeats the operation | movement mentioned above.

ステップS140で合焦近傍であると判定された場合はステップS160へ進み、シャッターボタン(不図示)の操作によりシャッターレリーズがなされたか否かを判別する。シャッターレリーズがなされていないと判定された場合はステップS110へ戻り、上述した動作を繰り返す。一方、シャッターレリーズがなされたと判定された場合はステップS170へ進み、レンズ駆動制御装置206へ絞り調整命令を送信し、交換レンズ202の絞り値を制御F値(撮影者または自動により設定されたF値)にする。絞り制御が終了した時点で、撮像素子212に撮像動作を行わせ、撮像素子212の撮像画素310および全ての焦点検出画素313,314から画像データを読み出す。   If it is determined in step S140 that the focus is close, the process proceeds to step S160, and it is determined whether or not a shutter release has been performed by operating a shutter button (not shown). If it is determined that the shutter release has not been performed, the process returns to step S110 and the above-described operation is repeated. On the other hand, if it is determined that the shutter release has been performed, the process proceeds to step S170, where an aperture adjustment command is transmitted to the lens drive control unit 206, and the aperture value of the interchangeable lens 202 is set to the control F value (F set by the photographer or automatically). Value). When the aperture control is finished, the image sensor 212 is caused to perform an imaging operation, and image data is read from the image pickup pixel 310 and all the focus detection pixels 313 and 314 of the image pickup element 212.

ステップS180において、焦点検出画素列の各画素位置の画素データを焦点検出画素311の周囲の撮像画素310のデータに基づいて画素補間する。続くステップS190では、撮像画素310のデータおよび補間されたデータからなる画像データをメモリカード219に記憶し、ステップS110へ戻って上述した動作を繰り返す。   In step S <b> 180, pixel interpolation is performed on the pixel data at each pixel position in the focus detection pixel row based on the data of the imaging pixels 310 around the focus detection pixel 311. In subsequent step S190, image data composed of the data of the imaging pixel 310 and the interpolated data is stored in the memory card 219, and the process returns to step S110 to repeat the above-described operation.

図14のステップS130における像ズレ検出演算処理(相関演算処理、位相差検出処理)の詳細について以下説明する。   Details of the image shift detection calculation process (correlation calculation process, phase difference detection process) in step S130 of FIG. 14 will be described below.

焦点検出画素311が検出する一対の像は、測距瞳93,94がレンズの絞り開口によりけられて光量バランスが崩れている可能性があるので、光量バランスに対して像ズレ検出精度を維持できるタイプの相関演算を施す。焦点検出画素列から読み出された一対のデータ列(A1,・・・,A1,A2,・・・,A2:Mはデータ数)に対し本出願人の出願に基づく特開2007−333720号公報に開示された式(1)により相関量C(k)を演算する。
C(k)=Σ|A1・A2n+1+k−A2n+k・A1n+1| (1)
The pair of images detected by the focus detection pixel 311 may maintain the image shift detection accuracy with respect to the light quantity balance because the distance measurement pupils 93 and 94 may be displaced by the aperture of the lens and the light quantity balance may be lost. Perform possible types of correlation operations. Based on the application of the present applicant for a pair of data strings (A1 1 ,..., A1 M , A2 1 ,..., A2 M : M is the number of data) read out from the focus detection pixel string. The correlation amount C (k) is calculated by the equation (1) disclosed in 2007-333720.
C (k) = Σ | A1 n · A2 n + 1 + k− A2 n + k · A1 n + 1 | (1)

式(1)において、Σ演算はnについて累積される。nのとる範囲は、像シフト量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。像シフト量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。 In equation (1), Σ operations are accumulated for n. The range taken by n is limited to a range in which data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k exists according to the image shift amount k. The image shift amount k is an integer and is a relative shift amount with the data interval of the data string as a unit.

式(1)の演算結果は、図15(a)に示すように、一対のデータの相関が高いシフト量(図15(a)ではk=k=2)において相関量C(k)が極小(小さいほど相関度が高い)になる。式(2)〜(5)による3点内挿の手法を用いて相関量を連続的とみなした場合の極小値C(x)を与えるシフト量xを求める。
x=k+D/SLOP (2)
C(x)= C(k)−|D| (3)
D={C(k−1)-C(k+1)}/2 (4)
SLOP=MAX{C(k+1)-C(k),C(k−1)-C(k)} (5)
As shown in FIG. 15A, the calculation result of the expression (1) indicates that the correlation amount C (k) is obtained when the pair of data has a high correlation amount (k = k j = 2 in FIG. 15A). Minimal (the smaller the value, the higher the degree of correlation). The shift amount x that gives the minimum value C (x) when the correlation amount is regarded as continuous is obtained using the three-point interpolation method according to the equations (2) to (5).
x = k j + D / SLOP (2)
C (x) = C (k j ) − | D | (3)
D = {C (k j −1) −C (k j +1)} / 2 (4)
SLOP = MAX {C (k j +1) −C (k j ), C (k j −1) −C (k j )} (5)

式(2)で算出されたシフト量xの信頼性があるかどうかは、以下のようにして判定される。図15(b)に示すように、一対のデータの相関度が低い場合は、内挿された相関量の極小値C(x)の値が大きくなる。したがって、C(x)が所定の閾値以上の場合は算出されたシフト量xの信頼性が低いと判定し、算出されたシフト量xをキャンセルする。あるいは、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が所定値以上の場合は、算出されたシフト量xの信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   Whether the shift amount x calculated by the equation (2) is reliable is determined as follows. As shown in FIG. 15B, when the degree of correlation between a pair of data is low, the value of the interpolated correlation minimum value C (x) is large. Therefore, when C (x) is equal to or greater than a predetermined threshold, it is determined that the reliability of the calculated shift amount x is low, and the calculated shift amount x is canceled. Alternatively, in order to normalize C (x) with the contrast of data, when the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined value, the reliability of the calculated shift amount x The calculated shift amount x is cancelled.

あるいはまた、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたシフト量xの信頼性が低いと判定し、算出されたシフト量xをキャンセルする。図15(c)に示すように、一対のデータの相関度が低く、シフト範囲kminからkmaxの間で相関量C(k)の落ち込みがない場合は、極小値C(x)を求めることができず、このような場合は焦点検出不能と判定する。算出されたシフト量xの信頼性があると判定された場合は、式(6)により像ズレ量shftに換算される。
shft=PY・x (6)
Alternatively, if SLOP that is proportional to the contrast is equal to or smaller than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated shift amount x is low, and the calculated shift amount x is canceled. . As shown in FIG. 15C, when the correlation between the pair of data is low and there is no drop in the correlation amount C (k) between the shift range kmin and kmax , the minimum value C (x) is obtained. In such a case, it is determined that the focus cannot be detected. When it is determined that the calculated shift amount x is reliable, it is converted into the image shift amount shft by the equation (6).
shft = PY · x (6)

式(6)において、PYは焦点検出画素311の斜め45度方向の画素ピッチ(検出ピッチ)である。式(6)で算出された像ズレ量に所定の変換係数Kdを乗じてデフォーカス量defへ変換する。
def=Kd・shft (7)
In Expression (6), PY is the pixel pitch (detection pitch) in the 45-degree direction of the focus detection pixel 311. The image shift amount calculated by Expression (6) is multiplied by a predetermined conversion coefficient Kd to convert it to a defocus amount def.
def = Kd · shft (7)

図14のステップS180における焦点検出画素位置の画像データの算出の詳細について、図16、図17を用いて以下に説明する。なお、以下の説明においては、ある焦点検出画素311に注目した処理について説明するが、同様な処理を全ての焦点検出画素位置の画像データの算出に適用する。   Details of the calculation of the image data at the focus detection pixel position in step S180 in FIG. 14 will be described below with reference to FIGS. In the following description, processing focusing on a certain focus detection pixel 311 will be described, but the same processing is applied to calculation of image data at all focus detection pixel positions.

図16は、6行6列の撮像画素310の領域に、右上がり斜め45度方向に焦点検出画素311が配置された場合における撮像画素310のデータ(G11〜G66)と中央の焦点検出画素311の一対のデータ(A1、A2)を画素のレイアウトに対応して示している。G33a、R34a、B43a、G44aは中央の焦点検出画素位置に撮像画素が4つ配置されているとした場合の各撮像画素のデータ(後述の処理によって補間されるべき撮像画素データ)である。   FIG. 16 illustrates the data (G11 to G66) of the imaging pixel 310 and the central focus detection pixel 311 in the case where the focus detection pixel 311 is arranged in a 45-degree obliquely upward right direction in the region of the imaging pixel 310 of 6 rows and 6 columns. A pair of data (A1, A2) is shown corresponding to the pixel layout. G33a, R34a, B43a, and G44a are data of each imaging pixel (imaging pixel data to be interpolated by processing to be described later) when four imaging pixels are arranged at the central focus detection pixel position.

図14のステップS180より図17のステップ181に進み、焦点検出画素311周辺の撮像画素データに基づき色毎に画像の連続性の高い方向の判定を以下のようにして行う。緑色に対する垂直方向評価値Sgvは、図16において垂直方向に離れた緑色の画素データの差の絶対値を図16の範囲で積算した値を所定の規格化定数kgvで割った値である。差分を取る画素間の距離は全ての場合(緑色の撮像画素の場合は垂直方向に1画素おき、3画素おきの差分が可能)について積算され、焦点検出画素を挟んだ撮像画素間での差分も含まれる。
Sgv=(|G11−G31|+|G22−G42|+|G13−G53|+|
G24−G64|+|G35−G55|+|G46−G66|)/kgv (8)
The process proceeds from step S180 of FIG. 14 to step 181 of FIG. 17, and determination of the direction in which the continuity of the image is high for each color is performed as follows based on the imaging pixel data around the focus detection pixel 311. The vertical evaluation value Sgv for green is a value obtained by dividing the absolute value of the difference between the green pixel data separated in the vertical direction in FIG. 16 by the predetermined normalization constant kgv. The distance between the pixels for which the difference is taken is integrated for all cases (in the case of a green imaging pixel, every other pixel in the vertical direction is possible every third pixel), and the difference between the imaging pixels sandwiching the focus detection pixel Is also included.
Sgv = (| G11−G31 | + | G22−G42 | + | G13−G53 | + |
G24-G64 | + | G35-G55 | + | G46-G66 |) / kgv (8)

なお規格化定数kgv(および後述の規格化定数)は積算個数、差分を取る画素データ間の距離、色に応じて定められた値であり、積算値の値が積算個数、差分する画素間の距離、色に応じて変動しないように規格化するための定数である。   The normalization constant kgv (and the normalization constant described later) is a value determined according to the integrated number, the distance between pixel data for which the difference is taken, and the color, and the value of the integrated value is between the integrated number and the difference pixels. It is a constant for normalization so as not to vary according to distance and color.

同様にして緑色に対する水平方向評価値Sgh、右上がり斜め45度方向評価値Sgc、左上がり斜め45度方向評価値Sgdが求まる。
Sgh=(|G11−G13|+|G22−G24|+|G31−G35|+|
G42−G46|+|G53−G55|+|G64−G66|)/kgh (9)
Sgc=(|G13−G22|+|G22−G31|+|G24−G42|+
|G35−G53|+|G46−G55|+|G55−G64|)/kgc(10)
Sgd=(|G11−G22|+|G13−G24|+|G31−G42|+
|G35−G46|+|G53−G64|+|G55−G66|)/kgd(11)
Similarly, a horizontal direction evaluation value Sgh, a right upward slanting 45 degree direction evaluation value Sgc, and a left upward slanting 45 degree direction evaluation value Sgd for green are obtained.
Sgh = (| G11−G13 | + | G22−G24 | + | G31−G35 | + |
G42-G46 | + | G53-G55 | + | G64-G66 |) / kgh (9)
Sgc = (| G13-G22 | + | G22-G31 | + | G24-G42 | +
| G35-G53 | + | G46-G55 | + | G55-G64 |) / kgc (10)
Sgd = (| G11−G22 | + | G13−G24 | + | G31−G42 | +
| G35-G46 | + | G53-G64 | + | G55-G66 |) / kgd (11)

赤色に対する垂直方向評価値Srvは、図16において垂直方向に離れた赤色の撮像画素データの差の絶対値を図16の範囲で積算した値を所定の規格化定数krvで割った値である。
Srv=(|R12−R32|+|R14−R54|+|R36−R66|)/krv (12)
The vertical direction evaluation value Srv for red is a value obtained by dividing the absolute value of the difference between red imaging pixel data separated in the vertical direction in FIG. 16 within the range of FIG. 16 by a predetermined normalization constant krv.
Srv = (| R12-R32 | + | R14-R54 | + | R36-R66 |) / krv (12)

同様にして赤色に対する水平方向評価値Srh、右上がり斜め45度方向評価値Src、左上がり斜め45度方向評価値Srdが求まる。
Srh=(|R12−R14|+|R32−R36|+|R54−R56|)/krh (13)
Src=(|R14−R32|+|R36−R54|)/krc (14)
Srd=(|R14−R36|+|R32−R54|)/krd (15)
Similarly, the horizontal direction evaluation value Srh for red, the upward 45-degree oblique direction evaluation value Src, and the upward-left oblique 45 degree direction evaluation value Srd are obtained.
Srh = (| R12-R14 | + | R32-R36 | + | R54-R56 |) / krh (13)
Src = (| R14-R32 | + | R36-R54 |) / krc (14)
Srd = (| R14-R36 | + | R32-R54 |) / krd (15)

赤色と同様にして青色に対する垂直方向評価値Sbv、水平方向評価値Sbh、右上がり斜め45度方向評価値Sbc、左上がり斜め45度方向評価値Sbdが求まる。
Sbv=(|B21−B41|+|B23−B63|+|B45−B65|)/kbv (16)
Sbh=(|B21−B23|+|B41−B45|+|B63−B65|)/kbh (17)
Sbc=(|B41−B23|+|B63−B45|)/kbc (18)
Sbd=(|B41−B63|+|B23−R45|)/kbd (19)
Similarly to the red color, the vertical direction evaluation value Sbv, the horizontal direction evaluation value Sbh, the right upward slanting 45 degree direction evaluation value Sbc, and the left upward slanting 45 degree direction evaluation value Sbd are obtained.
Sbv = (| B21−B41 | + | B23−B63 | + | B45−B65 |) / kbv (16)
Sbh = (| B21−B23 | + | B41−B45 | + | B63−B65 |) / kbh (17)
Sbc = (| B41−B23 | + | B63−B45 |) / kbc (18)
Sbd = (| B41−B63 | + | B23−R45 |) / kbd (19)

各色の連続性の高い方向の判定は以下のようにして行われる。緑色の場合、評価値Sgv、Sgh、Sgc、Sgdの中で最も小さい値の評価値に対応する方向を連続性の高い方向と判定する。ただし最も小さい値の評価値の値が所定の閾値以上の場合は方向性がないと判定する。同様にして評価値Srv、Srh、Src、Srd、評価値Sbv、Sbh、Sbc、Sbdに基づいて、赤色の連続性が高い方向および青色の連続性が高い方向が判定される。   The determination of the direction in which the continuity of each color is high is performed as follows. In the case of green, the direction corresponding to the evaluation value having the smallest value among the evaluation values Sgv, Sgh, Sgc, and Sgd is determined as the direction having high continuity. However, when the smallest evaluation value is equal to or greater than a predetermined threshold, it is determined that there is no directionality. Similarly, based on the evaluation values Srv, Srh, Src, Srd, and the evaluation values Sbv, Sbh, Sbc, Sbd, a direction in which red continuity is high and a direction in which blue continuity is high are determined.

ステップS182では各色の方向性判定結果に基づいてB33a、G34a、G43a、R44aに対応する第1補間画素データが以下のように求められる。
G33a=(G13+G53)/2 垂直方向に連続性あり
G33a=(G31+G35)/2 水平方向に連続性あり
G33a=(G24+G42)/2 右上がり45度方向に連続性あり
G33a=(G22+G55)/2 左上がり45度方向に連続性あり
G33a=(G24+G42+G22+G55)/4 連続性なし
G44a=(G24+G64)/2 垂直方向に連続性あり
G44a=(G42+G46)/2 水平方向に連続性あり
G44a=(G35+G53)/2 右上がり45度方向に連続性あり
G44a=(G22+G55)/2 左上がり45度方向に連続性あり
G44a=(G35+G53+G22+G55)/4 連続性なし
R34a=(R14+R54)/2 垂直方向に連続性あり
R34a=(R32+R36)/2 水平方向に連続性あり
R34a=(R14+R54+R32+R36)/4 右上がり45度方向に連続性あり
R34a=(R12+R56)/2 左上がり45度方向に連続性あり
R34a=(R14+R54+R32+R36+R12+R56)/6 連続性なし
B43a=(B23+B63)/2 垂直方向に連続性あり
B43a=(B41+B45)/2 水平方向に連続性あり
B43a=(B23+B63+B41+B45)/4 右上がり45度方向に連続性あり
B43a=(B21+B65)/2 左上がり45度方向に連続性あり
B43a=(B23+B63+B41+B45+B21+B65)/6 連続性なし
In step S182, the first interpolation pixel data corresponding to B33a, G34a, G43a, and R44a is obtained as follows based on the directionality determination result of each color.
G33a = (G13 + G53) / 2 Continuous in the vertical direction G33a = (G31 + G35) / 2 Continuous in the horizontal direction G33a = (G24 + G42) / 2 Continuous in the 45 ° upward direction G33a = (G22 + G55) / 2 Left Continuity in 45 degree direction G33a = (G24 + G42 + G22 + G55) / 4 No continuity G44a = (G24 + G64) / 2 Continuity in vertical direction G44a = (G42 + G46) / 2 Continuity in horizontal direction G44a = (G35 + G53) / 2 There is continuity in the 45 ° upward direction G44a = (G22 + G55) / 2 There is continuity in the 45 ° upward direction G44a = (G35 + G53 + G22 + G55) / 4 No continuity R34a = (R14 + R54) / 2 There is continuity in the vertical direction R34a = (R32 + R36) / 2 Water There is continuity in the direction R34a = (R14 + R54 + R32 + R36) / 4 There is continuity in the 45 ° upward direction R34a = (R12 + R56) / 2 There is continuity in the 45 ° upward direction R34a = (R14 + R54 + R32 + R36 + R12 + R56) / 6 No continuity B43a = ( B23 + B63) / 2 Continuous in the vertical direction B43a = (B41 + B45) / 2 Continuous in the horizontal direction B43a = (B23 + B63 + B41 + B45) / 4 Continuous in the 45 ° upward direction B43a = (B21 + B65) / 2 Up 45 ° in the left direction There is continuity in the direction B43a = (B23 + B63 + B41 + B45 + B21 + B65) / 6 No continuity

以上のようにステップS182では、画像の連続性を前提にして第1補間画素データを4つの方向に対して焦点検出画素311を挟む撮像画素310のデータから補間することが可能になり、良好な補間結果が得られる。   As described above, in step S182, it is possible to interpolate the first interpolation pixel data from the data of the imaging pixel 310 sandwiching the focus detection pixel 311 with respect to the four directions on the premise of the continuity of the image. An interpolation result is obtained.

ステップS183では、焦点検出画素位置に点像が存在するか否か判定する。これはステップS182で求めた第1補間画素データは画像の連続性を前提にして求めたデータであるので、焦点検出画素位置に孤立的に点像が存在した場合には、正確な補間画素データが得られないからである。   In step S183, it is determined whether or not a point image exists at the focus detection pixel position. This is because the first interpolation pixel data obtained in step S182 is data obtained on the assumption of image continuity. Therefore, when a point image is present at the focus detection pixel position in isolation, accurate interpolation pixel data is obtained. It is because it cannot be obtained.

上記点像判定は、焦点検出画素311の一対の光電変換部13および14の出力信号データA1とA2の和が焦点検出画素位置の輝度を表しており、ステップS182で求めたR、G、Bの第1補間データの線型和からも同様に輝度を表す値を算出できるので、2つの輝度値を比較することにより、その違いが大きい場合には点像が存在すると判定することにより行われ、例えば点像判定評価値Pは以下の式で定められる。
P=P1−P2 (20)
P1=(A1+A2)・ka (21)
P2=G33a・kg+G44a・kg+R34a・kr+B43a・kb (22)
In the point image determination, the sum of the output signal data A1 and A2 of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311 represents the luminance at the focus detection pixel position, and R, G, B obtained in step S182 is obtained. Since the value representing the luminance can be similarly calculated from the linear sum of the first interpolation data, the two luminance values are compared, and if the difference is large, it is determined that a point image exists. For example, the point image determination evaluation value P is determined by the following equation.
P = P1-P2 (20)
P1 = (A1 + A2) · ka (21)
P2 = G33a · kg + G44a · kg + R34a · kr + B43a · kb (22)

上式において係数ka、kg、kr、kbは予め白色およびその他の色の光源の一様照明状態にて、焦点検出画素311の一対の光電変換部13および14の出力信号データA1とA2の和と第1補間画素データ(G33a、G44a、R34a、B43a)の線型和が略等しくなるように求めたものである。点像判定評価値Pの絶対値が所定の閾値より大きい場合には点像があると判定し、小さいときは点像なしと判定する。   In the above equation, the coefficients ka, kg, kr, and kb are the sum of the output signal data A1 and A2 of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311 in advance in the uniform illumination state of the light sources of white and other colors. And the first summation pixel data (G33a, G44a, R34a, B43a) are obtained so that the linear sums are substantially equal. When the absolute value of the point image determination evaluation value P is larger than a predetermined threshold, it is determined that there is a point image, and when it is smaller, it is determined that there is no point image.

ステップS184で点像の有無によって処理フローが分岐し、点像がない場合にはステップS185で第1補間画素データを最終的に焦点検出画素位置に撮像画素310が4つ配置されているとした場合の各撮像画素データとして割り当てられる補間画素データとし、図14のステップS190に移る。点像ありの場合はステップS186に進み、以下のようにして第1補間画素データに対して補正を施して最終的な補間画素データとして、図14のステップ190に移る。
G33a=G33a・P1/P2 (23)
G44a=G44a・P1/P2 (24)
R34a=R34a・P1/P2 (25)
B43a=B43a・P1/P2 (26)
In step S184, the processing flow branches depending on the presence or absence of a point image. If there is no point image, it is assumed in step S185 that the first interpolation pixel data is finally arranged with four imaging pixels 310 at the focus detection pixel position. Interpolated pixel data to be assigned as each imaging pixel data in this case, and the process proceeds to step S190 in FIG. If there is a point image, the process proceeds to step S186, where the first interpolation pixel data is corrected as follows to obtain final interpolation pixel data, and the process proceeds to step 190 in FIG.
G33a = G33a · P1 / P2 (23)
G44a = G44a · P1 / P2 (24)
R34a = R34a · P1 / P2 (25)
B43a = B43a · P1 / P2 (26)

以上のような補正を施すことにより、第1補間画素データ(G33a、G44a、R34a、B43a)の線型和から求めた輝度が、焦点検出画素311の一対の光電変換部13および14の出力信号データA1とA2の和から求めた輝度と一致するので、点像が存在した場合でも良好な補間結果が得られる。   By performing the correction as described above, the luminance obtained from the linear sum of the first interpolation pixel data (G33a, G44a, R34a, B43a) becomes the output signal data of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311. Since it matches the luminance obtained from the sum of A1 and A2, a good interpolation result can be obtained even when a point image exists.

焦点検出画素311を水平または垂直方向に連続して配置した場合には、1つの焦点検出画素311に水平方向および垂直方向及び斜め方向に最も近接する撮像画素310の数は8であるが、焦点検出画素311を斜め方向に連続して配置した場合には、焦点検出画素311に最も近接する撮像画素310の数は10となるので、その分画素補間精度が向上する。   When the focus detection pixels 311 are continuously arranged in the horizontal or vertical direction, the number of imaging pixels 310 closest to the one focus detection pixel 311 in the horizontal direction, the vertical direction, and the diagonal direction is eight. When the detection pixels 311 are continuously arranged in the oblique direction, the number of imaging pixels 310 that are closest to the focus detection pixel 311 is 10, so that the pixel interpolation accuracy is improved accordingly.

さらに焦点検出画素311を斜め方向に連続して配置した場合には、焦点検出画素311の位置に仮想的に撮像画素310を配置したと仮定すると、画素補間されるべき仮想撮像画素に近接し、かつ水平方向および垂直方向に該仮想撮像画素を挟む位置に、必ず仮想撮像画素と同じ色の撮像画素が存在するので、水平方向と垂直方向の画素補間性能が焦点検出画素311を水平または垂直方向に連続して配置した場合に比較して優れている。一般の画像における画素補間のパターンは、水平方向および垂直方向のパターンが多いので、画素補間性能の向上が期待できる。   Further, when the focus detection pixels 311 are continuously arranged in the oblique direction, assuming that the imaging pixel 310 is virtually arranged at the position of the focus detection pixel 311, it is close to the virtual imaging pixel to be interpolated, In addition, since an imaging pixel having the same color as the virtual imaging pixel always exists at a position sandwiching the virtual imaging pixel in the horizontal direction and the vertical direction, the pixel interpolation performance in the horizontal direction and the vertical direction makes the focus detection pixel 311 in the horizontal or vertical direction. It is superior to the case where it is continuously arranged. Since many pixel interpolation patterns in a general image are in the horizontal and vertical directions, an improvement in pixel interpolation performance can be expected.

上述の実施形態においては焦点検出画素311の画素サイズを撮像画素310より大きくすることにより瞳分割性能を向上するとともに、焦点検出画素311を、撮像画素310が正方格子状に配置された撮像素子212において、斜め方向に配置することにより、画素補間による画像品質の劣化を防止している。
《発明の他の実施の形態》
In the above-described embodiment, the pupil division performance is improved by making the pixel size of the focus detection pixel 311 larger than that of the imaging pixel 310, and the imaging element 212 in which the imaging pixels 310 are arranged in a square lattice shape. In FIG. 4, the image quality is prevented from being deteriorated due to pixel interpolation by arranging in an oblique direction.
<< Other Embodiments of the Invention >>

図17に示す補間処理フローにおいては、点像ありと判定された場合は焦点検出画素311の周囲の撮像画素310のデータによって求められた第1補間画素データを補正して最終的な補間画素データとしているが、点像ありと判定された場合には連続性の方向の判定に関わらず、連続性なしとして求めた第1補間画素データに対して補正を行って最終的な補間画素データとするようにしてもよい。   In the interpolation processing flow shown in FIG. 17, when it is determined that there is a point image, the first interpolation pixel data obtained by the data of the imaging pixels 310 around the focus detection pixel 311 is corrected to obtain final interpolation pixel data. However, if it is determined that there is a point image, the first interpolation pixel data obtained as having no continuity is corrected to obtain final interpolation pixel data regardless of the determination of the direction of continuity. You may do it.

図17に示す補間処理フローにおいては、一旦焦点検出画素311の周囲の撮像画素310のデータによって第1補間画素データを求め、この第1補間画素データと焦点検出画素311のデータを比較することにより点像の有無判定を行っているが、焦点検出画素311の周囲の撮像画素データと焦点検出画素データとを直接比較することにより、以下のようにして点像の有無判定を行うようにしても良い。   In the interpolation processing flow shown in FIG. 17, first interpolation pixel data is first obtained from data of the imaging pixels 310 around the focus detection pixel 311, and the first interpolation pixel data and the data of the focus detection pixel 311 are compared. Although the presence / absence determination of the point image is performed, the presence / absence determination of the point image may be performed as follows by directly comparing the imaging pixel data around the focus detection pixel 311 and the focus detection pixel data. good.

焦点検出画素311の一対の光電変換部13,14の出力信号データA1とA2の和が焦点検出画素位置の輝度を表しており、焦点検出画素311の周囲の3色の撮像画素データの線型和が焦点検出画素311の周囲の輝度を表しているので、2つの輝度値を比較することにより、その違いが大きい場合には点像が存在すると判定することができる。例えば、点像判定評価値Pは以下の式で定められる。
P=P1−P2 (27)
P1=(A1+A2)・ka (28)
P2=Gw・kg+Rw・kr+Bw・kb (29)
The sum of the output signal data A1 and A2 of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311 represents the luminance at the focus detection pixel position, and the linear sum of the imaging pixel data of the three colors around the focus detection pixel 311. Represents the luminance around the focus detection pixel 311, and by comparing the two luminance values, it can be determined that a point image exists if the difference is large. For example, the point image determination evaluation value P is determined by the following equation.
P = P1-P2 (27)
P1 = (A1 + A2) · ka (28)
P2 = Gw · kg + Rw · kr + Bw · kb (29)

上式においてGwは図16に示す範囲に含まれる12個の緑の撮像画素310のデータの和を6で割ったものであり、Rwは図16に示す範囲に含まれる6個の赤の撮像画素310のデータの和を6で割ったものであり、Bwは図16に示す範囲に含まれる6個の青の撮像画素310のデータの和を6で割ったものである。   In the above equation, Gw is obtained by dividing the sum of the data of 12 green imaging pixels 310 included in the range shown in FIG. 16 by 6, and Rw is imaging of 6 reds included in the range shown in FIG. The sum of the data of the pixels 310 is divided by 6, and Bw is the sum of the data of the six blue imaging pixels 310 included in the range shown in FIG.

上式において、係数ka、kg、kr、kbは、予め白色およびその他の色の光源の一様照明状態にて、焦点検出画素311の一対の光電変換部13,14の出力信号データA1とA2の和と焦点検出画素311の周囲の撮像画素データの線型和が略等しくなるように求めたものである。点像判定評価値Pの絶対値が所定の閾値より大きい場合には焦点検出画素位置にその周囲と輝度差がある点像があると判定し、小さいときは点像なしと判定する。   In the above equation, the coefficients ka, kg, kr, and kb are output signal data A1 and A2 of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311 in a uniform illumination state of light sources of white and other colors in advance. And the linear sum of the imaging pixel data around the focus detection pixel 311 are determined to be substantially equal. When the absolute value of the point image determination evaluation value P is larger than a predetermined threshold value, it is determined that there is a point image having a luminance difference from its surroundings at the focus detection pixel position, and when it is smaller, it is determined that there is no point image.

上記の判定では、焦点検出画素位置の輝度と焦点検出画素311の周囲の平均輝度との差だけに注目しているので、焦点検出画素311の周囲の輝度が変動していた場合に誤った判定を行う可能性がある。そこで、焦点検出画素311の周囲の輝度変動の有無を判定し、輝度変動があった場合には、点像有無判定を行わずに点像なしと判定し、輝度変動がない場合のみ点像有無判定を行うようにしてもよい。   In the above determination, since only the difference between the luminance at the focus detection pixel position and the average luminance around the focus detection pixel 311 is focused, an erroneous determination is made when the luminance around the focus detection pixel 311 has fluctuated. There is a possibility to do. Therefore, the presence / absence of luminance fluctuation around the focus detection pixel 311 is determined. When there is luminance fluctuation, it is determined that there is no point image without performing point image existence determination, and only when there is no luminance fluctuation. You may make it perform determination.

図17に示す補間処理フローにおいては、一旦焦点検出画素311の周囲の撮像画素データによって求められた第1補間画素データを点像の有無判定に応じて、点像ありの場合は補正して最終的な補間画素データとしているが、第1補間画素データを算出する前に上記のような点像有無判定を行い、点像がない場合にはそのまま第1補間画素データを算出して、これを最終的な補間画素データとし、点像がある場合には別途以下のようにして補間画素データを算出するようにしてもよい。   In the interpolation processing flow shown in FIG. 17, the first interpolation pixel data once obtained from the image pickup pixel data around the focus detection pixel 311 is corrected according to the presence or absence of the point image, and finally corrected. However, before calculating the first interpolation pixel data, the point image presence / absence determination as described above is performed. If there is no point image, the first interpolation pixel data is calculated as it is. As final interpolation pixel data, if there is a point image, the interpolation pixel data may be calculated separately as follows.

即ち焦点検出画素311に隣接する10個の撮像画素310のデータより焦点検出画素311の最も近傍の色調を求め、該色調を焦点検出画素データから求めた輝度値に調整することで、最終的な補間画素データを求める。   That is, the color tone closest to the focus detection pixel 311 is obtained from the data of the ten imaging pixels 310 adjacent to the focus detection pixel 311, and the color tone is adjusted to the luminance value obtained from the focus detection pixel data, so that the final value is obtained. Interpolated pixel data is obtained.

下式において、係数ka、kg、kr、kbは、予め白色およびその他の色の光源の一様照明状態にて、焦点検出画素の一対の光電変換部13,14の出力信号データA1とA2の和と3色の撮像画素データの線型和が略等しくなるように求めたものである。
Gs=(G22+G24+G32+G35+G53+G55)/6(30)
Rs=(R32+R54)/2 (31)
Bs=(B23+B45)/2 (32)
G33a=G44a
=Gs・ka・(A1+A2)/(kg・Gs+kr・Rs+kb・Bs) (33)
R34a=Rs・ka・(A1+A2)/(kg・Gs+kr・Rs+kb・Bs)
(34)
B43a=Bs・ka・(A1+A2)/(kg・Gs+kr・Rs+kb・Bs)
(35)
In the following equation, the coefficients ka, kg, kr, and kb are the values of the output signal data A1 and A2 of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel in the uniform illumination state of the light sources of white and other colors in advance. The sum is obtained so that the linear sum of the image pickup pixel data of the three colors is substantially equal.
Gs = (G22 + G24 + G32 + G35 + G53 + G55) / 6 (30)
Rs = (R32 + R54) / 2 (31)
Bs = (B23 + B45) / 2 (32)
G33a = G44a
= Gs · ka · (A1 + A2) / (kg · Gs + kr · Rs + kb · Bs) (33)
R34a = Rs · ka · (A1 + A2) / (kg · Gs + kr · Rs + kb · Bs)
(34)
B43a = Bs · ka · (A1 + A2) / (kg · Gs + kr · Rs + kb · Bs)
(35)

図9(b)に示した焦点検出画素311の構造においては、同一の露光条件において焦点検出画素311の光電変換部13,14の出力と撮像画素310の光電変換部11の出力とが略等しくなるようにNDフィルター34を設置しているが、NDフィルターを設けない代わりに、図12に示す画素の基本回路構成において、焦点検出画素311の増幅MOSトランジスタAMPと撮像画素310の増幅MOSトランジスタAMPとの増幅度を異ならせることにより、同一の露光条件において焦点検出画素311の光電変換部13,14の出力と撮像画素310の光電変換部11の出力が略等しくなるようにしてもよい。   In the structure of the focus detection pixel 311 shown in FIG. 9B, the output of the photoelectric conversion units 13 and 14 of the focus detection pixel 311 and the output of the photoelectric conversion unit 11 of the imaging pixel 310 are substantially equal under the same exposure conditions. Although the ND filter 34 is provided, instead of providing the ND filter, the amplification MOS transistor AMP of the focus detection pixel 311 and the amplification MOS transistor AMP of the image pickup pixel 310 in the basic circuit configuration of the pixel shown in FIG. The output of the photoelectric conversion units 13 and 14 of the focus detection pixel 311 and the output of the photoelectric conversion unit 11 of the imaging pixel 310 may be substantially equal under the same exposure condition.

撮像素子310における焦点検出エリア101〜103の配置は図2に限定されることはなく、また焦点検出画素311の配列方向は左上がり斜め45度方向でもよい。   The arrangement of the focus detection areas 101 to 103 in the image sensor 310 is not limited to that shown in FIG. 2, and the arrangement direction of the focus detection pixels 311 may be a 45 ° upward diagonal direction.

図4および図16に示す焦点検出画素311の配列においては、焦点検出画素311は上述した仮想撮像画素である青画素と赤画素が斜め45度方向に連続する直線上に該仮想撮像画素に代わって配置されているが、図18および図19に示すように焦点検出画素311を仮想撮像画素である緑画素が斜め45度方向に連続する直線上に該仮想撮像画素に代わって配置するようにしてもよい。   In the arrangement of the focus detection pixels 311 shown in FIGS. 4 and 16, the focus detection pixels 311 replace the virtual imaging pixels on a straight line in which the blue and red pixels, which are the above-described virtual imaging pixels, continue in a 45-degree oblique direction. However, as shown in FIGS. 18 and 19, the focus detection pixels 311 are arranged in place of the virtual imaging pixels on a straight line in which green pixels that are virtual imaging pixels are continuous in an oblique 45 degree direction. May be.

図19は図18の拡大図に対応しており、6行6列の撮像画素310の領域に、右上がり斜め45度方向に焦点検出画素311が配置された場合における撮像画素データ(R11〜B66)と中央の焦点検出画素311の一対の光電変換部13,14の出力信号データ(A1、A2)を画素のレイアウトに対応して示している。R33a、G34a、G43a、B44aは中央の焦点検出画素位置311に撮像画素310が4つ配置されているとした場合の各撮像画素310のデータ(後述の処理によって補間されるべき撮像画素データ)である。   FIG. 19 corresponds to the enlarged view of FIG. 18, and image pickup pixel data (R11 to B66) in the case where the focus detection pixels 311 are arranged in the area of the 6 × 6 image pickup pixels 310 in a 45 ° upward and diagonal direction. ) And output signal data (A1, A2) of the pair of photoelectric conversion units 13 and 14 of the central focus detection pixel 311 are shown corresponding to the pixel layout. R33a, G34a, G43a, and B44a are data of each imaging pixel 310 (imaging pixel data to be interpolated by processing to be described later) when four imaging pixels 310 are arranged at the central focus detection pixel position 311. is there.

このような焦点検出画素配置における画素補間処理の動作を図17のフローチャートに沿って説明する。まずステップS181に進み、焦点検出画素311周辺の撮像画素データに基づき色毎に画像の連続性の高い方向の判定を以下のようにして行う。緑色に対する垂直方向評価値Sgvは、図19において垂直方向に離れた緑色の画素データの差の絶対値を図19の範囲で積算した値を所定の規格化定数kgvで割った値である。差分を取る画素間の距離は全ての場合(緑色の撮像画素310で垂直の場合は1画素おき、3画素おきの差分が可能)について積算され、焦点検出画素を挟んだ撮像画素310間での差分も積算される。
Sgv=(|G21−G41|+|G12−G32|+|G23−G63|+
|G14−G54|+|G45−G65|+|G36−G56|)/kgv(36)
The operation of pixel interpolation processing in such a focus detection pixel arrangement will be described with reference to the flowchart of FIG. First, the process proceeds to step S181, and the determination of the direction in which the continuity of the image is high is performed for each color based on the imaging pixel data around the focus detection pixel 311 as follows. The vertical direction evaluation value Sgv for green is a value obtained by dividing the absolute value of the difference between the green pixel data separated in the vertical direction in FIG. 19 within the range of FIG. 19 by a predetermined standardization constant kgv. The distance between the pixels that take the difference is integrated for all cases (if the green image pickup pixel 310 is vertical, every other pixel can have a difference of every third pixel). Differences are also integrated.
Sgv = (| G21−G41 | + | G12−G32 | + | G23−G63 | +
| G14-G54 | + | G45-G65 | + | G36-G56 |) / kgv (36)

なお規格化定数kgv(および後述の規格化定数)は積算個数、差分を取る画素データ間の距離、色に応じて定められた値であり、積算値の値が積算個数、差分する画素間の距離、色に応じて変動しないように規格化するための定数である。   The normalization constant kgv (and the normalization constant described later) is a value determined according to the integrated number, the distance between pixel data for which the difference is taken, and the color, and the value of the integrated value is between the integrated number and the difference pixels. It is a constant for normalization so as not to vary according to distance and color.

同様にして緑色に対する水平方向評価値Sgh、右上がり斜め45度方向評価値Sgc、左上がり斜め45度方向評価値Sgdが求まる。
Sgh=(|G12−G14|+|G21−G23|+|G32−G36|
+|G41−G45|+|G54−G56|+|G63−G65|)/kgh(37)
Sgc=(|G12−G21|+|G41−G32|+|G32−G23|
+|G23−G14|+|G63−G54|+|G54−G45|
+|G45−G36|+|G65−G56|)/kgc (38)
Sgd=(|G14−G36|+|G12−G23|+|G23−G45|
+|G45−G56|+|G21−G32|+|G32−G54|
+|G54−G65|+|G41−G63|)/kgd (39)
Similarly, a horizontal direction evaluation value Sgh, a right upward slanting 45 degree direction evaluation value Sgc, and a left upward slanting 45 degree direction evaluation value Sgd for green are obtained.
Sgh = (| G12−G14 | + | G21−G23 | + | G32−G36 |
+ | G41-G45 | + | G54-G56 | + | G63-G65 |) / kgh (37)
Sgc = (| G12−G21 | + | G41−G32 | + | G32−G23 |
+ | G23-G14 | + | G63-G54 | + | G54-G45 |
+ | G45-G36 | + | G65-G56 |) / kgc (38)
Sgd = (| G14−G36 | + | G12−G23 | + | G23−G45 |
+ | G45-G56 | + | G21-G32 | + | G32-G54 |
+ | G54-G65 | + | G41-G63 |) / kgd (39)

赤色に対する垂直方向評価値Srvは図19において垂直方向に離れた赤色の撮像画素データの差の絶対値を図19の範囲の範囲で積算した値を所定の規格化定数krvで割った値である。
Srv=(|R11−R31|+|R13−R53|+|R35−R55|)/krv
(40)
The vertical direction evaluation value Srv for red is a value obtained by dividing the absolute value of the difference between the red pixel data separated in the vertical direction in FIG. 19 by the predetermined normalization constant krv. .
Srv = (| R11-R31 | + | R13-R53 | + | R35-R55 |) / krv
(40)

同様にして赤色に対する水平方向評価値Srh、右上がり斜め45度方向評価値Src、左上がり斜め45度方向評価値Srdが求まる。
Srh=(|R11−R13|+|R31−R35|+|R53−R55|)/krh
(41)
Src=(|R31−R13|+|R53−R35|)/krc (42)
Srd=(|R13−R35|+|R11−R55|+|R31−R53|)/krd
(43)
Similarly, the horizontal direction evaluation value Srh for red, the upward 45-degree oblique direction evaluation value Src, and the upward-left oblique 45 degree direction evaluation value Srd are obtained.
Srh = (| R11-R13 | + | R31-R35 | + | R53-R55 |) / krh
(41)
Src = (| R31-R13 | + | R53-R35 |) / krc (42)
Srd = (| R13-R35 | + | R11-R55 | + | R31-R53 |) / krd
(43)

赤色と同様にして青色に対する垂直方向評価値Sbv、水平方向評価値Sbh、右上がり斜め45度方向評価値Sbc、左上がり斜め45度方向評価値Sbdが求まる。
Sbv=(|B22−B42|+|B24−B64|+|B46−B66|)/kbv
(44)
Sbh=(|B22−B24|+|B42−B46|+|B64−B66|)/kbh
(45)
Sbc=(|B42−B24|+|B64−B46|)/kbc (46)
Sbd=(|B24−B46|+|B22−R66|+|B42−R64|)/kbd
(47)
Similarly to the red color, the vertical direction evaluation value Sbv, the horizontal direction evaluation value Sbh, the right upward slanting 45 degree direction evaluation value Sbc, and the left upward slanting 45 degree direction evaluation value Sbd are obtained.
Sbv = (| B22-B42 | + | B24-B64 | + | B46-B66 |) / kbv
(44)
Sbh = (| B22−B24 | + | B42−B46 | + | B64−B66 |) / kbh
(45)
Sbc = (| B42−B24 | + | B64−B46 |) / kbc (46)
Sbd = (| B24−B46 | + | B22−R66 | + | B42−R64 |) / kbd
(47)

各色の連続性の高い方向の判定は以下のようにして行われる。緑色の場合、評価値Sgv、Sgh、Sgc、Sgdの中で最も小さい値の評価値に対応する方向を連続性の高い方向と判定する。ただし最も小さい値の評価値の値が所定の閾値以上の場合は方向性がないと判定する。同様にして評価値Srv、Srh、Src、Srd、評価値Sbv、Sbh、Sbc、Sbdに基づいて、赤色の連続性が高い方向および青色の連続性が高い方向が判定される。   The determination of the direction in which the continuity of each color is high is performed as follows. In the case of green, the direction corresponding to the evaluation value having the smallest value among the evaluation values Sgv, Sgh, Sgc, and Sgd is determined as the direction having high continuity. However, when the smallest evaluation value is equal to or greater than a predetermined threshold, it is determined that there is no directionality. Similarly, based on the evaluation values Srv, Srh, Src, Srd, and the evaluation values Sbv, Sbh, Sbc, Sbd, a direction in which red continuity is high and a direction in which blue continuity is high are determined.

ステップS182では、各色の方向性判定結果に基づいてB33a、G34a、G43a、R44aに対応する第1補間画素データが以下のように求められる。
G34a=(G14+G54)/2 垂直方向に連続性あり
G34a=(G32+G36)/2 水平方向に連続性あり
G34a=(G14+G54+G32+G36+G23+G45)/6 右上がり45度方向に連続性あり
G34a=(G23+G45)/2 左上がり45度方向に連続性あり
G34a=(G14+G54+G32+G36)/4 連続性なし
G43a=(G23+G63)/2 垂直方向に連続性あり
G43a=(G41+G45)/2 水平方向に連続性あり
G43a=(G23+G63+G41+G45+G32+G54)/6 右上がり45度方向に連続性あり
G43a=(G32+G54)/2 左上がり45度方向に連続性あり
G43a=(G23+G63+G41+G45)/4 連続性なし
R33a=(R13+R53)/2 垂直方向に連続性あり
R33a=(R31+R35)/2 水平方向に連続性あり
R33a=(R13+R53+R31+R35)/4 右上がり45度方向に連続性あり
R33a=(R11+R55)/2 左上がり45度方向に連続性あり
R33a=(R13+R53+R31+R35+R11+R55)/6 連続性なし
B44a=(B24+B64)/2 垂直方向に連続性あり
B44a=(B42+B46)/2 水平方向に連続性あり
B44a=(B24+B64+B42+B46)/4 右上がり45度方向に連続性あり
B44a=(B22+B66)/2 左上がり45度方向に連続性あり
B44a=(B24+B64+B42+B46+B22+B66)/6 連続性なし
In step S182, the first interpolation pixel data corresponding to B33a, G34a, G43a, and R44a is obtained as follows based on the directionality determination result of each color.
G34a = (G14 + G54) / 2 Continuous in the vertical direction G34a = (G32 + G36) / 2 Continuous in the horizontal direction G34a = (G14 + G54 + G32 + G36 + G23 + G45) / 6 Continuous in the 45 ° upward direction G34a = (G23 + G45) / 2 Left Continuity in the upward 45 degree direction G34a = (G14 + G54 + G32 + G36) / 4 No continuity G43a = (G23 + G63) / 2 Continuity in the vertical direction G43a = (G41 + G45) / 2 Continuity in the horizontal direction G43a = (G23 + G63 + G41 + G45 + G32 + G54) / 6 Continuity in 45 ° upward direction G43a = (G32 + G54) / 2 Continuity in 45 ° upward left direction G43a = (G23 + G63 + G41 + G45) / 4 No continuity R33a = (R13 + R5 3) / 2 Continuous in the vertical direction R33a = (R31 + R35) / 2 Continuous in the horizontal direction R33a = (R13 + R53 + R31 + R35) / 4 Continuous in the 45 ° upward direction R33a = (R11 + R55) / 2 45 ° upward There is continuity in the direction R33a = (R13 + R53 + R31 + R35 + R11 + R55) / 6 No continuity B44a = (B24 + B64) / 2 There is continuity in the vertical direction B44a = (B42 + B46) / 2 There is continuity in the horizontal direction B44a = (B24 + B64 + B42 + B46) / 4 There is continuity in the 45 degree direction B44a = (B22 + B66) / 2 There is continuity in the 45 degree upward direction B44a = (B24 + B64 + B42 + B46 + B22 + B66) / 6 No continuity

以上のようにステップS182では画像の連続性を前提にして第1補間画素データを4つの方向に対して焦点検出画素311を挟む撮像画素310のデータから補間することが可能になり、良好な補間結果が得られる。   As described above, in step S182, it is possible to interpolate the first interpolation pixel data from the data of the imaging pixel 310 sandwiching the focus detection pixel 311 with respect to the four directions on the premise of the continuity of the image. Results are obtained.

ステップS183では、焦点検出画素位置に点像が存在するか否か判定する。これはステップS182で求めた第1補間画素データは画像の連続性を前提にして求めたデータであるので、焦点検出画素位置に孤立的に点像が存在した場合には、正確な補間画素データが得られないからである。   In step S183, it is determined whether or not a point image exists at the focus detection pixel position. This is because the first interpolation pixel data obtained in step S182 is data obtained on the assumption of image continuity. Therefore, when a point image is present at the focus detection pixel position in isolation, accurate interpolation pixel data is obtained. It is because it cannot be obtained.

上記点像判定は、焦点検出画素311の一対の光電変換部13,14の出力信号データA1とA2の和が焦点検出画素位置の輝度を表しており、ステップS182で求めたR、G、Bの第1補間データの線型和からも同様に輝度を表す値を算出できるので、2つの輝度値を比較することにより、その違いが大きい場合には点像が存在すると判定することにより行われる。例えば点像判定評価値Pは以下の式で定められる。
P=P1−P2 (48)
P1=(A1+A2)・ka (49)
P2=G34a・kg+G43a・kg+R33a・kr+B44a・kb (50)
In the point image determination, the sum of the output signal data A1 and A2 of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311 represents the luminance at the focus detection pixel position, and R, G, and B obtained in step S182 are obtained. Since a value representing luminance can be similarly calculated from the linear sum of the first interpolation data, the two luminance values are compared, and if the difference is large, it is determined that a point image exists. For example, the point image determination evaluation value P is determined by the following equation.
P = P1-P2 (48)
P1 = (A1 + A2) · ka (49)
P2 = G34a · kg + G43a · kg + R33a · kr + B44a · kb (50)

上式において、係数ka、kg、kr、kbは、予め白色およびその他の色の光源の一様照明状態にて、焦点検出画素311の一対の光電変換部13,14の出力信号データA1とA2の和と第1補間画素データ(G34a、G43a、R33a、B44a)の線型和が略等しくなるように求めたものである。点像判定評価値Pの絶対値が所定の閾値より大きい場合には点像があると判定し、小さいときは点像なしと判定する。   In the above equation, the coefficients ka, kg, kr, and kb are output signal data A1 and A2 of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311 in a uniform illumination state of light sources of white and other colors in advance. And the linear sum of the first interpolation pixel data (G34a, G43a, R33a, B44a) are obtained so as to be substantially equal. When the absolute value of the point image determination evaluation value P is larger than a predetermined threshold, it is determined that there is a point image, and when it is smaller, it is determined that there is no point image.

ステップS184で点像の有無によって分岐し、点像がない場合にはステップS185で第1補間画素データを最終的に焦点検出画素位置に撮像画素310が4つ配置されているとした場合の各撮像画素データとして割り当てられる補間画素データとし、図14のステップ190に移る。点像ありの場合はステップS186に進み、以下のようにして第1補間画素データに対して補正を施して最終的な補間画素データとして、図14のステップ190に移る。
G34a=G34a・P1/P2 (51)
G43a=G43a・P1/P2 (52)
R33a=R33a・P1/P2 (53)
B44a=B44a・P1/P2 (54)
If there is no point image in step S184, the process branches depending on the presence or absence of the point image. In step S185, each of the first interpolation pixel data is finally arranged at the focus detection pixel position in which four imaging pixels 310 are arranged. The interpolated pixel data assigned as the imaging pixel data is set, and the process proceeds to Step 190 in FIG. If there is a point image, the process proceeds to step S186, where the first interpolation pixel data is corrected as follows to obtain final interpolation pixel data, and the process proceeds to step 190 in FIG.
G34a = G34a · P1 / P2 (51)
G43a = G43a · P1 / P2 (52)
R33a = R33a · P1 / P2 (53)
B44a = B44a · P1 / P2 (54)

以上のような補正を施すことにより、第1補間画素データ(G34a、G43a、R33a、B44a)の線型和から求めた輝度が、焦点検出画素311の一対の光電変換部13,14の出力信号データA1とA2の和から求めた輝度と一致するので、点像が存在した場合でも良好な補間結果が得られる。   By performing the correction as described above, the luminance obtained from the linear sum of the first interpolation pixel data (G34a, G43a, R33a, B44a) is output signal data of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311. Since it matches the luminance obtained from the sum of A1 and A2, a good interpolation result can be obtained even when a point image exists.

画素補間に関して図4および図16の焦点検出画素311の配置と図18および図19の焦点検出画素311の配置とを比較する。仮想撮像画素である赤画素に最も近接する周囲の赤画素の数は、どちらの配置の場合も6(水平方向2、垂直方向2、左斜め方向2)であり、青画素についても同様である。一方、仮想撮像画素である緑画素に最も近接する周囲の緑画素の数は、前者の配置の場合が7(水平方向2、垂直方向2、右斜め方向2、左斜め方向1)、後者の配置の場合が6(水平方向2、垂直方向2、左斜め方向2)であるので、前者の配置のほうが画素補間後の画像品質の点では好ましい。   Regarding the pixel interpolation, the arrangement of the focus detection pixels 311 in FIGS. 4 and 16 is compared with the arrangement of the focus detection pixels 311 in FIGS. 18 and 19. The number of surrounding red pixels closest to the red pixel that is the virtual imaging pixel is 6 (horizontal direction 2, vertical direction 2, left diagonal direction 2) in either arrangement, and the same applies to the blue pixel. . On the other hand, the number of surrounding green pixels closest to the green pixel that is the virtual imaging pixel is 7 in the former arrangement (horizontal direction 2, vertical direction 2, right diagonal direction 2, left diagonal direction 1), and the latter Since the arrangement is 6 (horizontal direction 2, vertical direction 2, left diagonal direction 2), the former arrangement is preferable in terms of image quality after pixel interpolation.

図4に示す撮像素子212では、焦点検出画素311に一対の光電変換部13,14を備える例を示したが、ひとつの焦点検出画素311内にひとつの光電変換部を備えるようにしてもよい。図20は、このような撮像素子212の部分拡大図であり、焦点検出画素313と焦点検出画素314は焦点検出画素311の一対の光電変換部13,14のおのおのに対応した光電変換部をそれぞれ備える。図20に示す焦点検出画素313と焦点検出画素314のペアが、図4に示す焦点検出画素311に相当した機能を果たす。同じく図21は図18に示した撮像素子212の焦点検出画素311を焦点検出画素313と焦点検出画素314に置換した図である。図20、図21に示す焦点検出画素313、314においては、図9(b)と同様に光電変換部13,14の形状をマイクロレンズ10により前方に投影することにより、一対の測距瞳が形成される。   In the imaging device 212 illustrated in FIG. 4, the example in which the focus detection pixel 311 includes the pair of photoelectric conversion units 13 and 14 is illustrated. However, one focus detection pixel 311 may include one photoelectric conversion unit. . FIG. 20 is a partially enlarged view of such an image sensor 212. The focus detection pixel 313 and the focus detection pixel 314 are photoelectric conversion units corresponding to the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311, respectively. Prepare. A pair of the focus detection pixel 313 and the focus detection pixel 314 illustrated in FIG. 20 performs a function corresponding to the focus detection pixel 311 illustrated in FIG. Similarly, FIG. 21 is a diagram in which the focus detection pixel 311 of the image sensor 212 shown in FIG. 18 is replaced with a focus detection pixel 313 and a focus detection pixel 314. In the focus detection pixels 313 and 314 shown in FIGS. 20 and 21, the shape of the photoelectric conversion units 13 and 14 is projected forward by the microlens 10 in the same manner as in FIG. It is formed.

また焦点検出画素313、314を図22のように構成することも可能である。図22においては光電変換部15の形状をマイクロレンズ36により前方に投影する代わりに、光電変換部15の直前に配置された遮光マスク40の開口部43、44をマイクロレンズ36により前方に投影することにより、一対の測距瞳が形成される。この場合焦点検出画素313、314の光電変換部15はそれぞれ開口部43,44を通過した光束を受光することになる。   Further, the focus detection pixels 313 and 314 can be configured as shown in FIG. In FIG. 22, instead of projecting the shape of the photoelectric conversion unit 15 forward by the micro lens 36, the openings 43 and 44 of the light shielding mask 40 disposed immediately before the photoelectric conversion unit 15 are projected forward by the micro lens 36. Thus, a pair of distance measuring pupils is formed. In this case, the photoelectric conversion units 15 of the focus detection pixels 313 and 314 receive the light beams that have passed through the openings 43 and 44, respectively.

図20、図21に示した撮像素子212においても、焦点検出画素位置における撮像画素データを、図17で説明した思想に基づいて補間処理により求めることが可能である。ただし図20、図21においては一対となるべき光電変換部の一方しか各焦点検出画素に備えられていないので、点像判定評価値Pを求める際のP1=A1+A2の演算においてA1,A2の一方は焦点検出画素の光電変換部のデータを用いるとともに、もう一方は該焦点検出画素を挟む2つの焦点検出画素の光電変換部のデータを平均したものを用いる。   In the image sensor 212 shown in FIGS. 20 and 21, the image pixel data at the focus detection pixel position can be obtained by interpolation processing based on the concept described in FIG. 17. However, in FIGS. 20 and 21, only one of the photoelectric conversion units to be paired is provided in each focus detection pixel, and therefore one of A1 and A2 in the calculation of P1 = A1 + A2 when obtaining the point image determination evaluation value P Uses the data of the photoelectric conversion unit of the focus detection pixel, and the other uses the average of the data of the photoelectric conversion unit of the two focus detection pixels sandwiching the focus detection pixel.

上述した実施形態においては撮像素子212と光学系との間に光学要素を何も配置していないが、適宜必要な光学要素を挿入することが可能である。例えば赤外カットフィルターや光学的ローパスフィルターやハーフミラーなどを設置してもよい。   In the above-described embodiment, no optical element is disposed between the image sensor 212 and the optical system, but a necessary optical element can be appropriately inserted. For example, an infrared cut filter, an optical low-pass filter, a half mirror, or the like may be installed.

図4のような撮像素子212の構成の場合には、光学的ローパスフィルターの高周波カット効果が焦点検出画素311の並び方向と垂直な方向より焦点検出画素の並び方向に強く効くように光学的ローパスフィルターの特性を設定することによって、高周波成分を持った像が焦点検出画素311の間に入った場合の焦点検出精度に対する悪影響を緩和することができる。   In the case of the configuration of the image sensor 212 as shown in FIG. 4, an optical low-pass filter is used so that the high-frequency cut effect of the optical low-pass filter is more effective in the alignment direction of the focus detection pixels than in the direction perpendicular to the alignment direction of the focus detection pixels 311. By setting the characteristics of the filter, it is possible to mitigate adverse effects on the focus detection accuracy when an image having a high frequency component enters between the focus detection pixels 311.

上述した実施形態における撮像素子212では撮像画素310がベイヤー配列の色フィルターを備えた例を示したが、色フィルターの構成や配列はこれに限定されることはなく、補色フィルター(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列やベイヤー配列以外の配列にも本発明を適用することができる。また上述した実施形態における撮像素子212では焦点検出画素311、313、314に色フィルターを設けない例を示したが、撮像画素310と同色の色フィルターの内のひとつのフィルター(例えば緑フィルター)を設けるようにした場合でも、本発明を適用することができる。   In the imaging device 212 in the above-described embodiment, the imaging pixel 310 includes the Bayer color filter, but the configuration and arrangement of the color filter are not limited to this, and the complementary color filter (green: G, The present invention can also be applied to arrays other than yellow: Ye, magenta: Mg, cyan: Cy) and Bayer arrays. In the image sensor 212 in the above-described embodiment, the color filter is not provided in the focus detection pixels 311, 313, and 314. However, one of the color filters of the same color as the image pickup pixel 310 (for example, a green filter) is used. The present invention can be applied even when it is provided.

また、上述した実施形態における焦点検出画素311,313,314では、光電変換部の形状を矩形にした例を示したが、焦点検出画素311,313,314の光電変換部の形状はこれらに限定されず、他の形状であってもよく、例えば、半円形、楕円または多角形であっても良い。   Further, in the focus detection pixels 311, 313, and 314 in the above-described embodiment, an example in which the shape of the photoelectric conversion unit is rectangular is shown, but the shape of the photoelectric conversion unit of the focus detection pixels 311, 313, and 314 is limited to these. However, other shapes may be used, for example, a semicircle, an ellipse, or a polygon.

また、上述した実施形態における焦点検出画素211,313,314では、焦点検出画素311,313,314のサイズを撮像画素310の4個分のサイズ(水平方向2画素、垂直方向2画素)としているが、撮像画素310の4個分のサイズの領域に入るサイズであればこれより若干大きくても小さくても構わない。   In the focus detection pixels 211, 313, and 314 in the above-described embodiment, the size of the focus detection pixels 311, 313, and 314 is the size of four imaging pixels 310 (2 pixels in the horizontal direction and 2 pixels in the vertical direction). However, the size may be slightly larger or smaller than the size as long as the size fits in the region of the size of four of the imaging pixels 310.

なお、本発明に係る撮像装置としては、上述したようなカメラボディに交換レンズが装着される構成のデジタルスチルカメラやフィルムスチルカメラに限定されない。例えばレンズ一体型のデジタルスチルカメラまたはフィルムスチルカメラ、あるいはビデオカメラにも本発明を適用することができる。さらには、携帯電話などに内蔵される小型カメラモジュール、監視カメラやロボット用の視覚認識装置、車載カメラなどにも適用できる。   Note that the imaging apparatus according to the present invention is not limited to a digital still camera or a film still camera in which an interchangeable lens is mounted on the camera body as described above. For example, the present invention can be applied to a lens-integrated digital still camera, film still camera, or video camera. Furthermore, the present invention can be applied to a small camera module built in a mobile phone, a surveillance camera, a visual recognition device for a robot, an in-vehicle camera, and the like.

10、19 マイクロレンズ、11、13、14、15 光電変換部、29 半導体回路基板、30、31、32 平坦化層、33 色フィルター、34 NDフィルター、35 インナーレンズ、36 上層レンズ、40 遮光マスク、43、44 開口部、50、59、60 マイクロレンズ、51、53、54、63、64 光電変換部、71 撮影光束、73、74、83、84 焦点検出用光束、90 射出瞳、91 交換レンズの光軸、92 測距瞳に略外接する領域、93、94 測距瞳、100 撮影画面、101〜103、焦点検出エリア、110 撮像面、111 焦点検出画素、112 マイクロレンズ、113、114 光電変換部、120 測距瞳面、123、124 測距瞳、133、134 測距瞳分布、135 重畳部、201 デジタルスチルカメラ、202 交換レンズ、203 カメラボディ、204 マウント部、206 レンズ駆動制御装置、208 ズーミング用レンズ、209 レンズ、210 フォーカシング用レンズ、211 絞り、212 撮像素子、213 電気接点、214 ボディ駆動制御装置、215 液晶表示素子駆動回路、216 液晶表示素子、217 接眼レンズ、219 メモリカード、310 撮像画素、311、311a、311b、313、314 焦点検出画素 10, 19 Microlens, 11, 13, 14, 15 Photoelectric conversion unit, 29 Semiconductor circuit board, 30, 31, 32 Planarization layer, 33 color filter, 34 ND filter, 35 Inner lens, 36 Upper lens, 40 Light shielding mask , 43, 44 Aperture, 50, 59, 60 Microlens, 51, 53, 54, 63, 64 Photoelectric converter, 71 Imaging light beam, 73, 74, 83, 84 Focus detection light beam, 90 Exit pupil, 91 Exchange Optical axis of the lens, 92 Area that is substantially circumscribed by the distance measuring pupil, 93, 94 Distance pupil, 100 Shooting screen, 101 to 103, Focus detection area, 110 Imaging surface, 111 Focus detection pixel, 112 Micro lens, 113, 114 Photoelectric conversion unit, 120 Distance pupil plane, 123, 124 Distance pupil, 133, 134 Distance pupil distribution, 135 Superimposition unit, 20 Digital Still Camera, 202 Interchangeable Lens, 203 Camera Body, 204 Mount, 206 Lens Drive Control Device, 208 Zooming Lens, 209 Lens, 210 Focusing Lens, 211 Aperture, 212 Image Sensor, 213 Electrical Contact, 214 Body Drive Control Device, 215 liquid crystal display element driving circuit, 216 liquid crystal display element, 217 eyepiece, 219 memory card, 310 imaging pixel, 311 311a, 311b, 313, 314 focus detection pixel

Claims (12)

互いに異なる分光感度特性を有し、光学系を通過する光束が形成する像に対応する出力信号を生成する複数種類の撮像画素と、前記光学系を通過する一対の光束が形成する一対の像に対応した一対の出力信号を生成する複数の焦点検出画素とが2次元的に配置された撮像素子と、
前記一対の出力信号に基づいて、前記光学系の焦点調節状態を検出する焦点検出手段と、
前記複数の焦点検出画素の位置に前記複数種類の撮像画素を配置した場合に該複数種類の撮像画素が生成する出力信号を、前記複数の焦点検出画素の周囲に配置された前記複数種類の撮像用画素の出力信号に基づき補間することにより、補間値を生成する補間手段とを備え、
前記複数種類の撮像画素は所定の配置規則に従って配置され、
前記複数の焦点検出画素の各々は、前記複数種類の撮像画素の各々よりも大きく、前記撮像素子上、斜め方向に連続した配列に従って配置されることを特徴とする撮像装置。
A plurality of types of imaging pixels having different spectral sensitivity characteristics and generating an output signal corresponding to an image formed by a light beam passing through an optical system, and a pair of images formed by a pair of light beams passing through the optical system An imaging device in which a plurality of focus detection pixels that generate a corresponding pair of output signals are two-dimensionally arranged;
Focus detection means for detecting a focus adjustment state of the optical system based on the pair of output signals;
When the plurality of types of imaging pixels are arranged at the positions of the plurality of focus detection pixels, an output signal generated by the plurality of types of imaging pixels is output to the plurality of types of imaging arranged around the plurality of focus detection pixels. Interpolating means for generating an interpolation value by interpolating based on the output signal of the pixel for use,
The plurality of types of imaging pixels are arranged according to a predetermined arrangement rule,
Each of the plurality of focus detection pixels is larger than each of the plurality of types of imaging pixels and is arranged on the imaging element according to an array that is continuous in an oblique direction.
請求項1に記載の撮像装置において、
前記複数種類の撮像画素は正方格子を形成するように配置され、
前記複数の焦点検出画素の各々は、前記複数種類の撮像画素のうちの隣接する縦横2画素ずつで形成される4画素全体の大きさと略等しく、
前記斜め方向は、前記正方格子の対角方向であることを特徴とする撮像装置。
The imaging device according to claim 1,
The plurality of types of imaging pixels are arranged to form a square lattice,
Each of the plurality of focus detection pixels is substantially equal to the size of the entire four pixels formed by two adjacent vertical and horizontal pixels of the plurality of types of imaging pixels,
2. The imaging apparatus according to claim 1, wherein the oblique direction is a diagonal direction of the square lattice.
請求項1または2に記載の撮像装置において、
前記複数種類の撮像画素は赤画素、緑画素、青画素であるとともに、
前記所定の配置規則はベイヤー配列に基づく配置規則であることを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The plurality of types of imaging pixels are red pixels, green pixels, blue pixels,
The image pickup apparatus, wherein the predetermined arrangement rule is an arrangement rule based on a Bayer arrangement.
請求項3に記載の撮像装置において、
前記斜め方向は、前記複数の焦点検出画素の位置に前記複数種類の撮像画素を配置した場合に前記赤画素と前記青画素とが連続して配置される斜め方向であることを特徴とする撮像装置。
The imaging device according to claim 3.
The oblique direction is an oblique direction in which the red pixel and the blue pixel are continuously arranged when the plural types of imaging pixels are arranged at the positions of the plurality of focus detection pixels. apparatus.
請求項1〜4のいずれか1項に記載の撮像装置において、
前記複数の焦点検出画素の周囲に配置された前記複数種類の撮像画素の出力信号と前記複数の焦点検出画素の出力信号とに基づき前記複数の焦点検出画素の各々の位置に点像が存在するか否かを判定する点像判定手段をさらに備え、
前記補間手段は、前記複数の焦点検出画素の位置に前記所定の配置規則に従って前記複数種類の撮像画素を配置した場合に該複数種類の撮像画素の各々の前記補間値を、前記点像判定手段による判定結果に応じて前記複数の焦点検出画素の周囲に配置された前記複数種類の撮像画素の出力信号に基づき算出することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
A point image exists at each position of the plurality of focus detection pixels based on output signals of the plurality of types of imaging pixels arranged around the plurality of focus detection pixels and output signals of the plurality of focus detection pixels. Further comprising point image determination means for determining whether or not
When the plurality of types of imaging pixels are arranged at the positions of the plurality of focus detection pixels in accordance with the predetermined arrangement rule, the interpolation unit calculates the interpolation value of each of the plurality of types of imaging pixels as the point image determination unit. An image pickup apparatus that performs calculation based on output signals of the plurality of types of image pickup pixels arranged around the plurality of focus detection pixels in accordance with a determination result obtained by the method.
請求項5に記載の撮像装置において、
前記複数の焦点検出画素の周囲に配置された前記複数種類の撮像画素の出力信号に基づき前記複数の焦点検出画素の各々の近傍における像の連続性の高い方向を判定する方向判定手段をさらに備え、
前記補間手段は、前記補間値を、前記点像判定手段による判定結果と前記方向判定手段の判定結果とに応じて前記複数の焦点検出画素の周囲に配置された前記複数種類の撮像画素の出力信号と前記焦点検出画素の出力信号とに基づき算出することを特徴とする撮像装置。
The imaging apparatus according to claim 5,
Direction determining means is further provided for determining a direction in which the image is highly continuous in the vicinity of each of the plurality of focus detection pixels based on output signals of the plurality of types of imaging pixels arranged around the plurality of focus detection pixels. ,
The interpolation means outputs the interpolation values of the plurality of types of imaging pixels arranged around the plurality of focus detection pixels according to the determination result by the point image determination means and the determination result by the direction determination means. An image pickup apparatus that calculates based on a signal and an output signal of the focus detection pixel.
請求項1に記載の撮像装置において、
前記複数の焦点検出画素の各々の分光感度特性を示す波長領域は、可視光の全波長領域と略等しいことを特徴とする撮像装置。
The imaging device according to claim 1,
An imaging apparatus, wherein a wavelength region indicating spectral sensitivity characteristics of each of the plurality of focus detection pixels is substantially equal to the entire wavelength region of visible light.
請求項7に記載の撮像装置において、
前記複数の焦点検出画素の各々は、マイクロレンズと、光電変換部と、前記マイクロレンズへ入射した入射光の光量を前記入射光が前記光電変換部へ到達するまでの間に減衰させる減光手段とを備えることを特徴とする撮像装置。
The imaging apparatus according to claim 7,
Each of the plurality of focus detection pixels includes a microlens, a photoelectric conversion unit, and a dimming unit that attenuates the amount of incident light incident on the microlens until the incident light reaches the photoelectric conversion unit. An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記複数の焦点検出画素の各々は、第1のマイクロレンズと、第1の光電変換部と、第1のマイクロレンズと第1の光電変換部との間に配置されたインナーレンズとから構成され、
前記複数種類の撮像画素の各々は、第2のマイクロレンズと、第2の光電変換部とから構成され、
前記第1の光電変換部と前記第2の光電変換部とは同一平面上に配設されるとともに、
前記第1のマイクロレンズと前記第2のマイクロレンズとは略同一平面上に配設されることを特徴とする撮像装置。
The imaging device according to claim 1,
Each of the plurality of focus detection pixels includes a first microlens, a first photoelectric conversion unit, and an inner lens disposed between the first microlens and the first photoelectric conversion unit. ,
Each of the plurality of types of imaging pixels is composed of a second microlens and a second photoelectric conversion unit,
The first photoelectric conversion unit and the second photoelectric conversion unit are disposed on the same plane,
The image pickup apparatus, wherein the first microlens and the second microlens are arranged on substantially the same plane.
請求項1に記載の撮像装置において、
前記複数種類の撮像画素の各々は1つの光電変換部を備え、
前記複数の焦点検出画素の各々は一対の光電変換部を備え、
2次元的に配設された前記複数種類の撮像画素と前記複数の焦点検出画素とが備える複数の光電変換部に対して規則的に配線された信号線が、前記一対の光電変換部の周囲を迂回するように配線されることを特徴とする撮像装置。
The imaging device according to claim 1,
Each of the plurality of types of imaging pixels includes one photoelectric conversion unit,
Each of the plurality of focus detection pixels includes a pair of photoelectric conversion units,
Signal lines regularly wired to a plurality of photoelectric conversion units included in the plurality of types of imaging pixels and the focus detection pixels arranged two-dimensionally are around the pair of photoelectric conversion units. An image pickup apparatus that is wired so as to detour.
請求項1〜10に記載の撮像装置において、
撮像画素の最大長は7μmであることを特徴とする撮像装置。
The imaging device according to claim 1,
An imaging device, wherein the maximum length of the imaging pixel is 7 μm.
互いに異なる分光感度特性を有し、光学系を通過する光束が形成する像に対応する出力信号を生成する複数種類の撮像画素と、
焦点検出のため、前記光学系を通過する一対の光束が形成する一対の像に対応した一対の出力信号を生成する複数の焦点検出画素とを備え、
前記複数種類の撮像画素と前記複数の焦点検出画素とが2次元的に配置され、
前記複数種類の撮像画素は所定の配置規則に従って配置され、
前記複数の焦点検出画素の各々は、前記複数種類の撮像画素の各々よりも大きく、斜め方向に連続した配列に従って配置されることを特徴とする撮像素子。
A plurality of types of imaging pixels having different spectral sensitivity characteristics and generating an output signal corresponding to an image formed by a light beam passing through an optical system;
A plurality of focus detection pixels that generate a pair of output signals corresponding to a pair of images formed by a pair of light beams passing through the optical system for focus detection;
The plurality of types of imaging pixels and the plurality of focus detection pixels are two-dimensionally arranged,
The plurality of types of imaging pixels are arranged according to a predetermined arrangement rule,
Each of the plurality of focus detection pixels is larger than each of the plurality of types of imaging pixels, and is arranged according to an array that is continuous in an oblique direction.
JP2009022897A 2009-02-03 2009-02-03 Image-pickup device and imaging element Pending JP2010181485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009022897A JP2010181485A (en) 2009-02-03 2009-02-03 Image-pickup device and imaging element

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009022897A JP2010181485A (en) 2009-02-03 2009-02-03 Image-pickup device and imaging element

Publications (1)

Publication Number Publication Date
JP2010181485A true JP2010181485A (en) 2010-08-19

Family

ID=42763091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009022897A Pending JP2010181485A (en) 2009-02-03 2009-02-03 Image-pickup device and imaging element

Country Status (1)

Country Link
JP (1) JP2010181485A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066846A1 (en) * 2010-11-18 2012-05-24 富士フイルム株式会社 Solid-state image sensor and imaging device
JP2012113189A (en) * 2010-11-26 2012-06-14 Nikon Corp Imaging apparatus
WO2015046147A1 (en) * 2013-09-27 2015-04-02 オリンパス株式会社 Imaging device and image processing method
WO2015045914A1 (en) * 2013-09-25 2015-04-02 ソニー株式会社 Lens array, method for manufacturing same, solid imaging device, and electronic device
JP2016526294A (en) * 2013-05-21 2016-09-01 クラレト,ホルヘ ヴィセンテ ブラスコ Monolithic integration of plenoptic lenses on photosensor substrates
JP2016178341A (en) * 2016-06-15 2016-10-06 キヤノン株式会社 Imaging element and imaging device
WO2017077899A1 (en) * 2015-11-05 2017-05-11 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066846A1 (en) * 2010-11-18 2012-05-24 富士フイルム株式会社 Solid-state image sensor and imaging device
JP2012113189A (en) * 2010-11-26 2012-06-14 Nikon Corp Imaging apparatus
JP2016526294A (en) * 2013-05-21 2016-09-01 クラレト,ホルヘ ヴィセンテ ブラスコ Monolithic integration of plenoptic lenses on photosensor substrates
WO2015045914A1 (en) * 2013-09-25 2015-04-02 ソニー株式会社 Lens array, method for manufacturing same, solid imaging device, and electronic device
JP2015065268A (en) * 2013-09-25 2015-04-09 ソニー株式会社 Lens array and manufacturing method thereof, solid state image sensor and electronic apparatus
US10088608B2 (en) 2013-09-25 2018-10-02 Sony Corporation Lens array and manufacturing method therefor, solid-state imaging apparatus, and electronic apparatus
JP2015070432A (en) * 2013-09-27 2015-04-13 オリンパス株式会社 Imaging apparatus, image processing method and image processing program
WO2015046147A1 (en) * 2013-09-27 2015-04-02 オリンパス株式会社 Imaging device and image processing method
US9503661B2 (en) 2013-09-27 2016-11-22 Olympus Corporation Imaging apparatus and image processing method
WO2017077899A1 (en) * 2015-11-05 2017-05-11 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus
CN108352395A (en) * 2015-11-05 2018-07-31 索尼半导体解决方案公司 Solid-state imaging device and electronic equipment
US10469780B2 (en) 2015-11-05 2019-11-05 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus
US11838662B2 (en) 2015-11-05 2023-12-05 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus
CN108352395B (en) * 2015-11-05 2023-12-15 索尼半导体解决方案公司 Solid-state image pickup device and electronic apparatus
JP2016178341A (en) * 2016-06-15 2016-10-06 キヤノン株式会社 Imaging element and imaging device

Similar Documents

Publication Publication Date Title
JP5552214B2 (en) Focus detection device
JP5163068B2 (en) Imaging device
JP5092685B2 (en) Imaging device and imaging apparatus
JP5276371B2 (en) Imaging device
JP5045350B2 (en) Imaging device and imaging apparatus
JP5322561B2 (en) Imaging apparatus and control method thereof
JP5276374B2 (en) Focus detection device
JP5159700B2 (en) Optical apparatus and focus detection method
JP5217880B2 (en) Imaging device
JP5895355B2 (en) Imaging device
JP5762002B2 (en) Imaging device
JP2009244862A (en) Focus detection device and imaging apparatus having the same
JP4858529B2 (en) Imaging device and imaging apparatus
JP2011101325A (en) Image capturing apparatus
JP2009128892A (en) Imaging sensor and image-capturing device
JP5211590B2 (en) Image sensor and focus detection apparatus
JP2008224801A (en) Focus detector and imaging apparatus
JP2010181485A (en) Image-pickup device and imaging element
JP2008177903A (en) Imaging device
JP5067148B2 (en) Imaging device, focus detection device, and imaging device
JP5609098B2 (en) Imaging device
JP5278123B2 (en) Imaging device
JP2012220790A (en) Imaging apparatus
JP2011227388A (en) Imaging device
JP5962830B2 (en) Focus detection device