JP2008040087A - Imaging device, imaging apparatus and focus detecting device - Google Patents

Imaging device, imaging apparatus and focus detecting device Download PDF

Info

Publication number
JP2008040087A
JP2008040087A JP2006213438A JP2006213438A JP2008040087A JP 2008040087 A JP2008040087 A JP 2008040087A JP 2006213438 A JP2006213438 A JP 2006213438A JP 2006213438 A JP2006213438 A JP 2006213438A JP 2008040087 A JP2008040087 A JP 2008040087A
Authority
JP
Japan
Prior art keywords
imaging
pixel
pixels
focus detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006213438A
Other languages
Japanese (ja)
Other versions
JP5133533B2 (en
JP2008040087A5 (en
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006213438A priority Critical patent/JP5133533B2/en
Publication of JP2008040087A publication Critical patent/JP2008040087A/en
Publication of JP2008040087A5 publication Critical patent/JP2008040087A5/ja
Application granted granted Critical
Publication of JP5133533B2 publication Critical patent/JP5133533B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately reproduce image data located on the positions of focus detection pixels. <P>SOLUTION: An imaging device is disclosed in which a plurality of kinds of imaging devices 310a, 310b and 310c having different spectral sensitivity characteristics are two-dimensionally and regularly arrayed to image an image formed by an optical system, the imaging device is characterized in that among the imaging devices, the imaging devices 311a and 311b arranged along the prescribed direction are configured as the focus detection pixels, and that in the regular array, the imaging pixels and the focus detection pixels are arrayed in a coexistent manner on the pixel array in the prescribed direction so that the imaging pixel having the same spectral sensitivity characteristics as that of the imaging pixel located in the position of the focus detection pixel may be arranged between the plurality of focus detection pixels. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は撮像素子、撮像装置および焦点検出装置に関する。   The present invention relates to an imaging element, an imaging apparatus, and a focus detection apparatus.

焦点検出用画素(以下、AF用画素という)を備えた撮像素子を用い、AF用画素の周辺の撮像用画素の画像データからAF用画素の画像データを補間して求めるようにしたカラー撮像装置が知られている(例えば、特許文献1参照)。   A color imaging apparatus that uses an imaging device having focus detection pixels (hereinafter referred to as AF pixels) and interpolates image data of AF pixels from image data of imaging pixels around the AF pixels. Is known (see, for example, Patent Document 1).

この出願の発明に関連する先行技術文献としては次のものがある。
特開2000−305010号公報
Prior art documents related to the invention of this application include the following.
JP 2000-305010 A

しかしながら、上述した従来のカラー撮像装置には次のような問題がある。
図30に示す撮像素子のAF用画素列上に、緑色成分あるいは青色成分が背景の緑色成分あるいは青色成分と異なる細線パターン(図中に破線で示す)402が重畳した場合には、上記(1)式と(2)式による画像データの補間ではAF用画素列上の画像データが背景と同じ色成分となってしまい、細線パターン402を画像データとして再現することができない。
また、細線パターンだけでなく、エッジパターンがAF用画素列上に重畳した場合には、従来の画像データ補間ではエッジパターンを忠実に再現できず、偽色などのノイズが発生する場合がある。
However, the above-described conventional color imaging device has the following problems.
When a thin line pattern 402 (shown by a broken line in the drawing) in which the green component or the blue component is different from the background green component or the blue component is superimposed on the AF pixel row of the image sensor shown in FIG. In the interpolation of the image data according to the equations (2) and (2), the image data on the AF pixel column has the same color component as the background, and the fine line pattern 402 cannot be reproduced as the image data.
Further, when not only the fine line pattern but also the edge pattern is superimposed on the AF pixel column, the edge pattern cannot be faithfully reproduced by the conventional image data interpolation, and noise such as false color may occur.

(1) 請求項1の発明は、分光感度特性の異なる複数種類の撮像用画素を二次元状に規則的に配列し、光学系により結像される像を撮像する撮像素子であって、撮像用画素のうちの所定方向に沿った一部を焦点検出用画素として構成し、規則的な配列において焦点検出用画素の位置に位置する撮像用画素と同じ分光感度特性を有する撮像用画素が複数の焦点検出用画素の間に配置されるように、所定方向の画素配列上に撮像用画素と焦点検出用画素とを混在させて配置する。
(2) 請求項2の発明は、分光感度特性の異なる複数種類の撮像用画素を二次元状に規則的に配列し、光学系により結像される像を撮像する撮像素子であって、撮像用画素のうちの所定方向に沿った一部を焦点検出用画素として構成し、規則的な配列における所定方向の画素配列上の撮像用画素のすべての種類が複数の焦点検出用画素の間に配置されるように、所定方向の画素配列上に撮像用画素と焦点検出用画素とを混在させて配置する。
(3) 請求項3の撮像素子は、複数種類の撮像用画素を正方配列し、所定方向は正方配列の各辺または対角線の方向とする。
(4) 請求項4の撮像素子は、焦点検出用画素が光学系の射出瞳において所定方向に沿った異なる瞳部分を通る対の光束を受光する。
(5) 請求項5の撮像素子は、焦点検出用画素がマイクロレンズと光電変換部を備え、マイクロレンズに関して光電変換部と光学系の射出瞳とが共役である。
(6) 請求項6の撮像素子は、焦点検出用画素が対の光電変換部を備え、各光電変換部により光学系の異なる瞳部分を通る対の光束をそれぞれ受光する。
(7) 請求項7の撮像素子は、焦点検出用画素が光電変換部により光学系の異なる瞳部分を通る対の光束の一方を受光する。
(8) 請求項8の撮像素子は、光学系の異なる瞳部分を通る対の光束をそれぞれ受光する対の焦点検出用画素が複数対配置される。
(9) 請求項9の撮像素子は、焦点検出用画素が撮像用画素と異なる分光感度特性を有する。
(10) 請求項10の撮像素子は、焦点検出用画素が、規則的な配列において焦点検出用画素の位置に位置する撮像用画素と同じ分光感度特性を有する。
(11) 請求項11の撮像素子は、RGBのそれぞれを受光する3種類の撮像用画素を備える。
(12) 請求項12の撮像素子は、RGBのそれぞれを受光する3種類の撮像用画素をベイヤー配列する。
(13) 請求項13の撮像素子は、撮像用画素がマイクロレンズと光電変換部を備え、マイクロレンズに関して光電変換部と光学系の射出瞳とが共役である。
(14) 請求項14の撮像素子は、撮像用画素のマイクロレンズの光学特性と、焦点検出用画素のマイクロレンズの光学特性とを異ならせる。
(15) 請求項15の焦点検出装置は、請求項1〜14のいずれか1項に記載の撮像素子と、撮像素子の焦点検出用画素の出力データに基づいて光学系の焦点調節状態を検出する焦点検出手段とを備える。
(16) 請求項16の撮像装置は、請求項1〜14のいずれか1項に記載の撮像素子と、撮像素子の焦点検出用画素の近傍の撮像用画素の出力データに基づいて、焦点検出用画素の位置の画像データを補間演算する補間演算手段とを備える。
(1) The invention of claim 1 is an imaging device that regularly arranges a plurality of types of imaging pixels having different spectral sensitivity characteristics in a two-dimensional manner and images an image formed by an optical system. A plurality of pixels for imaging along the predetermined direction are configured as focus detection pixels, and there are a plurality of imaging pixels having the same spectral sensitivity characteristics as the imaging pixels located at the positions of the focus detection pixels in a regular arrangement The imaging pixels and the focus detection pixels are mixedly arranged on the pixel array in a predetermined direction so as to be arranged between the focus detection pixels.
(2) An invention according to claim 2 is an image pickup device for picking up an image formed by an optical system by regularly arranging two or more types of image pickup pixels having different spectral sensitivity characteristics in two dimensions. A part of the pixels for detection along the predetermined direction is configured as a focus detection pixel, and all types of imaging pixels on the pixel array in the predetermined direction in the regular array are arranged between the plurality of focus detection pixels. In order to be arranged, the imaging pixels and the focus detection pixels are mixedly arranged on the pixel array in a predetermined direction.
(3) In the image pickup device according to the third aspect, a plurality of types of imaging pixels are arranged in a square, and the predetermined direction is a direction of each side or diagonal line of the square arrangement.
(4) In the image pickup device according to the fourth aspect, the focus detection pixels receive a pair of light fluxes passing through different pupil portions along a predetermined direction in the exit pupil of the optical system.
(5) In the imaging device according to the fifth aspect, the focus detection pixel includes a microlens and a photoelectric conversion unit, and the photoelectric conversion unit and the exit pupil of the optical system are conjugate with respect to the microlens.
(6) In the image pickup device according to the sixth aspect, the focus detection pixel includes a pair of photoelectric conversion units, and each photoelectric conversion unit receives a pair of light fluxes passing through different pupil portions of the optical system.
(7) In the imaging device according to the seventh aspect, the focus detection pixel receives one of a pair of light beams passing through different pupil portions of the optical system by the photoelectric conversion unit.
(8) In the image pickup device according to the eighth aspect, a plurality of pairs of focus detection pixels that respectively receive a pair of light beams passing through different pupil portions of the optical system are arranged.
(9) In the image pickup device according to the ninth aspect, the focus detection pixels have different spectral sensitivity characteristics from the image pickup pixels.
(10) In the image pickup device according to the tenth aspect, the focus detection pixels have the same spectral sensitivity characteristics as the image pickup pixels located at the positions of the focus detection pixels in a regular arrangement.
(11) The imaging device according to an eleventh aspect includes three types of imaging pixels that receive RGB light.
(12) The image pickup device according to the twelfth aspect includes a Bayer array of three types of image pickup pixels that receive RGB.
(13) In the imaging device according to the thirteenth aspect, the imaging pixel includes a microlens and a photoelectric conversion unit, and the photoelectric conversion unit and the exit pupil of the optical system are conjugate with respect to the microlens.
(14) The image pickup device according to the fourteenth aspect makes the optical characteristics of the microlens of the imaging pixel different from the optical characteristics of the microlens of the focus detection pixel.
(15) A focus detection apparatus according to a fifteenth aspect detects a focus adjustment state of an optical system based on the image sensor according to any one of claims 1 to 14 and output data of focus detection pixels of the image sensor. And a focus detection means.
(16) An image pickup apparatus according to a sixteenth aspect is based on the image pickup element according to any one of the first to fourteenth aspects and output data of an image pickup pixel in the vicinity of the focus detection pixel of the image pickup element. Interpolating means for interpolating the image data at the pixel position.

本発明によれば、焦点検出用画素の位置の画像データを正確に再現して画像品質の劣化を防止することができる。   According to the present invention, it is possible to accurately reproduce the image data at the position of the focus detection pixel and prevent deterioration of the image quality.

本願発明の一実施の形態による撮像素子を、デジタルスチルカメラに適用した一実施の形態を説明する。図1は一実施の形態の構成を示す。一実施の形態のデジタルスチルカメラ201は交換レンズ202とカメラボディ203から構成され、交換レンズ202はマウント部204によりカメラボディ203に装着される。   An embodiment in which an image sensor according to an embodiment of the present invention is applied to a digital still camera will be described. FIG. 1 shows the configuration of an embodiment. A digital still camera 201 according to an embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 by a mount unit 204.

交換レンズ202はレンズ駆動制御装置206、ズーミング用レンズ208、レンズ209、フォーカシング用レンズ210、絞り211などを備えている。レンズ駆動制御装置206は、マイクロコンピューターとメモリなどの周辺部品から成り、フォーカシング用レンズ210と絞り211の駆動制御、絞り211、ズーミング用レンズ208およびフォーカシング用レンズ210の状態検出、後述するボディ駆動制御装置214に対するレンズ情報の送信とカメラ情報の受信などを行う。   The interchangeable lens 202 includes a lens drive control device 206, a zooming lens 208, a lens 209, a focusing lens 210, a diaphragm 211, and the like. The lens drive control device 206 includes peripheral components such as a microcomputer and a memory. The lens drive control device 206 controls driving of the focusing lens 210 and the aperture 211, detects the state of the aperture 211, the zooming lens 208 and the focusing lens 210, and body drive control described later. Transmission of lens information to the device 214 and reception of camera information are performed.

カメラボディ203は撮像素子212、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219などを備えている。撮像素子212には後述する画素が二次元状に配列されており、交換レンズ202の予定結像面に配置されて交換レンズ202により結像される被写体像を撮像する。なお、詳細を後述するが撮像素子212の所定の焦点検出位置には焦点検出用画素(以下、AF用画素という)が配列される。   The camera body 203 includes an imaging element 212, a body drive control device 214, a liquid crystal display element drive circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, and the like. Pixels, which will be described later, are arranged in a two-dimensional manner on the imaging element 212, and are arranged on the planned imaging plane of the interchangeable lens 202 to capture a subject image formed by the interchangeable lens 202. Although details will be described later, focus detection pixels (hereinafter referred to as AF pixels) are arranged at predetermined focus detection positions of the image sensor 212.

ボディ駆動制御装置214はマイクロコンピューターとメモリなどの周辺部品から構成され、撮像素子212からの画像信号の読み出し、画像信号の補正、交換レンズ202の焦点調節状態の検出、レンズ駆動制御装置206からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、ディジタルスチルカメラ全体の動作制御などを行う。ボディ駆動制御装置214とレンズ駆動制御装置206は、マウント部204の電気接点部213を介して通信を行い、各種情報の授受を行う。   The body drive control device 214 includes a microcomputer and peripheral components such as a memory. The body drive control device 214 reads the image signal from the image sensor 212, corrects the image signal, detects the focus adjustment state of the interchangeable lens 202, and outputs from the lens drive control device 206. It receives lens information, transmits camera information (defocus amount), and controls the operation of the entire digital still camera. The body drive control device 214 and the lens drive control device 206 communicate via the electrical contact portion 213 of the mount portion 204 to exchange various information.

液晶表示素子駆動回路215は、液晶ビューファインダー(EVF:電気的ビューファインダー)の液晶表示素子216を駆動する。撮影者は接眼レンズ217を介して液晶表示素子216に表示された像を観察することができる。メモリカード219はカメラボディ203に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。   The liquid crystal display element driving circuit 215 drives a liquid crystal display element 216 of a liquid crystal viewfinder (EVF: electrical viewfinder). The photographer can observe an image displayed on the liquid crystal display element 216 via the eyepiece lens 217. The memory card 219 is removable from the camera body 203 and is a portable storage medium that stores and stores image signals.

交換レンズ202を通過して撮像素子212上に形成された被写体像は、撮像素子212により光電変換され、その出力はボディ駆動制御装置214へ送られる。ボディ駆動制御装置214は、撮像素子212上のAF用画素の出力データに基づいて所定の焦点検出位置におけるデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像素子212の出力に基づいて生成した画像信号をメモリカード219に格納するとともに、画像信号を液晶表示素子駆動回路215へ送り、液晶表示素子216に画像を表示させる。   The subject image formed on the image sensor 212 through the interchangeable lens 202 is photoelectrically converted by the image sensor 212 and the output is sent to the body drive controller 214. The body drive control device 214 calculates the defocus amount at a predetermined focus detection position based on the output data of the AF pixels on the image sensor 212 and sends this defocus amount to the lens drive control device 206. The body drive control device 214 stores an image signal generated based on the output of the image sensor 212 in the memory card 219 and sends the image signal to the liquid crystal display element drive circuit 215 to display an image on the liquid crystal display element 216. Let

カメラボディ203には不図示の操作部材(シャッターボタン、焦点検出位置の設定部材など)が設けられており、これらの操作部材からの操作状態信号をボディ駆動制御装置214が検出し、検出結果に応じた動作(撮像動作、焦点検出位置の設定動作、画像処理動作)の制御を行う。   The camera body 203 is provided with operation members (not shown) (shutter buttons, focus detection position setting members, etc.), and the body drive control device 214 detects operation state signals from these operation members. The corresponding operations (imaging operation, focus detection position setting operation, image processing operation) are controlled.

レンズ駆動制御装置206はレンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ駆動制御装置206は、レンズ208、210の位置と絞り211の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、このレンズ駆動量に基づいてフォーカシングレンズ210を不図示のモーター等の駆動源により合焦点へと駆動する。   The lens drive control device 206 changes the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the lens drive control device 206 monitors the positions of the lenses 208 and 210 and the diaphragm position of the diaphragm 211, calculates lens information according to the monitor information, or monitors from a lookup table prepared in advance. Select lens information according to the information. The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to a focal point by a drive source such as a motor (not shown) based on the lens drive amount.

図2は撮影画面上における焦点検出位置を示す。撮影画面100の5カ所に焦点検出エリア101〜105が配置される。これらの焦点検出エリア101〜105は、後述する撮像素子212のAF用画素が撮影画面100上で被写体像をサンプリングする領域を示し、長方形で示した焦点検出エリア101〜105の長手方向にAF用画素が直線的に配列される。撮影者は、複数の焦点検出エリア101〜105の中から撮影構図に応じて焦点検出エリア選択操作部材(不図示)により焦点検出エリアを手動で選択する。   FIG. 2 shows a focus detection position on the photographing screen. Focus detection areas 101 to 105 are arranged at five locations on the photographing screen 100. These focus detection areas 101 to 105 indicate areas in which AF pixels of the image sensor 212 (to be described later) sample subject images on the photographing screen 100, and are used for AF in the longitudinal direction of the focus detection areas 101 to 105 indicated by rectangles. Pixels are arranged linearly. The photographer manually selects a focus detection area from a plurality of focus detection areas 101 to 105 by a focus detection area selection operation member (not shown) according to the shooting composition.

図3は撮像素子212の撮像用画素の配列を示す。撮像素子212の基板上に二次元的に配列する撮像用画素には、図3に示すようなベイヤー配列の色フィルタが設けられる。なお、図3には4画素分(2×2)の撮像用画素に対する色フィルタの配列を示すが、撮像素子212上には図3に示すベイヤー配列をもつ4画素分の撮像用画素ユニットが二次元状に配置される。ベイヤー配列においては、緑色フィルタ(G)の2画素が対角線上に配置され、青色フィルタ(B)と赤色フィルタ(R)が1画素ずつ対角線上に配置される。ベイヤー配列では緑画素の密度が赤画素および青画素の密度より高い。   FIG. 3 shows an array of imaging pixels of the image sensor 212. The imaging pixels that are two-dimensionally arranged on the substrate of the imaging element 212 are provided with a Bayer array color filter as shown in FIG. 3 shows an arrangement of color filters for four pixels (2 × 2) of image pickup pixels. On the image pickup element 212, there are four pixel image pickup pixel units having the Bayer arrangement shown in FIG. Arranged in two dimensions. In the Bayer array, two pixels of the green filter (G) are arranged on a diagonal line, and a blue filter (B) and a red filter (R) are arranged on the diagonal line one pixel at a time. In the Bayer array, the density of green pixels is higher than the density of red pixels and blue pixels.

図8に、撮像素子212の撮像用緑画素、撮像用赤画素および撮像用青画素の分光特性を示す。この分光特性は、図3に示す各色フィルタの分光感度、光電変換を行うフォトダイオード(不図示)の分光感度、および赤外カットフィルタ(不図示)の分光特性を総合した分光特性であり、緑画素、赤画素、青画素は色分解を行うためにそれぞれの感度が異なる光波長領域(異なる分光感度を有する)となっている。特に、緑画素の分光特性は、図10に示すように比視感度のピークに近い感度を有する。   FIG. 8 shows spectral characteristics of the imaging green pixel, imaging red pixel, and imaging blue pixel of the imaging device 212. This spectral characteristic is a spectral characteristic that combines the spectral sensitivity of each color filter shown in FIG. 3, the spectral sensitivity of a photodiode (not shown) that performs photoelectric conversion, and the spectral characteristic of an infrared cut filter (not shown). The pixels, red pixels, and blue pixels have different light wavelength regions (having different spectral sensitivities) in order to perform color separation. In particular, the spectral characteristic of the green pixel has a sensitivity close to the peak of relative luminous sensitivity as shown in FIG.

なお、AF用画素には光量をかせぐために色フィルタは配置されておらず、その分光特性は光電変換を行うフォトダイオード(不図示)の分光感度と、赤外カットフィルタ(不図示)の分光特性とを総合した図9に示す分光特性となる。このAF用画素の分光特性は、図8に示す緑画素、赤画素および青画素の分光特性を加算したような分光特性となり、その感度の光波長領域は緑画素、赤画素および青画素の感度の光波長領域を包括している。   Note that a color filter is not disposed in the AF pixel to increase the amount of light, and the spectral characteristics thereof are the spectral sensitivity of a photodiode (not shown) that performs photoelectric conversion and the spectral characteristic of an infrared cut filter (not shown). The spectral characteristics shown in FIG. The spectral characteristic of the AF pixel is a spectral characteristic obtained by adding the spectral characteristics of the green pixel, red pixel, and blue pixel shown in FIG. 8, and the light wavelength region of the sensitivity is the sensitivity of the green pixel, red pixel, and blue pixel. It covers the optical wavelength region.

図5は撮像素子212の詳細な構成を示す正面図である。なお、図5では撮像素子212上のひとつの焦点検出エリア近傍を拡大して示す。撮像素子212は撮像用画素(緑画素310a、青画素310b、赤画素310c)と、AF用画素(緑画素を置換したAF用画素311a、青画素を置換したAF用画素311b)とから構成される。図6に示すように、撮像用画素310a、310b、310cはマイクロレンズ10、光電変換部11および色フィルタ(不図示)を有する。また、図7に示すように、AF用画素311a、311bはマイクロレンズ10と一対の光電変換部12,13を有する。   FIG. 5 is a front view showing a detailed configuration of the image sensor 212. In FIG. 5, the vicinity of one focus detection area on the image sensor 212 is shown enlarged. The image sensor 212 includes imaging pixels (green pixel 310a, blue pixel 310b, red pixel 310c) and AF pixels (AF pixel 311a replacing the green pixel and AF pixel 311b replacing the blue pixel). The As shown in FIG. 6, the imaging pixels 310a, 310b, and 310c include a microlens 10, a photoelectric conversion unit 11, and a color filter (not shown). As shown in FIG. 7, the AF pixels 311 a and 311 b include a microlens 10 and a pair of photoelectric conversion units 12 and 13.

撮像用画素310a、310b、310cの光電変換部11は、マイクロレンズ10によって明るい交換レンズの射出瞳(たとえばF1.0)を通過する光束をすべて受光するような形状に設計される。AF用画素311a、311bの一対の光電変換部12、13は、マイクロレンズ10によって交換レンズの特定の射出瞳(たとえばF2.8)を通過する光束をすべて受光するような形状に設計される。   The photoelectric conversion unit 11 of the imaging pixels 310a, 310b, and 310c is designed so as to receive all the light beams that pass through the exit pupil (for example, F1.0) of the bright interchangeable lens by the microlens 10. The pair of photoelectric conversion units 12 and 13 of the AF pixels 311a and 311b are designed in such a shape that the microlens 10 receives all the light beams that pass through a specific exit pupil (for example, F2.8) of the interchangeable lens.

図5に示すように、二次元状に配置された撮像用画素310a、310b、310cはRGBのベイヤー配列の色フィルタが備えられる。AF用画素311a、311bは、撮像用画素の緑画素310aと青画素310bが配置されるべき行(列)に直線上に配置され、AF用画素311a、311bの間は2画素分離れており、そこには緑画素310aと青画素310bが1つずつ配置されている。   As shown in FIG. 5, the imaging pixels 310a, 310b, and 310c arranged two-dimensionally are provided with RGB Bayer color filters. The AF pixels 311a and 311b are arranged on a straight line in a row (column) where the green pixels 310a and the blue pixels 310b of the imaging pixels are to be arranged, and the AF pixels 311a and 311b are separated by two pixels. , One green pixel 310a and one blue pixel 310b are arranged there.

AF用画素311a、311bを撮像用画素の緑画素310aと青画素310bが配置されるべき行(列)に配置することによって、後述する画素補間によりAF用画素311の位置の画素信号を補間する場合に多少誤差が生じても人間の眼には目立たなくすることができる。この理由は、人間の目は青より赤に敏感であることと、緑画素の密度が青画素と赤画素より高いので緑画素の1画素の欠陥に対する画像劣化への寄与が小さいからである。   By arranging the AF pixels 311a and 311b in the row (column) where the green pixels 310a and the blue pixels 310b of the imaging pixels are to be arranged, the pixel signal at the position of the AF pixel 311 is interpolated by pixel interpolation described later. Even if some errors occur, it can be made inconspicuous to the human eye. This is because the human eye is more sensitive to red than blue and because the density of green pixels is higher than that of blue and red pixels, the contribution to image degradation for a single pixel defect of green pixels is small.

AF用画素311a、311bは焦点検出エリアの中に配列される。AF用画素311a、311bの間に緑画素310aと青画素310bを配置することによって、この緑画素310aと青画素310bの画像データをAF用画素311a、311bの位置の画像データを補間する際に利用することができ、AF用画素列の配列上にエッジや細線などの画像パターンが重畳した場合でも良好に画像データの補間を行うことができる。   The AF pixels 311a and 311b are arranged in the focus detection area. By arranging the green pixel 310a and the blue pixel 310b between the AF pixels 311a and 311b, the image data of the positions of the AF pixels 311a and 311b is interpolated between the image data of the green pixel 310a and the blue pixel 310b. The image data can be favorably interpolated even when an image pattern such as an edge or a thin line is superimposed on the array of AF pixel columns.

図11は撮像用画素310a、310b、310cの断面図である。撮像用画素310a、310b、310cにおいて、撮像用の光電変換部11の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部11が前方に投影される。光電変換部11は半導体回路基板29上に形成される。上述した色フィルタ(不図示)はマイクロレンズ10と光電変換部11の中間に配置される。   FIG. 11 is a cross-sectional view of the imaging pixels 310a, 310b, and 310c. In the imaging pixels 310 a, 310 b, and 310 c, the microlens 10 is disposed in front of the imaging photoelectric conversion unit 11, and the photoelectric conversion unit 11 is projected forward by the microlens 10. The photoelectric conversion unit 11 is formed on the semiconductor circuit substrate 29. The color filter (not shown) described above is disposed between the microlens 10 and the photoelectric conversion unit 11.

図12はAF用画素311a、311bの断面図である。AF用画素311a、311bにおいて、焦点検出用の光電変換部12、13の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部12、13が前方に投影される。光電変換部12、13は半導体回路基板29上に形成される。   FIG. 12 is a cross-sectional view of the AF pixels 311a and 311b. In the AF pixels 311a and 311b, the microlens 10 is disposed in front of the focus detection photoelectric conversion units 12 and 13, and the photoelectric conversion units 12 and 13 are projected forward by the microlens 10. The photoelectric conversion units 12 and 13 are formed on the semiconductor circuit substrate 29.

ここで、図13により瞳分割型位相差検出方式による焦点検出原理を説明する。図において、90は交換レンズの予定結像面に配置されたマイクロレンズの前方d4の距離に設定された射出瞳である。なお、距離d4は、マイクロレンズの曲率、屈折率およびマイクロレンズと光電変換部の間の距離などに応じて決まる距離であって、以下では測距瞳距離と呼ぶ。91は交換レンズの光軸、50、60はマイクロレンズ、52、53は焦点検出用画素の一対の光電変換部、61は撮像用画素の光電変換部、72、73は焦点検出光束、74は撮像光束である。また、92はマイクロレンズ50により投影された光電変換部52の領域(以下、測距瞳と呼ぶ)、93はマイクロレンズ50により投影された光電変換部53の領域(以下、測距瞳と呼ぶ)、94はマイクロレンズ60により投影された光電変換部61の領域(以下、測距瞳と呼ぶ)である。   Here, the principle of focus detection by the pupil division type phase difference detection method will be described with reference to FIG. In the figure, reference numeral 90 denotes an exit pupil set at a distance d4 in front of the microlens arranged on the planned imaging plane of the interchangeable lens. The distance d4 is a distance determined according to the curvature and refractive index of the microlens and the distance between the microlens and the photoelectric conversion unit, and is hereinafter referred to as a distance measuring pupil distance. 91 is an optical axis of the interchangeable lens, 50 and 60 are microlenses, 52 and 53 are a pair of photoelectric conversion units for focus detection pixels, 61 is a photoelectric conversion unit for imaging pixels, 72 and 73 are focus detection light fluxes, and 74 is This is the imaging light flux. Reference numeral 92 denotes a region of the photoelectric conversion unit 52 projected by the microlens 50 (hereinafter referred to as a ranging pupil), and reference numeral 93 denotes a region of the photoelectric conversion unit 53 projected by the microlens 50 (hereinafter referred to as a ranging pupil). , 94 is a region (hereinafter referred to as a distance measuring pupil) of the photoelectric conversion unit 61 projected by the micro lens 60.

図13においては、光軸91上にあるAF用画素(マイクロレンズ50と一対の光電変換部52、53を有する)と、隣接する撮像用画素(マイクロレンズ60と光電変換部61を有する)とを模式的に例示したが、その他のAF用画素においても、一対の光電変換部はそれぞれ一対の測距瞳92、93から各マイクロレンズに到来する光束を受光するとともに、その他の撮像用画素においても、光電変換部はそれぞれ一対の領域94から各マイクロレンズに到来する光束を受光する。AF用画素の配列方向は一対の測距瞳の並び方向と一致させる。   In FIG. 13, an AF pixel (having a microlens 50 and a pair of photoelectric conversion units 52 and 53) on an optical axis 91 and an adjacent imaging pixel (having a microlens 60 and a photoelectric conversion unit 61). In other AF pixels as well, the pair of photoelectric conversion units receive light beams coming from the pair of distance measuring pupils 92 and 93 to the microlenses, and in other imaging pixels. In addition, the photoelectric conversion units receive the light beams coming from the pair of regions 94 to the respective microlenses. The arrangement direction of the AF pixels is matched with the arrangement direction of the pair of distance measuring pupils.

マイクロレンズ50は光学系の予定結像面近傍に配置されており、光軸91上に配置されたマイクロレンズ50によりその背後に配置された一対の光電変換部52、53の形状がマイクロレンズ50から投影距離d4だけ離間した射出瞳90上に投影され、その投影形状は測距瞳92,93を形成する。すなわち、投影距離d4にある射出瞳90上で各焦点検出用画素の光電変換部の投影形状(測距瞳92,93)が一致するように、各画素の投影方向が決定されている。AF用画素において、マイクロレンズに関して光電変換部と交換レンズ(撮影光学系)の射出瞳とが共役である。   The microlens 50 is disposed in the vicinity of the planned imaging plane of the optical system, and the shape of the pair of photoelectric conversion units 52 and 53 disposed behind the microlens 50 disposed on the optical axis 91 is the microlens 50. Is projected onto the exit pupil 90 separated by the projection distance d4, and the projection shape forms distance measuring pupils 92 and 93. That is, the projection direction of each pixel is determined so that the projection shapes (ranging pupils 92 and 93) of the photoelectric conversion units of the focus detection pixels coincide on the exit pupil 90 at the projection distance d4. In the AF pixel, with respect to the microlens, the photoelectric conversion unit and the exit pupil of the interchangeable lens (imaging optical system) are conjugate.

光電変換部52は、測距瞳92を通過しマイクロレンズ50に向う焦点検出光束72によってマイクロレンズ50上に形成される像の強度に対応した信号を出力する。一方、光電変換部53は、測距瞳93を通過しマイクロレンズ50に向う焦点検出光束73によってマイクロレンズ50上に形成される像の強度に対応した信号を出力する。このようなAF用画素を直線状に多数配置し、各画素の一対の光電変換部の出力を測距瞳92および測距瞳93に対応した出力グループにまとめることによって、測距瞳92と測距瞳93を各々通過する焦点検出光束がAF用画素列上に形成する一対の像の強度分布に関する情報が得られる。   The photoelectric conversion unit 52 outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 72 that passes through the distance measuring pupil 92 and faces the microlens 50. On the other hand, the photoelectric conversion unit 53 outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 73 that passes through the distance measuring pupil 93 and faces the microlens 50. A large number of such AF pixels are arranged in a straight line, and the output of the pair of photoelectric conversion units of each pixel is collected into an output group corresponding to the distance measurement pupil 92 and the distance measurement pupil 93, thereby measuring the distance measurement pupil 92 and the measurement pupil 92. Information on the intensity distribution of a pair of images formed on the AF pixel row by the focus detection light beams that pass through the distance pupils 93 is obtained.

この情報に対して後述する像ズレ検出演算処理(相関処理、位相差検出処理)を施すことによって、いわゆる瞳分割方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に所定の変換係数を乗ずることによって、予定結像面に対する現在の結像面(予定結像面上のマイクロレンズアレイの位置に対応した焦点検出位置における結像面)の偏差(デフォーカス量)を算出することができる。   By applying an image shift detection calculation process (correlation process, phase difference detection process) to be described later to this information, the image shift amount of a pair of images is detected by a so-called pupil division method. Further, by multiplying the image shift amount by a predetermined conversion coefficient, the deviation of the current imaging plane (the imaging plane at the focus detection position corresponding to the position of the microlens array on the planned imaging plane) with respect to the planned imaging plane (Defocus amount) can be calculated.

マイクロレンズ60は光学系の予定結像面近傍に配置されており、マイクロレンズ60によりその背後に配置された光電変換部61の形状がマイクロレンズ60から投影距離d4だけ離間した射出瞳90上に投影され、その投影形状は領域94を形成する。すなわち、投影距離d4にある射出瞳90上で各撮像用画素の光電変換部の投影形状(領域94)が一致するように、各画素の投影方向が決定されている。光電変換部61は領域94を通過してマイクロレンズ60に向う撮影光束74によって、マイクロレンズ60上に形成される像の強度に対応した信号を出力する。   The microlens 60 is disposed in the vicinity of the planned imaging plane of the optical system, and the shape of the photoelectric conversion unit 61 disposed behind the microlens 60 is on the exit pupil 90 separated from the microlens 60 by the projection distance d4. The projected shape forms a region 94. That is, the projection direction of each pixel is determined so that the projection shape (region 94) of the photoelectric conversion unit of each imaging pixel matches on the exit pupil 90 at the projection distance d4. The photoelectric conversion unit 61 outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the imaging light flux 74 that passes through the region 94 and travels toward the microlens 60.

このような撮像用画素を二次元状に多数配置し、各画素の光電変換部の出力を検出することによって、画面上の像の二次元的な光強度分布に関する情報(画像データ)が得られる。   By arranging a large number of such imaging pixels two-dimensionally and detecting the output of the photoelectric conversion unit of each pixel, information (image data) relating to the two-dimensional light intensity distribution of the image on the screen can be obtained. .

図14は射出瞳面における投影関係を示す正面図である。マイクロレンズによりAF用画素の一対の光電変換部を射出瞳面90に投影した測距瞳92,93の外接円は、結像面から見た場合に所定の開口F値(測距瞳F値と称する。ここではF2.8)となる。また、マイクロレンズにより撮像用画素の光電変換部を射出瞳面90に投影した領域94は、測距瞳92、93を包含した広い領域となる。最も明るい絞り開口(F1)に対応した測距瞳面90上の領域は95、暗い絞り開口(F5.6)に対応した測距瞳面90上の領域は96である。   FIG. 14 is a front view showing a projection relationship on the exit pupil plane. The circumscribed circle of the distance measuring pupils 92 and 93 obtained by projecting a pair of photoelectric conversion units of the AF pixels onto the exit pupil plane 90 by the microlens is a predetermined aperture F value (ranging pupil F value) when viewed from the imaging plane. Here, it is F2.8). In addition, a region 94 in which the photoelectric conversion unit of the imaging pixel is projected onto the exit pupil plane 90 by the microlens is a wide region including the distance measuring pupils 92 and 93. The area on the distance measuring pupil plane 90 corresponding to the brightest aperture (F1) is 95, and the area on the distance measuring pupil plane 90 corresponding to the dark aperture (F5.6) is 96.

領域94は領域95、96よりも広い領域となっているので、撮像用画素の受光する光束は絞り開口により制限され、撮像用画素のデータは絞り開口値に応じて変化する。測距瞳92、93は領域95より狭く、領域96より広くなっている。そのため、絞り開口値がF2.8より明るい場合は、絞り開口値が変化してもAF用画素のデータは変化せず、絞り開口値がF2.8より暗い場合はAF用画素のデータは絞り開口値に応じて変化する。   Since the area 94 is wider than the areas 95 and 96, the light flux received by the imaging pixels is limited by the aperture, and the data of the imaging pixels changes according to the aperture value. The distance measuring pupils 92 and 93 are narrower than the region 95 and wider than the region 96. Therefore, if the aperture value is brighter than F2.8, the AF pixel data does not change even if the aperture value changes. If the aperture value is darker than F2.8, the AF pixel data does not change. Varies depending on the aperture value.

撮像用画素データ値/焦点検出用画素データ値を出力比係数(絞り開口値F2.8の時に1になるとして規格化)としてグラフ化すると、図15に示すように、開口値がF2.8より暗い場合には開口値に因らず一定値1であり、開口値がF2.8より明るい場合には開口値が明るくなるにつれて増大する。   When the imaging pixel data value / focus detection pixel data value is graphed as an output ratio coefficient (normalized as 1 when the aperture value is F2.8), the aperture value is F2.8 as shown in FIG. When the aperture value is darker, the constant value is 1 regardless of the aperture value. When the aperture value is brighter than F2.8, the aperture value increases as the aperture value becomes brighter.

図16は、一実施の形態のデジタルスチルカメラ(撮像装置)の動作を示すフローチャートである。ボディ駆動制御装置214は、カメラの電源が投入されている間、この動作を繰り返し実行する。ステップ100でカメラの電源がオンされるとステップ110へ進み、撮像用画素のデータを間引き読み出しし、電子ビューファインダーに表示させる。撮像用画素のデータを間引き読み出しする際には、AF用画素がなるべく含まれないような設定で間引き読み出しをすることによって、表示品質を向上させることができる。   FIG. 16 is a flowchart illustrating the operation of the digital still camera (imaging device) according to the embodiment. The body drive control device 214 repeatedly executes this operation while the camera is powered on. When the power of the camera is turned on in step 100, the process proceeds to step 110, where the data of the imaging pixels are read out and displayed on the electronic viewfinder. When thinning out and reading out the data of the imaging pixels, the display quality can be improved by performing the thinning out reading with a setting that does not include AF pixels as much as possible.

ステップ120ではAF用画素列からデータを読み出す。ここで、焦点検出エリアは不図示の選択操作部材を用いてユーザーにより選択されているものとする。次に、ステップ130で、AF用画素列に対応した一対の像データに基づいて像ズレ検出演算処理を行い、像ズレ量を演算し、さらにデフォーカス量を算出する。   In step 120, data is read from the AF pixel column. Here, it is assumed that the focus detection area is selected by the user using a selection operation member (not shown). Next, in step 130, an image shift detection calculation process is performed based on a pair of image data corresponding to the AF pixel row, an image shift amount is calculated, and a defocus amount is further calculated.

ここで、図17を参照して像ズレ検出演算処理(相関アルゴリズム)について説明する。あるAF用画素列に対応する一対のデータをそれぞれei,fi(ただしi=1〜m)とすると、まず次式に示す差分型相関アルゴリズムによって相関量C(L)を求める。
C(L)=Σ|e(i+L)−f(i)| ・・・(1)
(1)式において、Σはi=p〜qの総和演算を表す。また、Lは整数であり、一対のデータの検出ピッチを単位とした相対的シフト量である。また、Lのとる範囲はLmin〜Lmax(図では−5〜+5)である。さらに、パラメータiのとる範囲はpからqまでであり、1≦p<q≦mの条件を満足するように定められる。
Here, the image shift detection calculation process (correlation algorithm) will be described with reference to FIG. Assuming that a pair of data corresponding to a certain AF pixel column is ei, fi (where i = 1 to m), first, a correlation amount C (L) is obtained by a differential correlation algorithm expressed by the following equation.
C (L) = Σ | e (i + L) −f (i) | (1)
In the equation (1), Σ represents a total operation of i = p to q. L is an integer, and is a relative shift amount with the detection pitch of a pair of data as a unit. Further, the range of L is Lmin to Lmax (-5 to +5 in the figure). Further, the range of the parameter i is from p to q, and is determined so as to satisfy the condition of 1 ≦ p <q ≦ m.

(4)式の演算結果は、図17(a)に示すように、一対のデータの相関が高いシフト量L=kj(図17(a)ではkj=2)において相関量C(L)が最小になる。次に、(2)式〜(5)式による3点内挿の手法を用いて連続的な相関量に対する最小値C(L)min=C(x)を与えるシフト量xを求める。
x=kj+D/SLOP ・・・(2),
C(x)= C(kj)−|D| ・・・(3),
D={C(kj-1)−C(kj+1)}/2 ・・・(4),
SLOP=MAX{C(kj+1)−C(kj),C(kj-1)−C(kj)} ・・・(5)
また、(1)式で求めたシフト量xにより、被写体像面の予定結像面に対するデフォーカス量DEFを次式により求めることができる。
DEF=KX・PY・x ・・・(6)
(6)式において、PYは検出ピッチであり、KXは一対の測距瞳の重心の開き角の大きさによって決まる変換係数である。
As shown in FIG. 17A, the calculation result of the equation (4) shows that the correlation amount C (L) is obtained when the shift amount L = kj (kj = 2 in FIG. 17A) with a high correlation between a pair of data. Be minimized. Next, a shift amount x that gives a minimum value C (L) min = C (x) with respect to a continuous correlation amount is obtained using a three-point interpolation method according to equations (2) to (5).
x = kj + D / SLOP (2),
C (x) = C (kj) − | D | (3),
D = {C (kj-1) -C (kj + 1)} / 2 (4),
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (5)
In addition, the defocus amount DEF of the subject image plane with respect to the planned image formation plane can be obtained from the following equation using the shift amount x obtained by the equation (1).
DEF = KX · PY · x (6)
In Equation (6), PY is a detection pitch, and KX is a conversion coefficient determined by the size of the opening angle of the center of gravity of the pair of distance measuring pupils.

算出されたデフォーカス量DEFの信頼性があるかどうかは、以下のようにして判定される。図17(b)に示すように、一対のデータの相関度が低い場合は、内挿された相関量の最小値C(X)の値が大きくなる。したがって、C(X)が所定値以上の場合は信頼性が低いと判定する。あるいは、C(X)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(X)を除した値が所定値以上の場合は信頼性が低いと判定する。あるいはまた、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたデフォーカス量DEFの信頼性が低いと判定する。   Whether or not the calculated defocus amount DEF is reliable is determined as follows. As shown in FIG. 17B, when the degree of correlation between a pair of data is low, the value of the minimum value C (X) of the interpolated correlation amount is large. Therefore, when C (X) is equal to or greater than a predetermined value, it is determined that the reliability is low. Alternatively, in order to normalize C (X) with the contrast of data, it is determined that the reliability is low when the value obtained by dividing C (X) by SLOP which is a value proportional to the contrast is equal to or greater than a predetermined value. Alternatively, if SLOP that is proportional to the contrast is equal to or less than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated defocus amount DEF is low.

図17(c)に示すように、一対のデータの相関度が低く、シフト範囲Lmin〜Lmaxの間で相関量C(L)の落ち込みがない場合は、最小値C(X)を求めることができず、このような場合は焦点検出不能と判定する。焦点検出が可能であった場合には算出された像ズレ量に所定の変換係数を乗じてデフォーカス量を算出する。   As shown in FIG. 17C, when the correlation between the pair of data is low and there is no drop in the correlation amount C (L) between the shift ranges Lmin to Lmax, the minimum value C (X) is obtained. In such a case, it is determined that the focus cannot be detected. When focus detection is possible, the defocus amount is calculated by multiplying the calculated image shift amount by a predetermined conversion coefficient.

ステップ140において合焦近傍か否か、つまり算出されたデフォーカス量の絶対値が所定値以内であるかを調べる。合焦近傍でないと判定した場合はステップ150へ進み、デフォーカス量をレンズ駆動制御装置216へ送信し、交換レンズ202のフォーカシング用レンズ210をデフォーカス量に基づいて合焦位置に駆動させ、ステップ110へ戻って上述した動作を繰り返す。なお、焦点検出不能な場合もこのステップ150に分岐し、レンズ駆動制御装置216へスキャン駆動命令を送信し、交換レンズ202のフォーカシング用レンズ210を無限から至近間でスキャン駆動させ、ステップ110へ戻って上述した記動作を繰り返す。   In step 140, it is checked whether or not the focus is close, that is, whether the calculated absolute value of the defocus amount is within a predetermined value. If it is determined that the lens is not in focus, the process proceeds to step 150, the defocus amount is transmitted to the lens drive control device 216, and the focusing lens 210 of the interchangeable lens 202 is driven to the focus position based on the defocus amount. Returning to 110, the above-described operation is repeated. If the focus cannot be detected, the process branches to step 150, a scan drive command is transmitted to the lens drive control device 216, and the focusing lens 210 of the interchangeable lens 202 is driven to scan from infinity to close, and the process returns to step 110. Repeat the above operation.

一方、合焦近傍であると判定した場合はステップ160へ進み、シャッターボタン(不図示)の操作によりシャッターレリーズがなされたか否かを判定し、なされていないと判定された場合はステップ110へ戻って上述した動作を繰り返す。シャッターレリーズがなされたと判定された場合はステップ170へ進み、レンズ駆動制御装置216へ絞り調整命令を送信し、交換レンズ202の絞り値を制御F値(ユーザーまたは自動により設定されたF値)に設定する。絞り制御が終了した時点で、撮像素子212に撮像動作を行わせ、撮像素子212の撮像用画素および全てのAF用画素から画像データを読み出す。   On the other hand, if it is determined that the focus is close, the process proceeds to step 160, where it is determined whether or not a shutter release has been performed by operating a shutter button (not shown), and if it is determined that the shutter release has not been performed, the process returns to step 110. The above operation is repeated. If it is determined that the shutter release has been performed, the process proceeds to step 170, an aperture adjustment command is transmitted to the lens drive control device 216, and the aperture value of the interchangeable lens 202 is set to the control F value (the F value set by the user or automatically). Set. When the aperture control is completed, the image sensor 212 performs an image capturing operation, and image data is read from the image capturing pixels of the image sensor 212 and all the AF pixels.

ステップ180において、AF用画素列の各画素位置の画素データをAF用画素のデータおよび周囲の撮像用画素のデータに基づいて補間する。この補間処理については後述する。続くステップ190では撮像用画素のデータおよび補間されたデータからなる画像データをメモリーカードに保存し、ステップ110へ戻って上述した動作を繰り返す。   In step 180, the pixel data at each pixel position in the AF pixel column is interpolated based on the AF pixel data and the surrounding imaging pixel data. This interpolation process will be described later. In the next step 190, image data composed of the pixel data for imaging and the interpolated data is stored in the memory card, and the process returns to step 110 to repeat the above-described operation.

次に、画像データ補間処理について説明する。図18は、一実施の形態の図5に示す撮像素子212の模式的な構成を示す図である。緑画素G310a、青画素B310bおよび赤画素R310cがベイヤー配列されており、その一部の焦点検出エリアに対応する行に、AF用画素Aが一列に、間に2個の撮像用画素GとBを挟んで配置される。緑画素Gのあるべき位置にAF用画素A311aが、青画素Bのあるべき位置にAF用画素A311bが配置される。   Next, image data interpolation processing will be described. FIG. 18 is a diagram illustrating a schematic configuration of the image sensor 212 illustrated in FIG. 5 according to an embodiment. A green pixel G310a, a blue pixel B310b, and a red pixel R310c are arranged in a Bayer array. In a row corresponding to a part of the focus detection area, AF pixels A are arranged in a row, and two imaging pixels G and B in between. It is arranged across An AF pixel A311a is arranged at a position where the green pixel G should be, and an AF pixel A311b is arranged at a position where the blue pixel B should be.

図19は、一実施の形態の撮像素子212に対する画像データ補間処理を説明する図である。図において、撮像用画素の緑画素GのデータをGn、赤画素RのデータをRn、青画素BのデータをBn、焦点検出用画素AのデータをAn(n=1、2、・・・)とする。なお、特定画素に注目して補間処理を説明するが、緑画素の位置に配置されたすべてのAF用画素に対して同様な処理が施される。緑画素に配置されたAF用画素(データA1)の位置における画像データI(A1)は、次式により補間演算する。
I(A1)=(G2+G4+G5+G6+G7+G9+G11+G12)/8 ・・・(7)
(7)式のように画像データを補間演算することによって、AF用画素配列上にエッジや細線のような画像パターン400が重畳している場合でも、画像データG11、G12は画像パターン400を反映したデータとなっているので、良好な画像補間結果を得ることができる。
FIG. 19 is a diagram illustrating image data interpolation processing for the image sensor 212 according to the embodiment. In the figure, the green pixel G data of the imaging pixel is Gn, the red pixel R data is Rn, the blue pixel B data is Bn, and the focus detection pixel A data is An (n = 1, 2,... ). Note that although the interpolation process will be described by paying attention to a specific pixel, the same process is performed on all the AF pixels arranged at the position of the green pixel. The image data I (A1) at the position of the AF pixel (data A1) arranged in the green pixel is interpolated by the following equation.
I (A1) = (G2 + G4 + G5 + G6 + G7 + G9 + G11 + G12) / 8 (7)
The image data G11 and G12 reflect the image pattern 400 even when the image pattern 400 such as an edge or a thin line is superimposed on the AF pixel array by performing the interpolation calculation on the image data as in the equation (7). Therefore, a good image interpolation result can be obtained.

なお、統計処理してAF用画素の位置の画像データI(A1)を算出する手法としては、(7)式に示すような単純平均演算だけでなく、AF用画素に対して垂直な方向の周辺の複数箇所にある画素データを線形補間、2次以上の多次式で補間して求めたり、メジアン処理で求めてもよい。   As a method for calculating the image data I (A1) at the position of the AF pixel by performing statistical processing, not only a simple average calculation as shown in the equation (7) but also a direction perpendicular to the AF pixel. Pixel data at a plurality of peripheral positions may be obtained by linear interpolation, interpolation by a second-order or higher-order multi-order expression, or median processing.

また、画像データの補間演算に焦点検出用画素データA1を用いるようにしてもよい。
I(A1)={k1・(G2+G4+G5+G6+G7+G9+G11+G12)/8}+k2・ks・A1 ・・・(8)
(8)式において、係数ksは図15に示す出力比係数であり、撮像時の制御F値(絞りF値)に応じた出力比係数が選択される。また、係数k1、k2は周囲画素データより補間したデータとAF用画素データを混ぜ合わせる際の重み係数であり、k1+k2=1を満足する。AF用画素データA1はAF用画素の位置の輝度に対応したデータとなっているので、(8)式のように画像データの補間演算にAF用画素データA1を用いることによって、画像の高周波成分の再現性を向上させることができる。
Further, the focus detection pixel data A1 may be used for the interpolation calculation of the image data.
I (A1) = {k1 · (G2 + G4 + G5 + G6 + G7 + G9 + G11 + G12) / 8} + k2 · ks · A1 (8)
In the equation (8), the coefficient ks is an output ratio coefficient shown in FIG. 15, and an output ratio coefficient corresponding to a control F value (aperture F value) at the time of imaging is selected. The coefficients k1 and k2 are weighting coefficients when the data interpolated from the surrounding pixel data and the AF pixel data are mixed, and satisfy k1 + k2 = 1. Since the AF pixel data A1 is data corresponding to the luminance at the position of the AF pixel, the high-frequency component of the image is obtained by using the AF pixel data A1 for the interpolation calculation of the image data as shown in the equation (8). Reproducibility can be improved.

図20は、一実施の形態の撮像素子212に対する画像データ補間処理を説明する図である。図において、撮像用画素の緑画素のデータをGn、赤画素のデータをRn、青画素のデータをBn、AF用画素のデータをAn(n=1、2、・・・)とする。なお、以下の説明では特定画素に注目して補間処理を説明するが、青画素の位置に配置されたすべてのAF用画素に対して同様な処理が施される。青画素の位置に配置されたAF用画素(データA21)の位置における画像データI(A21)は、次式により補間演算する。
I(A21)=(B21+B22+B23+B24+B25+B26+B27+B28)/8 ・・・(9)
(9)式で画像データを補間することによって、AF用画素配列上にエッジや細線のような画像パターン400が重畳している場合でも、画像データB27、B28が画像パターン400を反映したデータとなり、良好な画像補間結果を求めることができる。
FIG. 20 is a diagram illustrating image data interpolation processing for the image sensor 212 according to one embodiment. In the figure, the green pixel data of the imaging pixel is Gn, the red pixel data is Rn, the blue pixel data is Bn, and the AF pixel data is An (n = 1, 2,...). In the following description, the interpolation process will be described by focusing on a specific pixel, but the same process is performed on all AF pixels arranged at the positions of the blue pixels. The image data I (A21) at the position of the AF pixel (data A21) arranged at the blue pixel position is interpolated by the following equation.
I (A21) = (B21 + B22 + B23 + B24 + B25 + B26 + B27 + B28) / 8 (9)
By interpolating the image data with the equation (9), even when the image pattern 400 such as an edge or a thin line is superimposed on the AF pixel array, the image data B27 and B28 become data reflecting the image pattern 400. A good image interpolation result can be obtained.

(9)式と同様に画像データの補間演算にAF用画素データA21を用いるようにしてもよい。
I(A21)={k1・(B21+B22+B23+B24+B25+B26+B27+B28)/8}+k2・ks・A21 ・・・(10)
Similarly to the equation (9), the AF pixel data A21 may be used for interpolation of image data.
I (A21) = {k1 · (B21 + B22 + B23 + B24 + B25 + B26 + B27 + B28) / 8} + k2 · ks · A21 (10)

《一実施の形態の変形例》
図21は変形例の撮像素子212Aの詳細な構成を示す正面図である。また、図22は撮像素子212Aの模式的な構成図である。図5に示す撮像素子212ではAF用画素311の間に2つの撮像用画素(緑画素と青画素)が配置されているのに対し、図21、図22ではAF用画素311の間に3つの撮像用画素(緑画素2個と青画素1個)が配置される。AF用画素311aは緑画素310aの位置に配置される。
<< Modification of Embodiment >>
FIG. 21 is a front view showing a detailed configuration of an imaging element 212A according to a modification. FIG. 22 is a schematic configuration diagram of the image sensor 212A. In the imaging device 212 shown in FIG. 5, two imaging pixels (green pixel and blue pixel) are arranged between the AF pixels 311, whereas in FIGS. 21 and 22, 3 between the AF pixels 311. Two imaging pixels (two green pixels and one blue pixel) are arranged. The AF pixel 311a is disposed at the position of the green pixel 310a.

図21、図22に示す撮像素子212Aの構成においても、(10)式、(11)式により緑画素の位置に配置されたAF用画素の画像データを補間演算することができる。この撮像素子212AではAF用画素が緑画素のみを置換して配置されるため、画像の青成分、赤成分はAF用画素の配置に影響されずに検出でき、画像の色再現性が向上する。   Also in the configuration of the image sensor 212A shown in FIGS. 21 and 22, the image data of the AF pixel arranged at the position of the green pixel can be interpolated by the equations (10) and (11). In this image sensor 212A, since the AF pixel is arranged by replacing only the green pixel, the blue component and the red component of the image can be detected without being affected by the arrangement of the AF pixel, and the color reproducibility of the image is improved. .

AF用画素の間隔をさらに広げることによって画像データの品質は更に向上するが、焦点検出精度の観点からはAF用画素の間隔は狭いほうが望ましいので、両者のバランスを考慮してAF用画素の間隔を決定することが肝要となるが、いずれにしてもAF用画素とAF用画素との間に画像データの補間演算に用いる撮像用画素を配置しておくことが最低限の必須要件となる。   Although the quality of the image data is further improved by further increasing the AF pixel interval, it is desirable that the AF pixel interval is narrow from the viewpoint of focus detection accuracy. However, in any case, it is a minimum essential requirement that an imaging pixel used for interpolation of image data is arranged between the AF pixel and the AF pixel.

図23は他の変形例の撮像素子212Bの詳細な構成を示す正面図である。また、図24は撮像素子212Bの模式的な構成を示す図である。図5に示す撮像素子212ではAF用画素311が水平方向(緑画素と青画素からなる行)に配置されていたが、図23、図24に示す撮像素子212BではAF用画素311cが斜め左上がり45度方向に配置される。AF用画素311は緑画素に置換して配置され、並び方向に1画素おきに配置されている。AF用画素311cは、図7に示すAF用画素311aを45度時計回りに回転したのと同様な光電変換部の構成を備えている。   FIG. 23 is a front view showing a detailed configuration of an image sensor 212B according to another modification. FIG. 24 is a diagram showing a schematic configuration of the image sensor 212B. In the image sensor 212 shown in FIG. 5, the AF pixels 311 are arranged in the horizontal direction (rows composed of green pixels and blue pixels). However, in the image sensor 212B shown in FIGS. 23 and 24, the AF pixels 311c are diagonally left. Arranged in the 45-degree direction. The AF pixels 311 are arranged in place of green pixels, and are arranged every other pixel in the arrangement direction. The AF pixel 311c has the same configuration of the photoelectric conversion unit as the AF pixel 311a shown in FIG. 7 is rotated 45 degrees clockwise.

図25は、図23、図24に示す撮像素子212Bに対する画像データ補間処理を説明する図である。図において、撮像用画素の緑画素GのデータをGn、赤画素RのデータをRn、青画素BのデータをBn、焦点検出用画素AのデータをAn(n=1、2、・・・)とする。なお、以下の説明では特定画素に注目して補間処理を説明するが、緑画素の位置に配置されたすべてのAF用画素に対して同様な処理が施される。緑画素の位置に配置されたAF用画素(データA2)の位置における画像データI(A2)は、次式により補間演算する。
I(A2)=(G1+G3+G4+G5+G6+G7+G8+G10)/8 ・・・(11)
(11)式で画像データを補間することによって、AF用画素配列上にエッジや細線のような画像パターン401が重畳している場合でも、画像データG3、G8が画像パターン400を反映したデータとなり、良好な画像補間結果を求めることができる。
FIG. 25 is a diagram illustrating image data interpolation processing for the image sensor 212B illustrated in FIGS. In the figure, the green pixel G data of the imaging pixel is Gn, the red pixel R data is Rn, the blue pixel B data is Bn, and the focus detection pixel A data is An (n = 1, 2,... ). In the following description, the interpolation process will be described by focusing on a specific pixel, but the same process is performed on all AF pixels arranged at the position of the green pixel. The image data I (A2) at the position of the AF pixel (data A2) arranged at the position of the green pixel is interpolated by the following equation.
I (A2) = (G1 + G3 + G4 + G5 + G6 + G7 + G8 + G10) / 8 (11)
By interpolating the image data with the equation (11), even when the image pattern 401 such as an edge or a thin line is superimposed on the AF pixel array, the image data G3 and G8 become data reflecting the image pattern 400. A good image interpolation result can be obtained.

また、画像データの補間にAF用画素データA2を用いて次式により演算してもよい。
I(A2)={k1・(G1+G3+G4+G5+G6+G7+G8+G10)/8}+k2・ks・A2 ・・・(12)
Alternatively, the image data may be interpolated using the AF pixel data A2 by the following equation.
I (A2) = {k1 · (G1 + G3 + G4 + G5 + G6 + G7 + G8 + G10) / 8} + k2 · ks · A2 (12)

図23、図24に示す撮像素子212BのAF用画素の配置では、AF用画素の間隔が図5に示すAF用画素の配置より狭くできるので、画像品質の向上とともに焦点検出精度の向上が期待できる。   In the AF pixel arrangement of the image sensor 212B shown in FIGS. 23 and 24, the AF pixel interval can be made narrower than the AF pixel arrangement shown in FIG. 5, so that improvement in image quality and focus detection accuracy are expected. it can.

図26は、他の変形例の撮像素子212Cの詳細な構成を示す正面図である。図5に示す撮像素子212、図21に示す変形例の撮像素子212A、および図23に示す他の変形例の撮像素子212Bでは、AF用画素311がひとつの画素内に一対の光電変換部を備えていたが、図26に示す撮像素子212Cでは、AF用画素313,314はひとつの画素内にひとつの光電変換部を備えている。図26において、AF用画素313とAF用画素314とが一対になっており、上述した撮像素子211、211A、211BのAF用画素311aに相当する。   FIG. 26 is a front view illustrating a detailed configuration of an imaging element 212C according to another modification. In the image sensor 212 shown in FIG. 5, the image sensor 212A of the modification shown in FIG. 21, and the image sensor 212B of the other modification shown in FIG. 23, the AF pixel 311 has a pair of photoelectric conversion units in one pixel. In the imaging device 212C shown in FIG. 26, the AF pixels 313 and 314 include one photoelectric conversion unit in one pixel. In FIG. 26, an AF pixel 313 and an AF pixel 314 are paired and correspond to the AF pixel 311a of the imaging elements 211, 211A, and 211B described above.

図27は、図26に示すAF用画素の構成を示す図である。(a)に示すように、AF用画素313はマイクロレンズ10と光電変換部16を備えている。また、(b)に示すように、焦点検出用画素314はマイクロレンズ10と光電変換部17を備えている。これらの光電変換部16、17はマイクロレンズ10により交換レンズの射出瞳に投影され、図14に示す測距瞳92、93を形成する。したがって、AF用画素313,314により焦点検出の用いる一対の像のデータを得ることができる。AF用画素内にひとつの光電変換部を備えることによって、撮像素子の読み出し回路構成の複雑化を防止することができる。   FIG. 27 is a diagram showing a configuration of the AF pixel shown in FIG. As shown in (a), the AF pixel 313 includes the microlens 10 and the photoelectric conversion unit 16. Further, as shown in (b), the focus detection pixel 314 includes the microlens 10 and the photoelectric conversion unit 17. These photoelectric conversion units 16 and 17 are projected onto the exit pupil of the interchangeable lens by the microlens 10 to form distance measuring pupils 92 and 93 shown in FIG. Therefore, a pair of image data used for focus detection can be obtained by the AF pixels 313 and 314. By providing one photoelectric conversion unit in the AF pixel, it is possible to prevent complication of the readout circuit configuration of the image sensor.

図28は、他の変形例の撮像素子212Dの詳細な構成を示す正面図である。この撮像素子212Dは、図21に示す撮像素子212AのAF用画素311aをAF用画素313とAF用画素314に置き換えたものである。   FIG. 28 is a front view showing a detailed configuration of an imaging element 212D of another modification. This image sensor 212D is obtained by replacing the AF pixel 311a of the image sensor 212A shown in FIG. 21 with an AF pixel 313 and an AF pixel 314.

図29は、他の変形例の撮像素子212Eの詳細な構成を示す図である。上述した撮像素子212〜212Dでは撮像用画素の配列をベイヤー配列とした例を示したが、この撮像素子212Eでは緑画素G、青画素B、赤画素Rが水平方向にGBGRの順番に並んだ配列を備えている。AF用画素Aは緑画素Gの位置に配置され、AF用画素とAF用画素との間には緑画素G、青画素B、赤画素Rの3画素を配置する。このような画素配置においても本発明を適用することができる。   FIG. 29 is a diagram illustrating a detailed configuration of an image sensor 212E according to another modification. In the imaging elements 212 to 212D described above, an example in which the array of imaging pixels is a Bayer array is shown. However, in this imaging element 212E, the green pixels G, blue pixels B, and red pixels R are arranged in the order of GBGR in the horizontal direction. It has an array. The AF pixel A is disposed at the position of the green pixel G, and three pixels of the green pixel G, the blue pixel B, and the red pixel R are disposed between the AF pixel and the AF pixel. The present invention can also be applied to such a pixel arrangement.

なお、上述した撮像素子212〜212Dでは、撮像用画素の色フィルターをベイヤー配列とした例を示したが、撮像用画素の色フィルタの構成や配列はこれに限定されることはない。例えば、図4に示すような補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)を採用してもよい。   In the imaging elements 212 to 212D described above, an example in which the color filters of the imaging pixels are arranged in a Bayer array is shown, but the configuration and arrangement of the color filters of the imaging pixels are not limited to this. For example, a complementary color filter (green: G, yellow: Ye, magenta: Mg, cyan: Cy) as shown in FIG. 4 may be employed.

また、上述した撮像素子212〜212EではAF用画素に色フィルタを設けない例を示したが、撮像用画素と同色の色フィルタの内、ひとつのフィルタ(たとえば緑フィルタ)を備えるようにした場合でも、本発明を適用することができる。このようにすれば、(11)式の補間演算による、緑画素の位置に配置されたAF用画素の画像データの補間精度が向上する。   In the above-described imaging elements 212 to 212E, an example in which a color filter is not provided for the AF pixel has been shown. However, in the case where one filter (for example, a green filter) is provided among the color filters of the same color as the imaging pixel. However, the present invention can be applied. In this way, the interpolation accuracy of the image data of the AF pixel arranged at the position of the green pixel is improved by the interpolation calculation of equation (11).

上述した撮像素子212〜212Eは、CCDイメージセンサやCMOSイメージセンサとして形成することができる。   The imaging elements 212 to 212E described above can be formed as a CCD image sensor or a CMOS image sensor.

上述した一実施の形態では、撮像用画素のマイクロレンズと焦点検出用画素のマイクロレンズとを同一の光学特性とする例を示したが、異なる光学特性としてもよい。これにより、撮影光学系の射出瞳距離を、撮像に最適な距離と、焦点検出に最適な距離とに別個に設定することができる。   In the above-described embodiment, an example in which the microlens of the imaging pixel and the microlens of the focus detection pixel have the same optical characteristics has been described. However, different optical characteristics may be used. Thereby, the exit pupil distance of the photographing optical system can be set separately to the optimum distance for imaging and the optimum distance for focus detection.

《撮像装置》
上述した一実施の形態では交換レンズがカメラボディに装着されたデジタルスチルカメラを例に上げて説明したが、撮像装置は交換レンズとカメラボディから構成されるデジタルスチルカメラに限定されず、例えばレンズ一体型のデジタルスチルカメラやビデオカメラにも適用することができる。また、携帯電話などに内蔵される小型カメラモジュールや監視カメラなどにも、本発明を適用することができる。
<< Imaging device >>
In the above-described embodiment, the digital still camera in which the interchangeable lens is mounted on the camera body has been described as an example. However, the imaging apparatus is not limited to the digital still camera including the interchangeable lens and the camera body. It can also be applied to an integrated digital still camera or video camera. The present invention can also be applied to a small camera module, a surveillance camera, or the like built in a mobile phone.

このように、一実施の形態によれば、焦点検出用画素の位置の画像データを補間する際に、焦点検出用画素の配列方向における撮像用画素の画像データを利用できるので、画像データの補間精度が向上し、画像品質の劣化を防止することができる。また、焦点検出用画素の配列に細線パターンやエッジパターンが重畳した場合でも、これらのパターンが背景に埋もれることがない。   As described above, according to the embodiment, when interpolating the image data at the position of the focus detection pixel, the image data of the imaging pixel in the arrangement direction of the focus detection pixel can be used. Accuracy can be improved and deterioration of image quality can be prevented. Further, even when a fine line pattern or an edge pattern is superimposed on the array of focus detection pixels, these patterns are not buried in the background.

一実施の形態の構成を示す図The figure which shows the structure of one embodiment 撮影画面上における焦点検出位置を示す図Diagram showing focus detection position on the shooting screen 撮像素子の撮像用画素のベイヤー配列を示す図The figure which shows the Bayer arrangement | sequence of the pixel for imaging of an image pick-up element 撮像素子の撮像用画素の補色配列を示す図The figure which shows the complementary color arrangement | sequence of the pixel for imaging of an image pick-up element 撮像素子の詳細な構成を示す正面図Front view showing detailed configuration of image sensor 撮像用画素の正面図Front view of imaging pixels 焦点検出用画素の正面図Front view of focus detection pixels 撮像素子の撮像用緑画素、撮像用赤画素および撮像用青画素の分光特性を示す図The figure which shows the spectral characteristic of the green pixel for imaging of an image pick-up element, the red pixel for imaging, and the blue pixel for imaging AF用画素の分光特性を示す図The figure which shows the spectral characteristic of the pixel for AF 緑画素の分光特性を示す図Diagram showing spectral characteristics of green pixels 撮像用画素の断面図Cross-sectional view of imaging pixels AF用画素の断面図Cross-sectional view of AF pixel 瞳分割型位相差検出方式による焦点検出原理を説明する図The figure explaining the focus detection principle by the pupil division type phase difference detection method 射出瞳面における投影関係を示す正面図Front view showing projection relationship on exit pupil plane 絞りF値に対する出力比係数(撮像用画素データ値/焦点検出用画素データ値)を示す図The figure which shows the output ratio coefficient (pixel data value for imaging / pixel data value for focus detection) with respect to the aperture F value 一実施の形態のデジタルスチルカメラ(撮像装置)の動作を示すフローチャートThe flowchart which shows operation | movement of the digital still camera (imaging device) of one embodiment 像ズレ検出演算処理(相関アルゴリズム)を説明する図The figure explaining image shift detection calculation processing (correlation algorithm) 一実施の形態の撮像素子の模式的な構成を示す図The figure which shows the typical structure of the image pick-up element of one embodiment 一実施の形態の撮像素子に対する画像データ補間処理を説明する図The figure explaining the image data interpolation process with respect to the image pick-up element of one embodiment 一実施の形態の撮像素子に対する画像データ補間処理を説明する図The figure explaining the image data interpolation process with respect to the image pick-up element of one embodiment 変形例の撮像素子の詳細な構成を示す正面図Front view showing a detailed configuration of an image sensor of a modification 撮像素子の模式的な構成図Schematic configuration diagram of image sensor 他の変形例の撮像素子の詳細な構成を示す正面図Front view showing a detailed configuration of an image sensor of another modification 撮像素子の模式的な構成を示す図The figure which shows the typical structure of an image sensor 撮像素子に対する画像データ補間処理を説明する図The figure explaining the image data interpolation process with respect to an image sensor 他の変形例の撮像素子の詳細な構成を示す正面図Front view showing a detailed configuration of an image sensor of another modification 図26に示すAF用画素の構成を示す図The figure which shows the structure of the pixel for AF shown in FIG. 他の変形例の撮像素子の詳細な構成を示す正面図Front view showing a detailed configuration of an image sensor of another modification 他の変形例の撮像素子の詳細な構成を示す図。The figure which shows the detailed structure of the image pick-up element of another modification. 従来の撮像素子の補間演算を示す図。The figure which shows the interpolation calculation of the conventional image pick-up element.

符号の説明Explanation of symbols

10 マイクロレンズ
11、12、13、16、17 光電変換部
202 交換レンズ
212、212A〜212E 撮像素子
214 ボディ駆動制御装置
310a、310b、310c 撮像用画素
311a、311b、313、314 焦点検出用画素
DESCRIPTION OF SYMBOLS 10 Micro lens 11, 12, 13, 16, 17 Photoelectric conversion part 202 Interchangeable lens 212, 212A-212E Image pick-up element 214 Body drive control device 310a, 310b, 310c Imaging pixel 311a, 311b, 313, 314 Focus detection pixel

Claims (16)

分光感度特性の異なる複数種類の撮像用画素を二次元状に規則的に配列し、光学系により結像される像を撮像する撮像素子であって、
前記撮像用画素のうちの所定方向に沿った一部を焦点検出用画素として構成し、前記規則的な配列において前記焦点検出用画素の位置に位置する前記撮像用画素と同じ分光感度特性を有する前記撮像用画素が複数の前記焦点検出用画素の間に配置されるように、前記所定方向の画素配列上に前記撮像用画素と前記焦点検出用画素とを混在させて配置することを特徴とする撮像素子。
An imaging device that regularly arranges a plurality of types of imaging pixels having different spectral sensitivity characteristics in a two-dimensional manner and images an image formed by an optical system,
A part of the imaging pixel along a predetermined direction is configured as a focus detection pixel, and has the same spectral sensitivity characteristic as the imaging pixel located at the position of the focus detection pixel in the regular array. The imaging pixels and the focus detection pixels are mixedly arranged on the pixel array in the predetermined direction so that the imaging pixels are arranged between the plurality of focus detection pixels. An image sensor.
分光感度特性の異なる複数種類の撮像用画素を二次元状に規則的に配列し、光学系により結像される像を撮像する撮像素子であって、
前記撮像用画素のうちの所定方向に沿った一部を焦点検出用画素として構成し、前記規則的な配列における前記所定方向の画素配列上の前記撮像用画素のすべての種類が複数の前記焦点検出用画素の間に配置されるように、前記所定方向の画素配列上に前記撮像用画素と前記焦点検出用画素とを混在させて配置することを特徴とする撮像素子。
An imaging device that regularly arranges a plurality of types of imaging pixels having different spectral sensitivity characteristics in a two-dimensional manner and images an image formed by an optical system,
A part of the imaging pixels along a predetermined direction is configured as a focus detection pixel, and all types of the imaging pixels on the pixel array in the predetermined direction in the regular array have a plurality of the focal points. An imaging device, wherein the imaging pixels and the focus detection pixels are mixedly arranged on the pixel array in the predetermined direction so as to be arranged between the detection pixels.
請求項1または請求項2に記載の撮像素子において、
前記複数種類の撮像用画素を正方配列し、前記所定方向は前記正方配列の各辺または対角線の方向とすることを特徴とする撮像素子。
The imaging device according to claim 1 or 2,
The imaging device, wherein the plurality of types of imaging pixels are arranged in a square, and the predetermined direction is a direction of each side or diagonal line of the square arrangement.
請求項1または請求項2に記載の撮像素子において、
前記焦点検出用画素は、前記光学系の射出瞳において前記所定方向に沿った異なる瞳部分を通る対の光束を受光することを特徴とする撮像素子。
The imaging device according to claim 1 or 2,
The focus detection pixel receives a pair of light fluxes passing through different pupil portions along the predetermined direction in the exit pupil of the optical system.
請求項1または請求項2に記載の撮像素子において、
前記焦点検出用画素はマイクロレンズと光電変換部を備え、前記マイクロレンズに関して前記光電変換部と前記光学系の射出瞳とが共役であることを特徴とする撮像素子。
The imaging device according to claim 1 or 2,
The focus detection pixel includes a microlens and a photoelectric conversion unit, and the photoelectric conversion unit and the exit pupil of the optical system are conjugate with respect to the microlens.
請求項5に記載の撮像素子において、
前記焦点検出用画素は対の光電変換部を備え、前記各光電変換部により前記光学系の異なる瞳部分を通る対の光束をそれぞれ受光することを特徴とする撮像素子。
The imaging device according to claim 5,
The focus detection pixel includes a pair of photoelectric conversion units, and each photoelectric conversion unit receives a pair of light fluxes passing through different pupil portions of the optical system.
請求項5に記載の撮像素子において、
前記焦点検出用画素は、前記光電変換部により前記光学系の異なる瞳部分を通る対の光束の一方を受光することを特徴とする撮像素子。
The imaging device according to claim 5,
The focus detection pixel receives one of a pair of light beams passing through different pupil portions of the optical system by the photoelectric conversion unit.
請求項7に記載の撮像素子において、
前記光学系の異なる瞳部分を通る対の光束をそれぞれ受光する対の前記焦点検出用画素が複数対配置されることを特徴とする撮像素子。
The image pickup device according to claim 7,
An image pickup device comprising a plurality of pairs of focus detection pixels that respectively receive a pair of light beams passing through different pupil portions of the optical system.
請求項1〜8のいずれか1項に記載の撮像素子において、
前記焦点検出用画素は前記撮像用画素と異なる分光感度特性を有することを特徴とする撮像素子。
In the image sensor according to any one of claims 1 to 8,
The imaging element, wherein the focus detection pixel has a spectral sensitivity characteristic different from that of the imaging pixel.
請求項1〜8のいずれか1項に記載の撮像素子において、
前記焦点検出用画素は、前記規則的な配列において前記焦点検出用画素の位置に位置する前記撮像用画素と同じ分光感度特性を有することを特徴とする撮像素子。
In the image sensor according to any one of claims 1 to 8,
The imaging element, wherein the focus detection pixels have the same spectral sensitivity characteristics as the imaging pixels located at the position of the focus detection pixels in the regular array.
請求項1〜10のいずれか1項に記載の撮像素子において、
RGBのそれぞれを受光する3種類の前記撮像用画素を備えることを特徴とする撮像素子。
In the imaging device according to any one of claims 1 to 10,
An imaging device comprising three types of imaging pixels that receive RGB light.
請求項11に記載の撮像素子において、
RGBのそれぞれを受光する3種類の前記撮像用画素をベイヤー配列することを特徴とする撮像素子。
The imaging device according to claim 11,
An image pickup device, wherein the three types of image pickup pixels that receive RGB are Bayer-arranged.
請求項1〜12のいずれか1項に記載の撮像素子において、
前記撮像用画素はマイクロレンズと光電変換部を備え、前記マイクロレンズに関して前記光電変換部と前記光学系の射出瞳とが共役であることを特徴とする撮像素子。
In the imaging device according to any one of claims 1 to 12,
The imaging pixel includes a microlens and a photoelectric conversion unit, and the photoelectric conversion unit and the exit pupil of the optical system are conjugate with respect to the microlens.
請求項13に記載の撮像素子において、
前記撮像用画素のマイクロレンズの光学特性と、前記焦点検出用画素のマイクロレンズの光学特性とを異ならせることを特徴とする撮像素子。
The image sensor according to claim 13, wherein
An image sensor, wherein the optical characteristics of the microlens of the imaging pixel are different from the optical characteristics of the microlens of the focus detection pixel.
請求項1〜10のいずれか1項に記載の撮像素子と、
前記撮像素子の前記焦点検出用画素の出力データに基づいて前記光学系の焦点調節状態を検出する焦点検出手段とを備えることを特徴とする焦点検出装置。
The imaging device according to any one of claims 1 to 10,
A focus detection device comprising: focus detection means for detecting a focus adjustment state of the optical system based on output data of the focus detection pixels of the image sensor.
請求項1〜14のいずれか1項に記載の撮像素子と、
前記撮像素子の前記焦点検出用画素の近傍の前記撮像用画素の出力データに基づいて、前記焦点検出用画素の位置の画像データを補間演算する補間演算手段とを備えることを特徴とする撮像装置。
The image sensor according to any one of claims 1 to 14,
An imaging apparatus comprising: an interpolation calculation means for performing interpolation calculation on image data at the position of the focus detection pixel based on output data of the imaging pixel in the vicinity of the focus detection pixel of the imaging element. .
JP2006213438A 2006-08-04 2006-08-04 Imaging device Active JP5133533B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006213438A JP5133533B2 (en) 2006-08-04 2006-08-04 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006213438A JP5133533B2 (en) 2006-08-04 2006-08-04 Imaging device

Publications (3)

Publication Number Publication Date
JP2008040087A true JP2008040087A (en) 2008-02-21
JP2008040087A5 JP2008040087A5 (en) 2009-09-03
JP5133533B2 JP5133533B2 (en) 2013-01-30

Family

ID=39175176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006213438A Active JP5133533B2 (en) 2006-08-04 2006-08-04 Imaging device

Country Status (1)

Country Link
JP (1) JP5133533B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093757A (en) * 2008-10-10 2010-04-22 Canon Inc Imaging device, method of controlling the same, and program
JP2010109922A (en) * 2008-10-31 2010-05-13 Nikon Corp Image sensor and imaging apparatus
JP2010243772A (en) * 2009-04-06 2010-10-28 Nikon Corp Imaging apparatus
JP2011176714A (en) * 2010-02-25 2011-09-08 Nikon Corp Camera and image processing program
CN102215330A (en) * 2010-04-09 2011-10-12 奥林巴斯株式会社 Image pickup apparatus and camera
JP2012004729A (en) * 2010-06-15 2012-01-05 Fujifilm Corp Imaging device and image processing method
JP2012027393A (en) * 2010-07-27 2012-02-09 Olympus Corp Image pickup apparatus
US8218017B2 (en) 2010-03-17 2012-07-10 Olympus Corporation Image pickup apparatus and camera
JP2012134581A (en) * 2010-12-20 2012-07-12 Sony Corp Image processing device, image processing method and program
WO2013168493A1 (en) * 2012-05-10 2013-11-14 富士フイルム株式会社 Signal processing device, imaging device, and signal correction method
US8749696B2 (en) 2010-06-17 2014-06-10 Olympus Corporation Image pickup apparatus having an exit pupil with divided areas
US8823838B2 (en) 2010-06-28 2014-09-02 Olympus Corporation Image pickup system with auto focus mode

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156823A (en) * 1998-08-20 2000-06-06 Canon Inc Solid-state image pickup device, its control method, image pickup device, basic array of photoelectric conversion cell and storage medium
JP2000305010A (en) * 1999-04-20 2000-11-02 Olympus Optical Co Ltd Image pickup unit
JP2004138968A (en) * 2002-10-21 2004-05-13 Canon Inc Focus detector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156823A (en) * 1998-08-20 2000-06-06 Canon Inc Solid-state image pickup device, its control method, image pickup device, basic array of photoelectric conversion cell and storage medium
JP2000305010A (en) * 1999-04-20 2000-11-02 Olympus Optical Co Ltd Image pickup unit
JP2004138968A (en) * 2002-10-21 2004-05-13 Canon Inc Focus detector

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093757A (en) * 2008-10-10 2010-04-22 Canon Inc Imaging device, method of controlling the same, and program
JP2010109922A (en) * 2008-10-31 2010-05-13 Nikon Corp Image sensor and imaging apparatus
JP2010243772A (en) * 2009-04-06 2010-10-28 Nikon Corp Imaging apparatus
JP2011176714A (en) * 2010-02-25 2011-09-08 Nikon Corp Camera and image processing program
US8218017B2 (en) 2010-03-17 2012-07-10 Olympus Corporation Image pickup apparatus and camera
US8350953B2 (en) 2010-04-09 2013-01-08 Olympus Corporation Image pickup apparatus and camera
CN102215330A (en) * 2010-04-09 2011-10-12 奥林巴斯株式会社 Image pickup apparatus and camera
JP2012004729A (en) * 2010-06-15 2012-01-05 Fujifilm Corp Imaging device and image processing method
US8749696B2 (en) 2010-06-17 2014-06-10 Olympus Corporation Image pickup apparatus having an exit pupil with divided areas
US8823838B2 (en) 2010-06-28 2014-09-02 Olympus Corporation Image pickup system with auto focus mode
JP2012027393A (en) * 2010-07-27 2012-02-09 Olympus Corp Image pickup apparatus
JP2012134581A (en) * 2010-12-20 2012-07-12 Sony Corp Image processing device, image processing method and program
WO2013168493A1 (en) * 2012-05-10 2013-11-14 富士フイルム株式会社 Signal processing device, imaging device, and signal correction method
JP5677625B2 (en) * 2012-05-10 2015-02-25 富士フイルム株式会社 Signal processing apparatus, imaging apparatus, and signal correction method
US9344651B2 (en) 2012-05-10 2016-05-17 Fujifilm Corporation Signal processing apparatus for correcting an output signal of a focus detecting pixel cell to improve a captured image quality

Also Published As

Publication number Publication date
JP5133533B2 (en) 2013-01-30

Similar Documents

Publication Publication Date Title
JP5133533B2 (en) Imaging device
JP4935162B2 (en) Imaging apparatus, camera, and image processing method
JP4770560B2 (en) Imaging apparatus, camera, and image processing method
JP4807131B2 (en) Imaging device and imaging apparatus
JP4857877B2 (en) Imaging device and camera
JP4935161B2 (en) Imaging apparatus, camera, and image processing method
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
EP1975695B1 (en) Focus detection device, focusing state detection method and imaging apparatus
JP5092685B2 (en) Imaging device and imaging apparatus
US7863550B2 (en) Focus detection device and focus detection method based upon center position of gravity information of a pair of light fluxes
US7711261B2 (en) Imaging device, camera and image processing method
JP5157400B2 (en) Imaging device
JP5045007B2 (en) Imaging device
JP4867566B2 (en) Imaging device, focus detection device, and imaging device
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
JP4983271B2 (en) Imaging device
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP2018174542A (en) Image pickup device and image pickup apparatus
JP5228777B2 (en) Focus detection apparatus and imaging apparatus
JP5747510B2 (en) Imaging device
JP5407314B2 (en) Focus detection apparatus and imaging apparatus
JP5407567B2 (en) Imaging device and imaging element unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090717

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111206

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111209

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121003

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5133533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250