JP2012088436A - Focus detecting device - Google Patents

Focus detecting device Download PDF

Info

Publication number
JP2012088436A
JP2012088436A JP2010233679A JP2010233679A JP2012088436A JP 2012088436 A JP2012088436 A JP 2012088436A JP 2010233679 A JP2010233679 A JP 2010233679A JP 2010233679 A JP2010233679 A JP 2010233679A JP 2012088436 A JP2012088436 A JP 2012088436A
Authority
JP
Japan
Prior art keywords
focus detection
pair
optical system
detection apparatus
sensor chip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010233679A
Other languages
Japanese (ja)
Other versions
JP5614227B2 (en
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010233679A priority Critical patent/JP5614227B2/en
Publication of JP2012088436A publication Critical patent/JP2012088436A/en
Application granted granted Critical
Publication of JP5614227B2 publication Critical patent/JP5614227B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To determine an appropriate focus detecting process in a case where a relative attitude state between an optical system and an image pickup element is deviated from a reference attitude state.SOLUTION: This focus detecting device according to the present invention includes: an imaging optical system; a sensor chip disposed with focus detecting pixels that receive a pair of light fluxes passing through a pair of regions of an exit pupil of the imaging optical system and output a pair of image data corresponding to a pair of images formed by the pair of light fluxes; focus detecting means that calculates a phase difference between a pair of image data and detects a focus adjustment state of the imaging optical system based on the calculated phase difference; and determination means that determines a detecting process of a focus adjustment state by the focus detecting means based on attitude information representing a deviation amount from the prescribed arrangement of the imaging optical system and the sensor chip.

Description

本発明は、瞳分割型位相差検出方式の焦点検出画素を備えた焦点検出装置に関する。   The present invention relates to a focus detection apparatus including focus detection pixels of a pupil division type phase difference detection method.

特許文献1には瞳分割型位相差検出方式の焦点検出画素を撮像画素に混在させた撮像素子を備えた撮像装置が開示されている。この撮像装置においては、焦点検出画素は像を形成する光学系の射出瞳を通る一対の焦点検出光束を受光する。焦点検出画素が受光した一対の焦点検出光束に対応して焦点検出画素が出力する一対の信号間の位相差が算出される。算出された位相差に基づいて、撮像素子上に形成された像に対応する光学系の焦点調節状態(デフォーカス量)を検出している。   Patent Document 1 discloses an imaging device including an imaging element in which focus detection pixels of a pupil division type phase difference detection method are mixed in imaging pixels. In this imaging apparatus, the focus detection pixel receives a pair of focus detection light beams that pass through an exit pupil of an optical system that forms an image. A phase difference between a pair of signals output from the focus detection pixel corresponding to the pair of focus detection light beams received by the focus detection pixel is calculated. Based on the calculated phase difference, the focus adjustment state (defocus amount) of the optical system corresponding to the image formed on the image sensor is detected.

特開2008−268403号公報JP 2008-268403 A

上記のような瞳分割型位相差検出方式の焦点検出画素を用いた焦点検出装置においては、撮影の際のパースペクティブを変化させるために光学系または撮像素子にアオリ(チルト、シフト)を加える場合や、撮像素子の位置調整誤差や製造誤差がある場合がある。そのような場合に、光学系と撮像素子との間の相対的な姿勢状態が基準となる姿勢状態からずれると、上記一対の焦点検出光束のバランスが崩れるために、焦点検出誤差を生ずる等の問題点があった。   In the focus detection apparatus using the focus detection pixel of the pupil division type phase difference detection method as described above, a tilt (shift, shift) is added to the optical system or the image sensor in order to change the perspective at the time of shooting. There may be a position adjustment error or a manufacturing error of the image sensor. In such a case, if the relative posture state between the optical system and the image sensor deviates from the reference posture state, the balance of the pair of focus detection light beams is lost, resulting in a focus detection error. There was a problem.

本発明による焦点検出装置は、結像光学系と、結像光学系の射出瞳の一対の領域を通る一対の光束を受光し、該一対の光束が形成する一対の像に対応した一対の画像データを出力する焦点検出画素が配置されたセンサーチップと、一対の画像データの位相差を算出するとともに、算出した位相差に基づき結像光学系の焦点調節状態を検出する焦点検出手段と、結像光学系とセンサーチップとの所定の配置からの偏差量を表す姿勢情報に基づき、焦点検出手段による焦点調節状態の検出処理方式を決定する決定手段とを備えることを特徴とする。   A focus detection apparatus according to the present invention receives a pair of light beams passing through a pair of regions of an imaging optical system and an exit pupil of the imaging optical system, and a pair of images corresponding to a pair of images formed by the pair of light beams. A sensor chip on which focus detection pixels for outputting data are arranged, a focus detection unit that calculates a phase difference between the pair of image data and detects a focus adjustment state of the imaging optical system based on the calculated phase difference; And determining means for determining a detection processing method of the focus adjustment state by the focus detection means based on attitude information representing a deviation amount from a predetermined arrangement of the image optical system and the sensor chip.

本発明の焦点検出装置によれば、上記のような種々の要因により光学系と撮像素子との間の相対的な姿勢状態が基準となる姿勢状態からずれた場合において、適切な焦点検出処理方式を決定することができる。   According to the focus detection apparatus of the present invention, when the relative posture state between the optical system and the image sensor deviates from the reference posture state due to various factors as described above, an appropriate focus detection processing method Can be determined.

一実施の形態のデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera of one embodiment. 撮像素子に含まれるセンサーチップの基本状態を示す模式図である。It is a schematic diagram which shows the basic state of the sensor chip contained in an image sensor. 撮像素子(センサーチップ)がシフトされた場合の配置図である。FIG. 6 is a layout diagram when an image sensor (sensor chip) is shifted. 撮像素子(センサーチップ)がチルトされた場合の配置図である。FIG. 6 is a layout diagram when an image sensor (sensor chip) is tilted. 交換レンズの撮影画面上における焦点検出位置を示す図である。It is a figure which shows the focus detection position on the imaging | photography screen of an interchangeable lens. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element. 撮像画素が受光する撮影光束の様子を説明するための図である。It is a figure for demonstrating the mode of the imaging light beam which an imaging pixel receives. 焦点検出画素が受光する焦点検出光束の様子を説明するための図である。It is a figure for demonstrating the mode of the focus detection light beam which a focus detection pixel receives. 一対の焦点検出光束の状態を示した図である。It is the figure which showed the state of a pair of focus detection light beam. 一対の焦点検出光束の状態を示した図である。It is the figure which showed the state of a pair of focus detection light beam. 射出瞳と一対の焦点検出光束が通る領域とを重ねて、撮像素子側の光軸に垂直な平面から見た図である。FIG. 6 is a view of an exit pupil and a region through which a pair of focus detection light beams are overlapped and viewed from a plane perpendicular to the optical axis on the image sensor side. 射出瞳と一対の焦点検出光束が通る領域とを重ねて、撮像素子側の光軸に垂直な平面から見た図である。FIG. 6 is a view of an exit pupil and a region through which a pair of focus detection light beams are overlapped and viewed from a plane perpendicular to the optical axis on the image sensor side. 射出瞳と一対の焦点検出光束が通る領域とを重ねて、撮像素子側の光軸に垂直な平面から見た図である。FIG. 6 is a view of an exit pupil and a region through which a pair of focus detection light beams are overlapped and viewed from a plane perpendicular to the optical axis on the image sensor side. 一対の焦点検出光束の状態を示した図である。It is the figure which showed the state of a pair of focus detection light beam. 一対の焦点検出光束の状態を示した図である。It is the figure which showed the state of a pair of focus detection light beam. 射出瞳と一対の焦点検出光束が通る領域とを重ねて、撮像素子側の光軸に垂直な平面から見た図である。FIG. 6 is a view of an exit pupil and a region through which a pair of focus detection light beams are overlapped and viewed from a plane perpendicular to the optical axis on the image sensor side. 射出瞳と一対の焦点検出光束が通る領域とを重ねて、撮像素子側の光軸に垂直な平面から見た図である。FIG. 6 is a view of an exit pupil and a region through which a pair of focus detection light beams are overlapped and viewed from a plane perpendicular to the optical axis on the image sensor side. 射出瞳と一対の焦点検出光束が通る領域とを重ねて、撮像素子側の光軸に垂直な平面から見た図である。FIG. 6 is a view of an exit pupil and a region through which a pair of focus detection light beams are overlapped and viewed from a plane perpendicular to the optical axis on the image sensor side. 一実施の形態のデジタルカメラの撮像動作を示すフローチャートである。It is a flowchart which shows the imaging operation of the digital camera of one embodiment. 一対の焦点検出画素データの例を示した図である。It is the figure which showed the example of a pair of focus detection pixel data. 一対の焦点検出光束が光学系の射出瞳によって非対称に制限された場合の図である。It is a figure in case a pair of focus detection light flux is restrict | limited asymmetrically by the exit pupil of an optical system. 光学系がシフトされた場合の配置図である。FIG. 6 is a layout diagram when the optical system is shifted. 光学系がチルトされた場合の配置図である。FIG. 6 is a layout diagram when the optical system is tilted. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element.

一実施の形態の撮像装置として、レンズ交換式のデジタルカメラを例に挙げて説明する。図1は一実施の形態のデジタルカメラの構成を示す横断面図である。本実施の形態のデジタルカメラ201は、交換レンズ202とカメラボディ203とから構成され、交換レンズ202がマウント部204を介してカメラボディ203に装着される。カメラボディ203にはマウント部204を介して種々の撮影光学系を有する交換レンズ202が装着可能である。   As an imaging apparatus according to an embodiment, a digital camera with interchangeable lenses will be described as an example. FIG. 1 is a cross-sectional view showing a configuration of a digital camera according to an embodiment. A digital camera 201 according to the present embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 via a mount unit 204. An interchangeable lens 202 having various photographing optical systems can be attached to the camera body 203 via a mount unit 204.

交換レンズ202は、レンズ209、ズーミング用レンズ208、フォーカシング用レンズ210、絞り211、レンズ駆動制御装置206などを備えている。レンズ駆動制御装置206は、不図示のマイクロコンピューター、メモリ、駆動制御回路などから構成される。レンズ駆動制御装置206は、フォーカシング用レンズ210の焦点調節と絞り211の開口径調節のための駆動制御や、ズーミング用レンズ208、フォーカシング用レンズ210および絞り211の状態検出などを行う。また、後述するボディ駆動制御装置214との通信によりレンズ情報の送信とカメラ情報(デフォーカス量や絞り値など)の受信を行う。絞り211は、光量およびボケ量調整のために光軸中心に開口径が可変な開口を形成する。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, a diaphragm 211, a lens drive control device 206, and the like. The lens drive control device 206 includes a microcomputer (not shown), a memory, a drive control circuit, and the like. The lens drive control unit 206 performs drive control for adjusting the focus of the focusing lens 210 and adjusting the aperture diameter of the aperture 211, and detecting the states of the zooming lens 208, the focusing lens 210, and the aperture 211. Further, transmission of lens information and reception of camera information (defocus amount, aperture value, etc.) are performed by communication with a body drive control device 214 described later. The aperture 211 forms an aperture having a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur.

カメラボディ203は、撮像素子212、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219などを備えている。撮像素子212には、撮像画素が二次元状(行と列)に配置されるとともに、焦点検出位置(焦点検出エリア)に対応した部分に焦点検出画素が組み込まれている。この撮像素子212については詳細を後述する。   The camera body 203 includes an image sensor 212, a body drive control device 214, a liquid crystal display element drive circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, and the like. In the image sensor 212, image pickup pixels are two-dimensionally arranged (rows and columns), and focus detection pixels are incorporated in portions corresponding to focus detection positions (focus detection areas). Details of the image sensor 212 will be described later.

ボディ駆動制御装置214は、マイクロコンピューター、メモリ、駆動制御回路などから構成される。ボディ駆動制御装置214は、撮像素子212の露光制御および撮像素子212からの画素信号の読み出しと、焦点検出画素の画素信号に基づく焦点検出演算と、交換レンズ202の焦点調節とを繰り返し行うとともに、画像信号の処理および記録、カメラの動作制御などを行う。また、ボディ駆動制御装置214は電気接点213を介してレンズ駆動制御装置206と通信を行い、レンズ情報の受信とカメラ情報の送信を行う。   The body drive control device 214 includes a microcomputer, a memory, a drive control circuit, and the like. The body drive control device 214 repeatedly performs exposure control of the image sensor 212 and readout of the pixel signal from the image sensor 212, focus detection calculation based on the pixel signal of the focus detection pixel, and focus adjustment of the interchangeable lens 202, Processing and recording of image signals, camera operation control, etc. The body drive control device 214 communicates with the lens drive control device 206 through the electrical contact 213 to receive lens information and transmit camera information.

液晶表示素子216は電気的なビューファインダー(EVF:Electronic View Finder)として機能する。液晶表示素子駆動回路215は撮像素子212から読み出された画像データに基づき、スルー画像を液晶表示素子216に表示し、撮影者は接眼レンズ217を介してスルー画像を観察することができる。メモリカード219は、撮像素子212により撮像された画像データを記憶する画像ストレージである。   The liquid crystal display element 216 functions as an electric view finder (EVF). The liquid crystal display element driving circuit 215 displays a through image on the liquid crystal display element 216 based on the image data read from the image sensor 212, and the photographer can observe the through image through the eyepiece 217. The memory card 219 is an image storage that stores image data captured by the image sensor 212.

交換レンズ202を通過した光束により、撮像素子212上に被写体像が形成される。この被写体像は撮像素子212により光電変換され、撮像画素および焦点検出画素の画素信号がボディ駆動制御装置214へ送られる。   A subject image is formed on the image sensor 212 by the light beam that has passed through the interchangeable lens 202. This subject image is photoelectrically converted by the image sensor 212, and the pixel signals of the imaging pixels and focus detection pixels are sent to the body drive control device 214.

ボディ駆動制御装置214は、撮像素子212の焦点検出画素からの画素信号(焦点検出信号)に基づいてデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像素子212の撮像画素の画素信号(撮像信号)を処理して画像データを生成し、メモリカード219に格納するとともに、撮像素子212から読み出されたスルー画像信号を液晶表示素子駆動回路215へ送り、スルー画像を液晶表示素子216に表示させる。さらに、ボディ駆動制御装置214は、レンズ駆動制御装置206へ絞り制御情報を送って絞り211の開口制御を行う。   The body drive control device 214 calculates the defocus amount based on the pixel signal (focus detection signal) from the focus detection pixel of the image sensor 212 and sends this defocus amount to the lens drive control device 206. In addition, the body drive control device 214 processes the pixel signal (imaging signal) of the imaging pixel of the imaging element 212 to generate image data, stores the image data in the memory card 219, and reads the through image read from the imaging element 212. A signal is sent to the liquid crystal display element driving circuit 215 to display a through image on the liquid crystal display element 216. Further, the body drive control device 214 sends aperture control information to the lens drive control device 206 to control the aperture of the aperture 211.

レンズ駆動制御装置206は、フォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じてレンズ情報を更新する。具体的には、ズーミング用レンズ208とフォーカシング用レンズ210の位置と絞り211の絞り値とを検出し、これらのレンズ位置と絞り値とに応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからレンズ位置と絞り値とに応じたレンズ情報を選択する。   The lens drive controller 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the positions of the zooming lens 208 and the focusing lens 210 and the aperture value of the aperture 211 are detected, and lens information is calculated according to these lens positions and aperture values, or prepared in advance. Lens information corresponding to the lens position and aperture value is selected from the look-up table.

レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に応じてフォーカシング用レンズ210を合焦位置へ駆動する。また、レンズ駆動制御装置206は受信した絞り値に応じて絞り211を駆動する。   The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to the in-focus position according to the lens drive amount. Further, the lens drive control device 206 drives the diaphragm 211 in accordance with the received diaphragm value.

操作部材220は後述する撮像素子212の姿勢調整のために、ユーザーにより手動操作される部材である。ボディ駆動制御装置214は操作部材220により指示される調整量を取得し、その調整量に基づき姿勢調整装置221を駆動制御して撮像素子212の姿勢調整を行う。姿勢調整とは、撮影光軸91と垂直な面に対して平行に撮像素子212を移動させること、および撮影光軸91に対して撮像素子212がなす角度を変更させることをいう。   The operation member 220 is a member that is manually operated by the user to adjust the posture of the image sensor 212 described later. The body drive control device 214 acquires the adjustment amount instructed by the operation member 220 and controls the posture of the image sensor 212 by driving the posture adjustment device 221 based on the adjustment amount. Posture adjustment refers to moving the image sensor 212 in parallel to a plane perpendicular to the photographic optical axis 91 and changing the angle formed by the image sensor 212 with respect to the photographic optical axis 91.

カメラボディ203内において撮像素子212は、互いに連結されたシフト調整用のXYステージ222とチルト調整用の2軸のゴニオステージ223との上に設置されている。姿勢調整装置221は、モーターなどの駆動源を有し、上記ステージを駆動する。   In the camera body 203, the image sensor 212 is disposed on a shift adjustment XY stage 222 and a tilt adjustment biaxial goniostage 223 that are connected to each other. The attitude adjustment device 221 has a drive source such as a motor and drives the stage.

図2は撮像素子212に含まれるセンサーチップの基本状態、すなわち姿勢調整の標準状態における配置を示す模式図である。   FIG. 2 is a schematic diagram showing the arrangement of the sensor chip included in the image sensor 212 in the basic state, that is, the standard state of posture adjustment.

図2においては、図1に示したズーミング用レンズ208、レンズ209、フォーカシング用レンズ210を全体で1つの光学系205として示している。光学系205の光軸91に対して撮像素子(センサーチップ)212の受光面233が垂直である。また撮像素子(センサーチップ)212の中心218、すなわち受光面233の中心は、受光面233と光軸91との交点である。   In FIG. 2, the zooming lens 208, the lens 209, and the focusing lens 210 shown in FIG. 1 are shown as one optical system 205 as a whole. The light receiving surface 233 of the image sensor (sensor chip) 212 is perpendicular to the optical axis 91 of the optical system 205. The center 218 of the image sensor (sensor chip) 212, that is, the center of the light receiving surface 233 is an intersection of the light receiving surface 233 and the optical axis 91.

このように撮像素子(センサーチップ)212の基本状態とは、撮像素子(センサーチップ)212が設計的に定められた位置に誤差なく正確に配置された状態、すなわち所定の配置にある状態をいう。   As described above, the basic state of the image sensor (sensor chip) 212 refers to a state in which the image sensor (sensor chip) 212 is accurately arranged at a position determined by design without error, that is, a state in a predetermined arrangement. .

図3は姿勢調整装置221がXYステージ222を駆動することによって、撮像素子(センサーチップ)212がシフトされた場合の配置図である。図3において、撮像素子(センサーチップ)212Aが、光軸91に対して垂直な面上において、センサーチップシフト量ΔXYだけシフトされ、撮像素子(センサーチップ)212Bへ移動した場合、撮像素子(センサーチップ)212Aの中心218Aは光軸91からセンサーチップシフト量ΔXYだけ離間した位置の撮像素子(センサーチップ)212Bの中心218Bへ移動する。図3において、撮像素子(センサーチップ)212Aが、光軸91に対して垂直な面上において、センサーチップシフト量−ΔXYだけシフトされ、撮像素子(センサーチップ)212Cへ移動した場合、撮像素子(センサーチップ)212Aの中心218Aは光軸91からセンサーチップシフト量−ΔXYだけ離間した位置の撮像素子(センサーチップ)212Cの中心218Cへ移動する。なお、図3において、センサーチップシフト量±ΔXYは、撮像素子(センサーチップ)212Aの大きさよりやや大きく描かれている。しかし、図3は説明を分かりやすくするために模式的に表したものであり、たとえば、センサーチップシフト量±ΔXYの最大値は撮像素子(センサーチップ)212Aの大きさの1/2程度であることも考えられる。   FIG. 3 is a layout diagram when the image sensor (sensor chip) 212 is shifted by the attitude adjustment device 221 driving the XY stage 222. In FIG. 3, when the image sensor (sensor chip) 212A is shifted by a sensor chip shift amount ΔXY on a plane perpendicular to the optical axis 91 and moves to the image sensor (sensor chip) 212B, the image sensor (sensor) The center 218A of the chip 212A moves to the center 218B of the image sensor (sensor chip) 212B at a position separated from the optical axis 91 by the sensor chip shift amount ΔXY. In FIG. 3, when the image sensor (sensor chip) 212 </ b> A is shifted by a sensor chip shift amount −ΔXY on a plane perpendicular to the optical axis 91 and moved to the image sensor (sensor chip) 212 </ b> C, the image sensor ( The center 218A of the sensor chip 212A moves to the center 218C of the image sensor (sensor chip) 212C at a position separated from the optical axis 91 by the sensor chip shift amount −ΔXY. In FIG. 3, the sensor chip shift amount ± ΔXY is drawn slightly larger than the size of the image sensor (sensor chip) 212A. However, FIG. 3 is schematically illustrated for easy understanding. For example, the maximum value of the sensor chip shift amount ± ΔXY is about ½ of the size of the image sensor (sensor chip) 212A. It is also possible.

図4は、姿勢調整装置221がゴニオステージ223を回転させることによって、撮像素子(センサーチップ)212がチルトされた場合の配置図である。図4において、撮像素子(センサーチップ)212Aの中心218における受光面233の法線207Aは、光軸91とのなす角度が0度である。光軸91に対して垂直な面内に含まれ、かつ撮像素子(センサーチップ)212の中心218を通る直線を回転軸として、撮像素子(センサーチップ)212Aがセンサーチップチルト量Δθだけチルトされた結果、撮像素子(センサーチップ)212Pの中心218における受光面233の法線207Pは、光軸91に対して角度Δθだけ傾く。光軸91に対して垂直な面内に含まれ、かつ撮像素子(センサーチップ)212の中心218を通る直線を回転軸として、撮像素子(センサーチップ)212Aがセンサーチップチルト量−Δθだけチルトされた結果、撮像素子(センサーチップ)212Qの中心218における受光面233の法線207Qは、光軸91に対して角度−Δθだけ傾く。なお、図4は説明を分かりやすくするために模式的に表したものであり、たとえば、センサーチップチルト量±Δθの最大値は、30度程度であることも考えられる。   FIG. 4 is a layout diagram when the image sensor (sensor chip) 212 is tilted by the attitude adjustment device 221 rotating the goniostage 223. In FIG. 4, the normal line 207 </ b> A of the light receiving surface 233 at the center 218 of the image sensor (sensor chip) 212 </ b> A has an angle of 0 degrees with the optical axis 91. The image sensor (sensor chip) 212A is tilted by a sensor chip tilt amount Δθ with a straight line included in a plane perpendicular to the optical axis 91 and passing through the center 218 of the image sensor (sensor chip) 212 as a rotation axis. As a result, the normal 207P of the light receiving surface 233 at the center 218 of the image sensor (sensor chip) 212P is inclined by an angle Δθ with respect to the optical axis 91. The imaging element (sensor chip) 212A is tilted by a sensor chip tilt amount −Δθ with a straight line included in a plane perpendicular to the optical axis 91 and passing through the center 218 of the imaging element (sensor chip) 212 as a rotation axis. As a result, the normal line 207Q of the light receiving surface 233 at the center 218 of the image sensor (sensor chip) 212Q is inclined with respect to the optical axis 91 by an angle −Δθ. Note that FIG. 4 is schematically illustrated for easy understanding of the description. For example, the maximum value of the sensor chip tilt amount ± Δθ may be about 30 degrees.

以上のような撮像素子(センサーチップ)212の姿勢調整を伴う撮影は所謂アオリ撮影と呼ばれ、画像のパースペクティブ(遠近法)を変更するために用いられる撮影手法である。アオリ撮影は、例えば高層ビルを撮影する際に、その高層ビルの輪郭線のうち、地面に垂直な2本の縦方向の垂直線が平行となった画像を得るため等に用いられる。   The above-described shooting with the posture adjustment of the image sensor (sensor chip) 212 is called so-called tilt shooting, and is a shooting method used to change the perspective of the image. For example, when shooting a high-rise building, tilt-photo shooting is used to obtain an image in which two vertical lines perpendicular to the ground are parallel to each other among the outlines of the high-rise building.

図5は、交換レンズ202の撮影画面上における焦点検出位置を示す図であり、後述する撮像素子212上の焦点検出画素列が焦点検出の際に撮影画面上で像をサンプリングする領域(焦点検出エリア、焦点検出位置)の一例を示す。この例では、矩形の撮影画面100上の中央(光軸上)および上下左右および対角方向の9箇所に焦点検出エリア101〜109が配置される。焦点検出エリア101〜109においては、長方形で示す焦点検出エリアの長手方向、すなわち図5の撮影画面の垂直方向(縦方向)に対応するように、焦点検出画素が直線的に配列される。点41〜49は各焦点検出エリアの中心の位置を表す。図5のように、撮影画面の中心点45を通って点44から点46へ向かう水平方向(横方向)を正とするx軸、および撮影画面の中心点45を通って点48から点42へ向かう垂直方向(縦方向)を正とするy軸(図1の紙面と平行な軸)を定義する。点41〜43はx軸上からy軸方向にy1離れており、点44〜46はx軸上にあり、点47〜49はx軸上からy軸方向に−y1離れている。また点41、44,47はy軸上からx軸方向に−x1離れており、点42,45、48はy軸上にあり、点43、46、49はy軸上からx軸方向にx1離れている。   FIG. 5 is a diagram illustrating a focus detection position on the imaging screen of the interchangeable lens 202, and a region (focus detection) in which a focus detection pixel row on the image sensor 212 described later samples an image on the imaging screen when focus detection is performed. An example of an area and a focus detection position is shown. In this example, focus detection areas 101 to 109 are arranged at the center (on the optical axis) on the rectangular shooting screen 100 and at nine locations in the up / down / left / right and diagonal directions. In the focus detection areas 101 to 109, the focus detection pixels are linearly arranged so as to correspond to the longitudinal direction of the focus detection area indicated by a rectangle, that is, the vertical direction (vertical direction) of the shooting screen of FIG. Points 41 to 49 represent the positions of the centers of the respective focus detection areas. As shown in FIG. 5, the x-axis is positive in the horizontal direction (lateral direction) from the point 44 to the point 46 through the center point 45 of the shooting screen, and the point 48 to the point 42 passes through the center point 45 of the shooting screen. The y-axis (axis parallel to the paper surface of FIG. 1) is defined with the vertical direction (longitudinal direction) going to the positive. The points 41 to 43 are separated from the x axis by y1 in the y axis direction, the points 44 to 46 are on the x axis, and the points 47 to 49 are separated from the x axis by -y1 in the y axis direction. The points 41, 44, and 47 are separated from the y-axis by −x1 in the x-axis direction, the points 42, 45, and 48 are on the y-axis, and the points 43, 46, and 49 are from the y-axis to the x-axis direction. x1 away.

図6は撮像素子212の詳細な構成を示す正面図であり、図5における焦点検出エリア101〜109に対応する領域の近傍を拡大した画素配列の詳細を示す。   FIG. 6 is a front view showing a detailed configuration of the image sensor 212, and shows details of a pixel arrangement in which the vicinity of the region corresponding to the focus detection areas 101 to 109 in FIG. 5 is enlarged.

撮像素子212が有する半導体基板(センサーチップ)上には、撮像画素と焦点検出画素とが形成され、撮像画素310は二次元正方格子状に稠密に配列される。撮像画素310は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。図6においては撮像画素と同一の画素サイズを有する焦点検出用の焦点検出画素313、314が交互に、本来緑画素と青画素が連続的に配置されるべき垂直方向の直線上に連続して配列され、焦点検出画素列が形成されている。   Imaging pixels and focus detection pixels are formed on a semiconductor substrate (sensor chip) included in the imaging element 212, and the imaging pixels 310 are densely arranged in a two-dimensional square lattice. The imaging pixel 310 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule. In FIG. 6, focus detection focus detection pixels 313 and 314 having the same pixel size as the imaging pixels are alternately arranged continuously on a vertical straight line in which green and blue pixels should be continuously arranged. Arranged to form a focus detection pixel column.

撮像画素310ならびに焦点検出画素313および314のマイクロレンズの形状は、元々画素サイズより大きな円形のマイクロレンズから画素サイズに対応した正方形の形状で切り出した形状をしている。   The shape of the microlens of the imaging pixel 310 and the focus detection pixels 313 and 314 is a shape that is originally cut out from a circular microlens larger than the pixel size in a square shape corresponding to the pixel size.

撮像画素310は、矩形のマイクロレンズ10、遮光マスクで受光領域を正方形に制限された光電変換部11、および色フィルタ(不図示)から構成される。色フィルタは赤(R)、緑(G)、青(B)の3種類からなり、それぞれの色に対応する分光感度特性を有している。撮像素子212には、各色フィルタを備えた撮像画素310がベイヤー配列されている。   The imaging pixel 310 includes a rectangular microlens 10, a photoelectric conversion unit 11 whose light receiving area is limited to a square by a light shielding mask, and a color filter (not shown). The color filters include three types of red (R), green (G), and blue (B), and have spectral sensitivity characteristics corresponding to the respective colors. In the image pickup device 212, image pickup pixels 310 having respective color filters are arranged in a Bayer array.

焦点検出画素313、314には全ての色に対して焦点検出を行うために全ての可視光を透過する白色フィルタが設けられている。その白色フィルタは、緑画素、赤画素および青画素の分光感度特性を加算したような分光感度特性を有し、高い感度を示す光波長領域は緑画素、赤画素および青画素の各々において各色フィルタが高い感度を示す光波長領域を包括している。   The focus detection pixels 313 and 314 are provided with a white filter that transmits all visible light in order to perform focus detection for all colors. The white filter has a spectral sensitivity characteristic such that the spectral sensitivity characteristics of the green pixel, the red pixel, and the blue pixel are added, and the light wavelength region exhibiting high sensitivity is each color filter in each of the green pixel, the red pixel, and the blue pixel. Includes a light wavelength region exhibiting high sensitivity.

焦点検出画素313は、図6に示すように矩形のマイクロレンズ10と遮光マスク(不図示)で受光領域を正方形の上半分(正方形を水平線で2等分した場合の上半分)に制限された光電変換部13、および白色フィルタ(不図示)とから構成される。   As shown in FIG. 6, the focus detection pixel 313 has a rectangular microlens 10 and a light shielding mask (not shown), and the light receiving area is limited to the upper half of a square (upper half when the square is divided into two equal parts by a horizontal line). It is comprised from the photoelectric conversion part 13 and a white filter (not shown).

また、焦点検出画素314は、図6に示すように矩形のマイクロレンズ10と遮光マスク(不図示)で受光領域を正方形の下半分(正方形を水平線で2等分した場合の下半分)に制限された光電変換部14、および白色フィルタ(不図示)とから構成される。   Further, as shown in FIG. 6, the focus detection pixel 314 has a rectangular microlens 10 and a light shielding mask (not shown), and restricts the light receiving area to the lower half of the square (the lower half when the square is divided into two equal parts by a horizontal line). Photoelectric conversion unit 14 and a white filter (not shown).

焦点検出画素313と焦点検出画素314とをマイクロレンズ10に重ね合わせて表示すると、遮光マスクで受光領域を正方形の半分に制限された光電変換部13および14が垂直方向に並んでいる。   When the focus detection pixel 313 and the focus detection pixel 314 are superimposed on the microlens 10 and displayed, the photoelectric conversion units 13 and 14 in which the light receiving area is limited to a half of a square by a light shielding mask are arranged in the vertical direction.

また、焦点検出画素313および314において、上述した正方形の半分に制限された受光領域の部分に正方形を半分にした残りの部分を加えると、撮像画素310の受光領域と同じサイズの正方形となる。   In addition, in the focus detection pixels 313 and 314, when the remaining portion obtained by halving the square is added to the above-described light receiving region limited to the half of the square, a square having the same size as the light receiving region of the imaging pixel 310 is obtained.

図7は、図2のように撮像素子212(センサーチップ)が基本状態に配置された場合において、撮像画素310が受光する撮影光束の様子を説明するための図であって、垂直方向の直線で撮像画素配列の断面をとっている。   FIG. 7 is a diagram for explaining the state of the imaging light flux received by the imaging pixel 310 when the imaging element 212 (sensor chip) is arranged in the basic state as shown in FIG. The cross section of the imaging pixel array is taken.

撮像素子上に配列された全ての撮像画素の光電変換部11は光電変換部11に近接して配置された遮光マスクの開口を通過した光束を受光する。遮光マスク開口の形状は、各撮像画素のマイクロレンズ10により、マイクロレンズ10から測距瞳距離dだけ離間した測距瞳面90上の全撮像画素共通な領域95に投影される。   The photoelectric conversion units 11 of all the imaging pixels arranged on the image sensor receive the light flux that has passed through the opening of the light shielding mask disposed in the vicinity of the photoelectric conversion unit 11. The shape of the light-shielding mask opening is projected by the microlens 10 of each imaging pixel onto an area 95 common to all the imaging pixels on the ranging pupil plane 90 that is separated from the microlens 10 by the ranging pupil distance d.

従って各撮像画素の光電変換部11は、領域95と各撮像画素のマイクロレンズ10を通過する光束71を受光し、その光束71によって各マイクロレンズ10上に形成される像の強度に対応した信号を出力する。   Therefore, the photoelectric conversion unit 11 of each imaging pixel receives the light beam 71 passing through the region 95 and the microlens 10 of each imaging pixel, and a signal corresponding to the intensity of the image formed on each microlens 10 by the light beam 71. Is output.

図8は、図2のように撮像素子212(センサーチップ)が基本状態に配置された場合において、たとえば焦点検出エリア105に対応する焦点検出画素列の焦点検出画素313および314が受光する焦点検出光束の様子を、図7と比較して説明するための図であって、垂直方向の直線でその焦点検出画素列の断面をとっている。   FIG. 8 shows focus detection received by the focus detection pixels 313 and 314 in the focus detection pixel row corresponding to the focus detection area 105, for example, when the image sensor 212 (sensor chip) is arranged in the basic state as shown in FIG. It is a figure for demonstrating the mode of a light beam compared with FIG. 7, Comprising: The cross section of the focus detection pixel row | line | column is taken with the straight line of the orthogonal | vertical direction.

撮像素子212上に配列された全ての焦点検出画素313および314の光電変換部13および14は、光電変換部13および14の各々に近接して配置された遮光マスク開口を通過した光束を受光する。光電変換部13に近接して配置された遮光マスク開口の形状は、各焦点検出画素313のマイクロレンズ10により、マイクロレンズ10から測距瞳距離dだけ離間した測距瞳面90上の、焦点検出画素313の全てに共通した領域93に投影される。同じく光電変換部14に近接して配置された遮光マスク開口の形状は、各焦点検出画素314のマイクロレンズ10により、マイクロレンズ10から測距瞳距離dだけ離間した測距瞳面90上の、焦点検出画素314の全てに共通した領域94に投影される。一対の領域93および94を測距瞳と呼ぶ。   The photoelectric conversion units 13 and 14 of all the focus detection pixels 313 and 314 arranged on the image pickup device 212 receive the light flux that has passed through the light shielding mask opening arranged in proximity to each of the photoelectric conversion units 13 and 14. . The shape of the light-shielding mask opening arranged in the vicinity of the photoelectric conversion unit 13 is such that the focus on the distance measuring pupil plane 90 separated from the micro lens 10 by the distance pupil distance d by the micro lens 10 of each focus detection pixel 313. Projection is performed on a region 93 common to all the detection pixels 313. Similarly, the shape of the light-shielding mask opening arranged close to the photoelectric conversion unit 14 is formed on the distance measurement pupil plane 90 separated from the microlens 10 by the distance measurement pupil distance d by the microlens 10 of each focus detection pixel 314. The image is projected onto a region 94 common to all the focus detection pixels 314. The pair of regions 93 and 94 is called a distance measuring pupil.

従って各焦点検出画素313の光電変換部13は、測距瞳93と各焦点検出画素313のマイクロレンズ10を通過する光束73を受光し、その光束73によって各マイクロレンズ10上に形成される像の強度に対応した信号を出力する。また各焦点検出画素314の光電変換部14は、測距瞳94と各焦点検出画素314のマイクロレンズ10を通過する光束74を受光し、その光束74によって各マイクロレンズ10上に形成される像の強度に対応した信号を出力する。   Therefore, the photoelectric conversion unit 13 of each focus detection pixel 313 receives the light flux 73 passing through the distance measuring pupil 93 and the microlens 10 of each focus detection pixel 313, and an image formed on each microlens 10 by the light flux 73. A signal corresponding to the intensity of the signal is output. The photoelectric conversion unit 14 of each focus detection pixel 314 receives a light beam 74 passing through the distance measuring pupil 94 and the microlens 10 of each focus detection pixel 314, and an image formed on each microlens 10 by the light beam 74. A signal corresponding to the intensity of the signal is output.

一対の焦点検出画素313および314が受光する光束73および74が通過する測距瞳面90上の測距瞳93および94を統合した領域は、撮像画素310が受光する光束71が通過する測距瞳面90上の領域95と一致し、測距瞳面90上において光束73および74は光束71に対して相補的な関係になっている。   In a region where the distance measurement pupils 93 and 94 on the distance measurement pupil plane 90 through which the light beams 73 and 74 received by the pair of focus detection pixels 313 and 314 pass is integrated, the distance measurement through which the light beam 71 received by the imaging pixel 310 passes is measured. The light beams 73 and 74 coincide with the region 95 on the pupil plane 90, and the light beams 73 and 74 have a complementary relationship with the light beam 71 on the distance measurement pupil surface 90.

上述した一対の焦点検出画素313および314を交互にかつ直線状に多数配置し、各焦点検出画素の光電変換部の出力を測距瞳93および測距瞳94に対応した一対の出力グループにまとめることによって、測距瞳93および測距瞳94をそれぞれ通過する一対の光束が垂直方向の焦点検出画素列上に形成する一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に、一対の測距瞳の重心間隔と測距瞳距離との比例関係に応じた変換係数を用いた変換演算を行うことによって、焦点検出位置における予定結像面と現在の結像面との偏差、すなわちデフォーカス量が算出される。   A large number of the pair of focus detection pixels 313 and 314 described above are arranged alternately and linearly, and the output of the photoelectric conversion unit of each focus detection pixel is collected into a pair of output groups corresponding to the distance measurement pupil 93 and the distance measurement pupil 94. Thus, information on the intensity distribution of the pair of images formed on the focus detection pixel array in the vertical direction by the pair of light beams passing through the distance measuring pupil 93 and the distance measuring pupil 94 can be obtained. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process), which will be described later, to this information, an image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method. Further, by performing a conversion operation using a conversion coefficient corresponding to the proportional relationship between the distance between the center of gravity of the pair of distance measurement pupils and the distance measurement pupil distance, the image shift amount and the current image plane at the focus detection position are A deviation from the image plane, that is, a defocus amount is calculated.

図8は1つの焦点検出エリアに属する焦点検出画素が受光する一対の焦点検出光束73,74の状態を示している。これに対して、図9および図10は図2のように撮像素子212(センサーチップ)が基本状態に配置された場合において、撮影画面上の異なる位置に配置された9つの焦点検出エリアに属する焦点検出画素が受光する一対の焦点検出光束73,74の状態を示している。なお、図9および10においては、各焦点検出エリアの中央位置41〜49およびその近傍の一対の焦点検出画素を代表として示している。   FIG. 8 shows a state of a pair of focus detection light beams 73 and 74 received by the focus detection pixels belonging to one focus detection area. On the other hand, FIGS. 9 and 10 belong to nine focus detection areas arranged at different positions on the photographing screen when the image sensor 212 (sensor chip) is arranged in the basic state as shown in FIG. A state of a pair of focus detection light beams 73 and 74 received by the focus detection pixel is shown. 9 and 10, the center positions 41 to 49 of each focus detection area and a pair of focus detection pixels in the vicinity thereof are shown as representatives.

図9は撮影画面100に対応する面97のx軸に垂直な平面から見た場合の一対の焦点検出光束73,74の状態を示しており、図10は撮影画面100に対応する面97のy軸に垂直な平面から見た場合の一対の焦点検出光束73,74の状態を示している。また図9および図10において面97は光軸91に垂直である。光学系205の射出瞳96が光軸方向において測距瞳距離dと同じ位置にある場合の射出瞳96A、測距瞳距離dよりも遠い位置にある場合の射出瞳96B、および測距瞳距離dよりも近い位置にある場合の射出瞳96Cが、図9および図10にそれぞれ示されている。   FIG. 9 shows a state of the pair of focus detection light beams 73 and 74 when viewed from a plane perpendicular to the x-axis of the surface 97 corresponding to the photographing screen 100, and FIG. 10 shows the surface 97 corresponding to the photographing screen 100. The state of a pair of focus detection light beams 73 and 74 when viewed from a plane perpendicular to the y-axis is shown. 9 and 10, the surface 97 is perpendicular to the optical axis 91. The exit pupil 96A when the exit pupil 96 of the optical system 205 is at the same position as the distance measurement pupil distance d in the optical axis direction, the exit pupil 96B when located at a position farther than the distance measurement pupil distance d, and the distance measurement pupil distance The exit pupil 96C in a position closer to d is shown in FIGS. 9 and 10, respectively.

光学系205の射出瞳96A〜96Cは光学系205を撮像素子212側から見た場合の絞り開口の像であり、光軸91を中心とした円形の瞳となり、その瞳径は絞り開口径に応じて変化する。   The exit pupils 96 </ b> A to 96 </ b> C of the optical system 205 are images of a diaphragm aperture when the optical system 205 is viewed from the image sensor 212 side, and become a circular pupil centered on the optical axis 91, and the pupil diameter is equal to the diaphragm aperture diameter. Will change accordingly.

図11〜図13は射出瞳96A〜96Cがそれぞれ位置する面において、射出瞳96A〜96Cと、一対の焦点検出光束73および74が通る領域とを重ねて、撮像素子212側の光軸に垂直な平面から見た図である。図11(a)〜(i)は、焦点検出エリア101〜109のそれぞれの中心に位置する点41〜49における射出瞳96A〜96Cと一対の焦点検出光束73および74が通る領域との関係を示している。図12(a)〜(i)および図13(a)〜(i)についても同様である。図11〜13に示す互いに直交する一点鎖線は、各射出瞳96の中心を通る。   11 to 13, the exit pupils 96 </ b> A to 96 </ b> C and the region through which the pair of focus detection light beams 73 and 74 pass are overlapped on the plane on which the exit pupils 96 </ b> A to 96 </ b> C are positioned, and are perpendicular to the optical axis on the image sensor 212 side. FIG. 11A to 11I show the relationship between the exit pupils 96A to 96C and the regions through which the pair of focus detection light beams 73 and 74 pass at points 41 to 49 located at the centers of the focus detection areas 101 to 109, respectively. Show. The same applies to FIGS. 12 (a) to (i) and FIGS. 13 (a) to (i). The alternate long and short dash lines shown in FIGS. 11 to 13 pass through the center of each exit pupil 96.

図9および図10において、光学系205の射出瞳96が光軸方向において測距瞳距離dと同じ位置にある射出瞳96Aである場合には、図11に示すように全ての焦点検出エリア101〜109が受光する一対の焦点検出光束73,74は射出瞳96Aにより対称に制限される。このような状態では一対の焦点検出光束73,74のバランスが揃っているので、各焦点検出エリアに属する一対の焦点検出画素313および314はほぼ同レベルの信号を出力する。   9 and 10, when the exit pupil 96 of the optical system 205 is the exit pupil 96A at the same position as the distance measuring pupil distance d in the optical axis direction, as shown in FIG. The pair of focus detection light beams 73 and 74 received by .about.109 are symmetrically limited by the exit pupil 96A. In this state, since the pair of focus detection light beams 73 and 74 are balanced, the pair of focus detection pixels 313 and 314 belonging to each focus detection area outputs signals of substantially the same level.

図9および図10において、光学系205の射出瞳96が光軸方向において測距瞳距離dより遠い位置にある射出瞳96Bである場合には、図12に示すようにx軸上に配置された焦点検出エリア104〜106が受光する一対の焦点検出光束73,74は射出瞳96Bにより対称に制限される。しかし、焦点検出エリア101〜103および107〜109が受光する一対の焦点検出光束73,74は射出瞳96Bにより、面97から射出瞳96Bまでの距離や、射出瞳96Bの瞳径の大きさ(F値)や、焦点検出画素313および314の撮影画面中心に対する位置(x,y)に応じて非対称に制限される。このような状態では一対の焦点検出光束73,74のバランスが崩れるので、焦点検出エリア101〜103および107〜109に属する一対の焦点検出画素313および314は相互間にレベル差が生じた信号を出力する。   9 and 10, when the exit pupil 96 of the optical system 205 is the exit pupil 96B located at a position farther than the distance measuring pupil distance d in the optical axis direction, it is arranged on the x-axis as shown in FIG. The pair of focus detection light beams 73 and 74 received by the focus detection areas 104 to 106 are symmetrically limited by the exit pupil 96B. However, the pair of focus detection light beams 73 and 74 received by the focus detection areas 101 to 103 and 107 to 109 are, by the exit pupil 96B, the distance from the surface 97 to the exit pupil 96B and the size of the pupil diameter of the exit pupil 96B ( F value) and the position (x, y) of the focus detection pixels 313 and 314 with respect to the center of the photographing screen are limited asymmetrically. In such a state, since the balance between the pair of focus detection light beams 73 and 74 is lost, the pair of focus detection pixels 313 and 314 belonging to the focus detection areas 101 to 103 and 107 to 109 outputs signals having a level difference between them. Output.

図9および図10において、光学系205の射出瞳96が光軸方向において測距瞳距離dより近い位置にある射出瞳96Cである場合には、図13に示すようにx軸上に配置された焦点検出エリア104〜106が受光する一対の焦点検出光束73,74は射出瞳96Cにより対称に制限される。しかし、焦点検出エリア101〜103および107〜109が受光する一対の焦点検出光束73,74は射出瞳96Cにより、面97から射出瞳96Cまでの距離や、射出瞳96Cの瞳径の大きさ(F値)や、焦点検出画素の撮影画面中心に対する位置(x,y)に応じて図12とは反対方向に非対称に制限される。このような状態では一対の焦点検出光束73,74のバランスが崩れるので、焦点検出エリア101〜103および107〜109に属する一対の焦点検出画素313および314は相互間にレベル差が生じた信号を出力する。   9 and 10, when the exit pupil 96 of the optical system 205 is an exit pupil 96C located at a position closer to the distance measurement pupil distance d in the optical axis direction, it is arranged on the x-axis as shown in FIG. The pair of focus detection light beams 73 and 74 received by the focus detection areas 104 to 106 are symmetrically limited by the exit pupil 96C. However, the pair of focus detection light beams 73 and 74 received by the focus detection areas 101 to 103 and 107 to 109 are, by the exit pupil 96C, the distance from the surface 97 to the exit pupil 96C and the pupil diameter of the exit pupil 96C ( F value) and the position (x, y) of the focus detection pixel with respect to the center of the shooting screen are limited asymmetrically in the opposite direction to FIG. In such a state, since the balance between the pair of focus detection light beams 73 and 74 is lost, the pair of focus detection pixels 313 and 314 belonging to the focus detection areas 101 to 103 and 107 to 109 outputs signals having a level difference between them. Output.

上記のように撮像素子212(センサーチップ)が基本状態に配置されている場合には、測距瞳93、94の並び方向(焦点検出光束73,74の並び方向)と直交する方向のx軸上に配置された焦点検出エリア104〜106においては、面97から光学系205の射出瞳96までの距離に関わらず一対の焦点検出光束73,74が対称に制限される。一方x軸から離れて配置された焦点検出エリア101〜103、107〜109においては、面97から光学系205の射出瞳96までの距離が測距瞳距離dに一致する場合には一対の焦点検出光束73,74が対称に制限されるが、面97から光学系205の射出瞳96までの距離が測距瞳距離dと異なる場合には、面97から光学系205の射出瞳96までの距離や焦点検出エリアの位置に応じて一対の焦点検出光束73,74が非対称に制限される。   When the image sensor 212 (sensor chip) is arranged in the basic state as described above, the x axis in the direction orthogonal to the direction in which the distance measuring pupils 93 and 94 are aligned (the direction in which the focus detection light beams 73 and 74 are aligned) In the focus detection areas 104 to 106 arranged above, the pair of focus detection light beams 73 and 74 are symmetrically limited regardless of the distance from the surface 97 to the exit pupil 96 of the optical system 205. On the other hand, in the focus detection areas 101 to 103 and 107 to 109 arranged away from the x-axis, when the distance from the surface 97 to the exit pupil 96 of the optical system 205 coincides with the distance measurement pupil distance d, a pair of focus points. Although the detection light beams 73 and 74 are limited to be symmetrical, if the distance from the surface 97 to the exit pupil 96 of the optical system 205 is different from the distance measuring pupil distance d, the distance from the surface 97 to the exit pupil 96 of the optical system 205 is The pair of focus detection light beams 73 and 74 are asymmetrically limited according to the distance and the position of the focus detection area.

次に姿勢調整手段221により撮像素子212(センサーチップ)が基本状態の配置から偏位させられた場合においての一対の焦点検出光束73,74の状態を考察する。   Next, the state of the pair of focus detection light beams 73 and 74 when the image sensor 212 (sensor chip) is displaced from the basic state by the attitude adjusting unit 221 will be considered.

図14および図15は、図3および図4のように撮像素子212(センサーチップ)が基本状態に対してシフトおよびチルトされた場合において、撮影画面上の異なる位置に配置された9つの焦点検出エリア101〜109に属する焦点検出画素313および314が受光する一対の焦点検出光束73,74の状態を示している。撮像素子212(センサーチップ)の受光面233は、まず基本状態に光軸に直交する面内でシフト量(Δx1,Δy1)だけシフトされ、次に受光面の中心周りにチルト(Δθ1、Δθ2)されている。なお、図14および図15においては、各焦点検出エリアの中心に位置する点41〜49の近傍の焦点検出画素313および314が受光する一対の焦点検出光束73および74の状態を、代表例として示している。   14 and 15 show nine focus detections arranged at different positions on the photographing screen when the image sensor 212 (sensor chip) is shifted and tilted with respect to the basic state as shown in FIGS. A state of the pair of focus detection light beams 73 and 74 received by the focus detection pixels 313 and 314 belonging to the areas 101 to 109 is shown. The light receiving surface 233 of the image sensor 212 (sensor chip) is first shifted to the basic state by a shift amount (Δx1, Δy1) in a plane orthogonal to the optical axis, and then tilted around the center of the light receiving surface (Δθ1, Δθ2). Has been. In FIGS. 14 and 15, the state of the pair of focus detection light beams 73 and 74 received by the focus detection pixels 313 and 314 in the vicinity of the points 41 to 49 located at the center of each focus detection area is shown as a representative example. Show.

図14は撮影画面100に対応する面97のx軸に垂直な平面から見た場合の一対の焦点検出光束73,74の状態を示しており、図15は撮影画面100に対応する面97のy軸に垂直な平面から見た場合の一対の焦点検出光束73,74の状態を示している。また図14および図15において面97は光軸91に垂直である。光学系205の射出瞳96が光軸方向において測距瞳距離dと同じ位置にある場合の射出瞳96A、測距瞳距離dよりも遠い位置にある場合の射出瞳96B、および測距瞳距離dよりも近い位置にある場合の射出瞳96Cが、図14および図15にそれぞれ示されている。   FIG. 14 shows a state of the pair of focus detection light beams 73 and 74 when viewed from a plane perpendicular to the x-axis of the surface 97 corresponding to the shooting screen 100, and FIG. 15 shows the state of the surface 97 corresponding to the shooting screen 100. The state of a pair of focus detection light beams 73 and 74 when viewed from a plane perpendicular to the y-axis is shown. 14 and 15, the surface 97 is perpendicular to the optical axis 91. The exit pupil 96A when the exit pupil 96 of the optical system 205 is at the same position as the distance measurement pupil distance d in the optical axis direction, the exit pupil 96B when located at a position farther than the distance measurement pupil distance d, and the distance measurement pupil distance The exit pupil 96C when located closer to d is shown in FIGS. 14 and 15, respectively.

図16〜図18は射出瞳96A〜96Cがそれぞれ位置する面において、射出瞳96A〜96Cと一対の焦点検出光束73および74が通る領域とを重ねて、撮像素子212側の光軸に垂直な平面から見た図である。図16(a)〜(i)は、焦点検出エリア101〜109のそれぞれの中心に位置する点41〜49における射出瞳96A〜96Cと一対の焦点検出光束73および74が通る領域との関係を示している。図17(a)〜(i)および図18(a)〜(i)についても同様である。図16〜18に示す互いに直交する一点鎖線は、各射出瞳96の中心を通る。   16 to 18, the exit pupils 96 </ b> A to 96 </ b> C and the region through which the pair of focus detection light beams 73 and 74 pass are overlapped on the plane on which the exit pupils 96 </ b> A to 96 </ b> C are positioned, and are perpendicular to the optical axis on the image sensor 212 side. It is the figure seen from the plane. 16A to 16I show the relationship between the exit pupils 96A to 96C and the regions through which the pair of focus detection light beams 73 and 74 pass at points 41 to 49 located at the centers of the focus detection areas 101 to 109, respectively. Show. The same applies to FIGS. 17 (a) to (i) and FIGS. 18 (a) to (i). 16 to 18, which are orthogonal to each other, pass through the center of each exit pupil 96.

撮像素子212の姿勢が基本状態から偏位していると、図14および図15に示すように光学系205の射出瞳96が光軸方向において測距瞳距離dと同じ位置にある射出瞳96Aである場合においても、図16に示すように全ての焦点検出エリア101〜109が受光する一対の焦点検出光束73,74は射出瞳96Aにより非対称に制限される。このとき、面97から射出瞳96Aまでの距離や、射出瞳96Aの瞳径の大きさ(F値)や、撮像素子212の姿勢の基本状態からの偏位量(偏差量)に応じて非対称に制限されることになる。このような状態では一対の焦点検出光束73,74のバランスが崩れるので、焦点検出エリア101〜109に属する一対の焦点検出画素313および314は相互間にレベル差が生じた信号を出力する。   When the posture of the image sensor 212 is deviated from the basic state, the exit pupil 96A of the optical system 205 is located at the same position as the distance measuring pupil distance d in the optical axis direction as shown in FIGS. In this case, as shown in FIG. 16, the pair of focus detection light beams 73 and 74 received by all the focus detection areas 101 to 109 are asymmetrically limited by the exit pupil 96A. At this time, the distance from the surface 97 to the exit pupil 96A, the size of the pupil diameter of the exit pupil 96A (F value), and the amount of deviation (deviation amount) from the basic state of the orientation of the image sensor 212 are asymmetric. Will be limited. In such a state, since the balance between the pair of focus detection light beams 73 and 74 is lost, the pair of focus detection pixels 313 and 314 belonging to the focus detection areas 101 to 109 output signals having a level difference therebetween.

図14および図15に示すように、光学系205の射出瞳96が光軸方向において測距瞳距離dより遠い位置にある射出瞳96Bである場合には、図17に示すように全ての焦点検出エリア101〜109が受光する一対の焦点検出光束73,74は射出瞳96Bにより、面97から射出瞳96Bまでの距離や、射出瞳96Bの瞳径の大きさ(F値)や、焦点検出画素の撮影画面中心に対する位置(x,y)や、撮像素子212の姿勢の基本状態からの偏位量(偏差量)に応じて非対称に制限される。このような状態では一対の焦点検出光束73,74のバランスが崩れるので、焦点検出エリア101〜109に属する一対の焦点検出画素313および314は相互間にレベル差が生じた信号を出力する。   As shown in FIGS. 14 and 15, when the exit pupil 96 of the optical system 205 is an exit pupil 96B located at a position farther than the distance measuring pupil distance d in the optical axis direction, as shown in FIG. A pair of focus detection light fluxes 73 and 74 received by the detection areas 101 to 109 is detected by the exit pupil 96B, the distance from the surface 97 to the exit pupil 96B, the pupil diameter size (F value) of the exit pupil 96B, and focus detection. It is limited asymmetrically according to the position (x, y) of the pixel with respect to the center of the shooting screen and the deviation (deviation) from the basic state of the posture of the image sensor 212. In such a state, since the balance between the pair of focus detection light beams 73 and 74 is lost, the pair of focus detection pixels 313 and 314 belonging to the focus detection areas 101 to 109 output signals having a level difference therebetween.

図14および図15において、光学系205の射出瞳96が光軸方向において測距瞳距離dより近い位置にある射出瞳96Cである場合には、図18に示すように全ての焦点検出エリア101〜109が受光する一対の焦点検出光束73,74は射出瞳96Cにより、面97から射出瞳96Cまでの距離や、射出瞳96Cの瞳径の大きさ(F値)や、焦点検出画素の撮影画面中心に対する位置(x,y)や、撮像素子212の姿勢の基本状態からの偏位量(偏差量)に応じて非対称に制限される。このような状態では一対の焦点検出光束73,74のバランスが崩れるので、焦点検出エリア101〜109に属する一対の焦点検出画素313および314は相互間にレベル差が生じた信号を出力する。   14 and 15, when the exit pupil 96 of the optical system 205 is the exit pupil 96C located at a position closer than the distance measuring pupil distance d in the optical axis direction, as shown in FIG. A pair of focus detection light beams 73 and 74 received by .about.109 is taken by the exit pupil 96C, the distance from the surface 97 to the exit pupil 96C, the size (F value) of the exit pupil 96C, and the focus detection pixel. Depending on the position (x, y) with respect to the center of the screen and the amount of deviation (deviation amount) from the basic state of the orientation of the image sensor 212, it is limited asymmetrically. In such a state, since the balance between the pair of focus detection light beams 73 and 74 is lost, the pair of focus detection pixels 313 and 314 belonging to the focus detection areas 101 to 109 output signals having a level difference therebetween.

上記のように撮像素子212(センサーチップ)が基本状態から偏位させられて配置されている場合には、全ての焦点検出エリア101〜109において、面97から光学系の射出瞳96までの距離や、焦点検出エリアの位置に応じて一対の焦点検出光束73,74が非対称に制限される。   When the image sensor 212 (sensor chip) is displaced from the basic state as described above, the distance from the surface 97 to the exit pupil 96 of the optical system in all the focus detection areas 101 to 109. Alternatively, the pair of focus detection light beams 73 and 74 are asymmetrically limited according to the position of the focus detection area.

図19は、一実施の形態のデジタルカメラ201の撮像動作を示すフローチャートである。ボディ駆動制御装置214は、ステップS100でデジタルカメラ201の電源がオンされると、ステップS110以降の撮像動作を開始する。ステップS100において撮像素子212は、ボディ駆動制御装置214により、一定周期で撮像動作を繰り返す動作モードに設定される。この動作モードにおいて、撮像素子212は、例えば1秒間に60フレームを出力する。   FIG. 19 is a flowchart illustrating an imaging operation of the digital camera 201 according to the embodiment. When the power of the digital camera 201 is turned on in step S100, the body drive control device 214 starts an imaging operation after step S110. In step S <b> 100, the image sensor 212 is set to an operation mode in which the body drive control device 214 repeats the imaging operation at a constant period. In this operation mode, the image sensor 212 outputs, for example, 60 frames per second.

ステップS110において、ボディ駆動制御装置214は、ユーザーによる操作部材220の操作によって撮像素子212の姿勢の調整量を取得し、取得した調整量に基づき、姿勢調整装置221を制御して撮像素子212の姿勢を調整する。   In step S <b> 110, the body drive control device 214 acquires the posture adjustment amount of the image sensor 212 by the operation of the operation member 220 by the user, and controls the posture adjustment device 221 based on the acquired adjustment amount to control the image sensor 212. Adjust posture.

ステップS120において1フレーム分の全画素データを読み出す。続くステップS130では、撮像画素のデータから間引きしたデータを液晶表示素子216にライブビュー表示させる。   In step S120, all pixel data for one frame is read. In the subsequent step S130, the data thinned out from the data of the imaging pixels is displayed on the liquid crystal display element 216 in a live view.

ステップS140では、不図示の選択入力装置により選択された焦点検出エリアに属する焦点検出画素が受光する一対の焦点検出光束のアンバランス量を決定する。例えば図2に示す焦点検出エリア103が選択された場合には、焦点検出エリア103の中心に位置する点43の撮像画面中心に対する座標(x1,y1)と、ボディ駆動制御装置214がレンズ駆動制御装置206との通信により得たレンズデータと、撮像素子の姿勢情報とに基づき、一対の焦点検出光束73,74が光学系205の射出瞳96を通過する光量を決定する。レンズデータは、射出瞳の距離や、射出瞳の大きさ又はF値である。撮像素子の姿勢情報は、図14および図15に示した撮像素子212のシフト量(Δx1,Δy1)およびチルト量(Δθ1,Δθ2)である。焦点検出エリア103に対応する一対の焦点検出画素313および314が受光する一対の焦点検出光束73,74は、図16(c)、図17(c)および図18(c)に示すような、光学系の射出瞳により制限されている状態である。図16(c)、図17(c)および図18(c)において、一対の焦点検出光束73,74が光学系205の射出瞳96を通過する一対の領域は、白抜きで表される非対称な一対の領域730および740として表される。このような状態において、一対の焦点検出光束73,74が光学系205の射出瞳96を通過する光量相互間のアンバランス量は、図16(c)、図17(c)および図18(c)に示す領域730の面積SAと領域730の面積SBとの比MAX(SA,SB)/MIN(SA,SB)で表される。アンバランス量は、焦点検出エリアの位置や、射出瞳距離および大きさや、姿勢情報といったパラメータに応じて幾何学的に計算して求めても良いし、予め上記パラメータを変数として測定した結果をテーブル化しておき、該テーブルに基づいて決定しても良い。アンバランス量=1の場合は領域730の面積と領域740の面積とが等しくなった状態であり、一対の焦点検出光束73,74は射出瞳96により対称に制限されていることになる。一対の焦点検出光束73,74の射出瞳96による制限の非対称性が大きくになるにつれ、アンバランス量は1より大きくなっていく。   In step S140, an unbalance amount of the pair of focus detection light beams received by the focus detection pixels belonging to the focus detection area selected by the selection input device (not shown) is determined. For example, when the focus detection area 103 shown in FIG. 2 is selected, the coordinates (x1, y1) of the point 43 positioned at the center of the focus detection area 103 with respect to the center of the imaging screen and the body drive control device 214 control the lens drive. Based on the lens data obtained by communication with the apparatus 206 and the attitude information of the image sensor, the amount of light through which the pair of focus detection light beams 73 and 74 pass through the exit pupil 96 of the optical system 205 is determined. The lens data is the distance of the exit pupil, the size of the exit pupil, or the F value. The orientation information of the image sensor is the shift amount (Δx1, Δy1) and the tilt amount (Δθ1, Δθ2) of the image sensor 212 shown in FIGS. A pair of focus detection light beams 73 and 74 received by the pair of focus detection pixels 313 and 314 corresponding to the focus detection area 103 are as shown in FIGS. 16 (c), 17 (c) and 18 (c). This is a state limited by the exit pupil of the optical system. In FIG. 16C, FIG. 17C, and FIG. 18C, the pair of regions through which the pair of focus detection light beams 73 and 74 pass through the exit pupil 96 of the optical system 205 is asymmetrically represented as white. Represented as a pair of regions 730 and 740. In such a state, the unbalance amount between the amounts of light in which the pair of focus detection light beams 73 and 74 pass through the exit pupil 96 of the optical system 205 is shown in FIGS. 16 (c), 17 (c), and 18 (c). ) Is expressed by a ratio MAX (SA, SB) / MIN (SA, SB) between the area SA of the region 730 and the area SB of the region 730. The unbalance amount may be obtained by geometric calculation according to parameters such as the position of the focus detection area, the exit pupil distance and size, and posture information, or a table of results obtained by measuring the above parameters as variables in advance. Alternatively, it may be determined based on the table. When the unbalance amount = 1, the area of the region 730 is equal to the area of the region 740, and the pair of focus detection light beams 73 and 74 are symmetrically limited by the exit pupil 96. As the asymmetry of the restriction by the exit pupil 96 of the pair of focus detection light beams 73 and 74 becomes larger, the unbalance amount becomes larger than 1.

ステップS150では、アンバランス量が所定閾値(例えば4)以上であるか調べ、所定閾値以上の場合はステップS160で不図示の表示装置(LEDなど)により焦点検出不能の表示を行ってステップS210に進む。図20はアンバランス量が大きい場合に、一対の焦点検出画素列が出力する信号波形(焦点検出画素データ)の例を示した図である。図20において、一方の焦点検出画素列が出力する焦点検出画素データ111ともう一方の焦点検出画素列が出力する焦点検出画素データ112との間には、アンバランス量に応じたレベル差が生じる。後述する焦点検出演算においては、このようなレベル差が生じた一対の焦点検出画素データ間の相対的なズレ量Zを算出しなければならない。しかし、そのレベル差が所定値以上、すなわちアンバランス量が所定閾値以上になると一対の焦点検出画素データ間の相対的なズレ量Zを正確に算出することが困難になり、焦点検出演算に大きな誤差が生じてしまう。そのためアンバランス量が所定閾値以上の場合には、正確な焦点検出が期待できないとして、ステップS170〜S200の焦点検出演算処理および焦点調節処理を禁止してそれらのステップをスキップしているのである。   In step S150, it is checked whether the unbalance amount is greater than or equal to a predetermined threshold value (for example, 4). If the unbalance amount is greater than or equal to the predetermined threshold value, a focus detection impossible display is performed by a display device (not shown) in step S160. move on. FIG. 20 is a diagram illustrating an example of a signal waveform (focus detection pixel data) output by a pair of focus detection pixel rows when the unbalance amount is large. In FIG. 20, a level difference corresponding to the unbalance amount is generated between the focus detection pixel data 111 output from one focus detection pixel column and the focus detection pixel data 112 output from the other focus detection pixel column. . In a focus detection calculation described later, it is necessary to calculate a relative shift amount Z between a pair of focus detection pixel data in which such a level difference has occurred. However, if the level difference is greater than or equal to a predetermined value, that is, the unbalance amount is greater than or equal to a predetermined threshold, it is difficult to accurately calculate the relative shift amount Z between the pair of focus detection pixel data, which is large for focus detection calculation. An error will occur. Therefore, when the unbalance amount is equal to or larger than the predetermined threshold, it is assumed that accurate focus detection cannot be expected, and the focus detection calculation process and the focus adjustment process in steps S170 to S200 are prohibited and these steps are skipped.

一方ステップS150でアンバランス量が所定閾値未満となった場合は、正確な焦点検出が期待できるとして、ステップS170〜S200の焦点検出演算処理および焦点調節処理に進む。すなわち、ステップS150では、ステップS140にて撮像素子の姿勢情報に基づき得られるアンバランス量に応じて、処理をステップS170〜S200の焦点検出演算処理および焦点調節処理へ進めるか否かが決定される。   On the other hand, if the unbalance amount is less than the predetermined threshold value in step S150, it is assumed that accurate focus detection can be expected, and the process proceeds to focus detection calculation processing and focus adjustment processing in steps S170 to S200. That is, in step S150, it is determined whether or not to proceed to the focus detection calculation process and the focus adjustment process in steps S170 to S200 according to the unbalance amount obtained based on the orientation information of the image sensor in step S140. .

ステップS170では、選択された焦点検出エリアにおいて用いられる変換係数Kdを求める。変換係数Kdは、一対の焦点検出光束73,74により形成される一対の像の相対的な位相ズレ量を、デフォーカス量、すなわち合焦像面と撮像面との間の光軸方向の偏位量に変換するための定数であって、一対の焦点検出光束の開き角に依存する。   In step S170, a conversion coefficient Kd used in the selected focus detection area is obtained. The conversion coefficient Kd is the amount of relative phase shift between the pair of images formed by the pair of focus detection light beams 73 and 74, and the defocus amount, that is, the deviation in the optical axis direction between the focused image plane and the imaging plane. This is a constant for converting to a unit quantity, and depends on the opening angle of a pair of focus detection light beams.

図21を用いて具体的な変換係数Kdの求め方について説明する。図21は一対の焦点検出光束73,74が光学系205の射出瞳96によって非対称に制限された場合の図である。図21に示す互いに直交する一点鎖線a軸およびb軸は、各射出瞳96の中心を通る。射出瞳96によって制限された焦点検出光束73の領域730の重心113と、射出瞳96によって制限された焦点検出光束74の領域740の重心114との間のb軸方向の間隔をGbとすると、変換係数Kdは射出瞳距離でGbを除した値となる。ここで射出瞳距離とは図9に示す面97から射出瞳96までの距離のことである。上記重心113、114の位置は上記パラメータ、すなわち焦点検出エリアの位置や、射出瞳距離および大きさや、姿勢情報に応じて幾何学的に計算して求めても良いし、予め上記パラメータを変数として測定した結果をテーブル化しておき、該テーブルに基づいて決定しても良い。すなわち、ステップS170では、撮像素子の姿勢情報に応じて変換係数Kdが決定される。   A specific method for obtaining the conversion coefficient Kd will be described with reference to FIG. FIG. 21 is a view when the pair of focus detection light beams 73 and 74 are asymmetrically limited by the exit pupil 96 of the optical system 205. The alternate long and short dashed lines a-axis and b-axis shown in FIG. 21 pass through the center of each exit pupil 96. When the distance in the b-axis direction between the center of gravity 113 of the region 730 of the focus detection light beam 73 restricted by the exit pupil 96 and the center of gravity 114 of the region 740 of the focus detection light beam 74 restricted by the exit pupil 96 is Gb, The conversion coefficient Kd is a value obtained by dividing Gb by the exit pupil distance. Here, the exit pupil distance is a distance from the surface 97 to the exit pupil 96 shown in FIG. The positions of the centroids 113 and 114 may be obtained by geometric calculation according to the above parameters, that is, the position of the focus detection area, the exit pupil distance and size, and the posture information. The measurement results may be tabulated and determined based on the table. That is, in step S170, the conversion coefficient Kd is determined according to the orientation information of the image sensor.

ステップS180においては選択された焦点検出エリアに属する焦点検出画素のデータに基づき焦点検出演算を行って像ズレ量を算出し、該像ズレ量にステップS170で撮像素子の姿勢情報に応じて決定された変換係数Kdを乗じて、選択された焦点検出エリアのデフォーカス量を算出する。ステップS180の詳細については後述する。   In step S180, a focus detection calculation is performed based on the data of the focus detection pixels belonging to the selected focus detection area to calculate an image shift amount, and the image shift amount is determined according to the posture information of the image sensor in step S170. The defocus amount of the selected focus detection area is calculated by multiplying the conversion coefficient Kd. Details of step S180 will be described later.

ステップS190では合焦近傍か否か、すなわち算出されたデフォーカス量の絶対値が所定値以内であるか否かを調べる。合焦近傍でないと判定された場合はステップS200へ進み、デフォーカス量をレンズ駆動制御装置206へ送信し、交換レンズ202のフォーカシングレンズ210を合焦位置に駆動させる。その後、ステップS210へ進む。   In step S190, it is checked whether or not the focus is close, that is, whether or not the calculated absolute value of the defocus amount is within a predetermined value. If it is determined that the focus is not close, the process proceeds to step S200, the defocus amount is transmitted to the lens drive control device 206, and the focusing lens 210 of the interchangeable lens 202 is driven to the focus position. Thereafter, the process proceeds to step S210.

ステップS190で合焦近傍であると判定された場合はステップS210へ進む。ステップS210では、シャッターボタン(不図示)の操作によりシャッターレリーズがなされたか否かを判別する。シャッターレリーズがなされていないと判定された場合はステップS110へ戻り、上述した動作を繰り返す。一方、シャッターレリーズがなされたと判定された場合はステップS220へ進み、レンズ駆動制御装置206へ絞り調整命令を送信し、交換レンズ202の絞り値を制御F値(撮影者により、または自動で設定されたF値)にする。絞り制御が終了した時点で、撮像素子212に被写体輝度に応じた露光時間による撮像動作を行わせ、撮像素子212の撮像画素310および全ての焦点検出画素313,314から画像データを読み出す。   If it is determined in step S190 that the focus is close to the focus, the process proceeds to step S210. In step S210, it is determined whether or not a shutter release has been performed by operating a shutter button (not shown). If it is determined that the shutter release has not been performed, the process returns to step S110 and the above-described operation is repeated. On the other hand, if it is determined that the shutter release has been performed, the process proceeds to step S220, an aperture adjustment command is transmitted to the lens drive control device 206, and the aperture value of the interchangeable lens 202 is set to the control F value (set by the photographer or automatically). (F value). When the aperture control is finished, the image sensor 212 is caused to perform an image capturing operation with an exposure time corresponding to the subject brightness, and image data is read from the image capturing pixel 310 and all the focus detection pixels 313 and 314 of the image capturing element 212.

ステップS230において、焦点検出画素列101〜109の各画素位置における仮想的な撮像画素のデータ(撮像信号)を、焦点検出画素の周囲の撮像画素のデータ(撮像信号)と焦点検出画素のデータ(焦点検出信号)とに基づいて画素補間する。例えば特開2009−094881号公報に開示された画素補間処理を行う。続くステップS240では、撮像画素のデータおよび補間された撮像画素のデータからなる画像データをメモリカード219に記憶し、ステップS110へ戻って上述した動作を繰り返す。   In step S230, the data (imaging signal) of the virtual imaging pixels at the respective pixel positions of the focus detection pixel columns 101 to 109 are changed to the data of the imaging pixels around the focus detection pixel (imaging signal) and the data of the focus detection pixel ( Pixel interpolation based on the focus detection signal). For example, the pixel interpolation processing disclosed in Japanese Unexamined Patent Application Publication No. 2009-094881 is performed. In the subsequent step S240, image data composed of image data and interpolated image data is stored in the memory card 219, and the process returns to step S110 to repeat the above-described operation.

次に図19のステップS180で用いられる一般的な像ズレ検出演算処理(相関演算処理)の詳細について説明する。   Next, details of a general image shift detection calculation process (correlation calculation process) used in step S180 of FIG. 19 will be described.

焦点検出画素が検出する一対の像は、一対の焦点検出光束73,74が射出瞳により非対称に制限されて受光量のバランスが崩れている可能性があるので、光量バランス崩れに対して像ズレ検出精度を維持できるタイプの相関演算を施す。   The pair of images detected by the focus detection pixels may be unbalanced in the amount of received light due to the pair of focus detection light beams 73 and 74 being asymmetrically limited by the exit pupil, so that the image misalignment with respect to the light quantity balance collapse. A type of correlation calculation that can maintain detection accuracy is performed.

焦点検出画素列から読み出された一対のデータ列(A1〜A1、A2〜A2:Mはデータ数)について、特開2007−333720号公報に開示された相関演算式(1)を用いて相関量C(k)を演算する。
C(k)=Σ|A1×A2n+1+k−A2n+k×A1n+1| ・・・(1)
The correlation calculation formula (1) disclosed in Japanese Patent Application Laid-Open No. 2007-333720 for a pair of data strings (A1 1 to A1 M , A2 1 to A2 M : M is the number of data) read from the focus detection pixel string Is used to calculate the correlation amount C (k).
C (k) = Σ | A1 n × A2 n + 1 + k -A2 n + k × A1 n + 1 | ··· (1)

Σ演算はnについて累積される。nのとる範囲は、像ずらし量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。像ずらし量kは整数で あり、データ列のデータ間隔を単位とした相対的シフト量である。 The Σ operation is accumulated for n. The range taken by n is limited to the range in which the data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k exists according to the image shift amount k. The image shift amount k is an integer and is a relative shift amount with the data interval of the data string as a unit.

特開2009−141791号公報に開示された算出方法によると、相関量C(k)の極小値C(ks)を与える像ずらし量ksの信頼性があると判定された場合は、式(2)により、像ズレ量shftを算出することができる。式(2)において、PYは焦点検出画素の画素ピッチの2倍(検出ピッチ)である。
shft=PY×ks ・・・(2)
According to the calculation method disclosed in Japanese Unexamined Patent Application Publication No. 2009-141791, when it is determined that the image shift amount ks that gives the minimum value C (ks) of the correlation amount C (k) is reliable, the equation (2 ) To calculate the image shift amount shft. In Expression (2), PY is twice the pixel pitch of the focus detection pixels (detection pitch).
shft = PY × ks (2)

式(2)で算出された像ズレ量に図19のステップS170で求めた変換係数Kdを乗じてデフォーカス量defへ変換する。
def=Kd×shft ・・・(3)
The image shift amount calculated by the equation (2) is multiplied by the conversion coefficient Kd obtained in step S170 in FIG. 19 to convert it to the defocus amount def.
def = Kd × shft (3)

以上のように本発明においては、一対の焦点検出光束を受光する瞳分割型位相差検出方式の焦点検出画素を備えた撮像素子(センサーチップ)の姿勢情報(シフト量、チルト量)に応じて、瞳分割型位相差検出方式の焦点検出画素を用いた焦点検出の可否を判定したり、像ズレ量をデフォーカス量に変換する際の変換係数の値を変更する。したがって、撮像素子(センサーチップ)の姿勢状態に関わらず、確実に焦点検出を行うことができる。   As described above, in the present invention, according to the posture information (shift amount, tilt amount) of the image sensor (sensor chip) including the focus detection pixels of the pupil division type phase difference detection method that receives the pair of focus detection light beams. Then, it is determined whether or not the focus detection using the focus detection pixel of the pupil division type phase difference detection method is performed, and the value of the conversion coefficient when the image shift amount is converted into the defocus amount is changed. Therefore, focus detection can be reliably performed regardless of the posture state of the image sensor (sensor chip).

−−−変形例−−−
(1)上記実施形態においては、撮像素子(センサーチップ)の姿勢情報(シフト量、チルト量)に応じて、瞳分割型位相差検出方式の焦点検出画素を用いた焦点検出の可否を判定したり、像ズレ量をデフォーカス量に変換する際の変換係数の値を変更した。しかし、アオリ撮影は光学系と撮像素子との間の相対的な姿勢を変化させることにより達成できるので、撮像素子の姿勢を固定した状態で光学系の姿勢を基本状態から偏位させることによりアオリ撮影を行うデジタルカメラにも本発明を適用することができる。光学系の姿勢の基本状態とは、光学系が設計的に定められた位置に誤差なく正確に配置された状態、すなわち所定の配置にある状態をいう。
---- Modified example ---
(1) In the above embodiment, whether or not focus detection using the focus detection pixel of the pupil division type phase difference detection method is determined according to the posture information (shift amount, tilt amount) of the image sensor (sensor chip). Or, the value of the conversion coefficient when converting the image shift amount to the defocus amount was changed. However, tilt photography can be achieved by changing the relative orientation between the optical system and the image sensor, so that the orientation of the optical system is deviated from the basic state while the orientation of the image sensor is fixed. The present invention can also be applied to a digital camera that performs shooting. The basic state of the posture of the optical system refers to a state in which the optical system is accurately arranged at a position determined by design without error, that is, a state in a predetermined arrangement.

例えば交換レンズ202に光学系の姿勢調整を行う姿勢調整装置を組込み、カメラボディ203のボディ駆動制御装置214から姿勢調整のための制御量(シフト量、チルト量)をレンズ駆動制御装置206に伝達する。こうすることにより、レンズ駆動制御装置206がレンズ側の姿勢調整装置を制御して光学系の姿勢調整を行うとともに、カメラボディ側では姿勢調整量の制御量(姿勢情報)、すなわち基本状態からの偏差量に応じて、瞳分割型位相差検出方式の焦点検出画素を用いた焦点検出の可否を判定したり、像ズレ量をデフォーカス量に変換する際の変換係数の値を変更することができる。   For example, a posture adjustment device for adjusting the posture of the optical system is incorporated in the interchangeable lens 202, and control amounts (shift amount, tilt amount) for posture adjustment are transmitted from the body drive control device 214 of the camera body 203 to the lens drive control device 206. To do. By doing this, the lens drive control device 206 controls the posture adjustment device on the lens side to adjust the posture of the optical system. On the camera body side, the control amount of the posture adjustment amount (posture information), that is, from the basic state. According to the deviation amount, it is possible to determine whether focus detection is possible using the focus detection pixel of the pupil division type phase difference detection method, or to change the value of the conversion coefficient when converting the image shift amount into the defocus amount. it can.

図22はレンズ側に組み込まれた姿勢調整装置により光学系205が基本状態の光軸91から光学系シフト量±ΔXYだけシフトされた場合の配置図である。光学系205が、基本状態における光学系205Aである場合、光軸91は、撮像素子(センサーチップ)212の中心218、すなわち撮像素子(センサーチップ)212の受光面233の中心218における受光面233の法線207と一致する光軸91Aである。光学系205が、基本状態における光学系205Aから光学系シフト量ΔXYだけシフトされた結果、光学系205Bへ移動した場合、光軸91は、光軸91Aから光学系シフト量ΔXYだけ離間した光軸91Bへ移動する。光学系205が、基本状態における光学系205Aから光学系シフト量−ΔXYだけシフトされた結果、光学系205Cへ移動した場合、光軸91は、光軸91Aから光学系シフト量−ΔXYだけ離間した光軸91Cへ移動する。なお、図22は説明を分かりやすくするために模式的に表したものであり、光学系シフト量±ΔXYの大きさは図22に示した大きさに限られない。   FIG. 22 is an arrangement diagram when the optical system 205 is shifted from the optical axis 91 in the basic state by an optical system shift amount ± ΔXY by the attitude adjusting device incorporated on the lens side. When the optical system 205 is the optical system 205A in the basic state, the optical axis 91 is the light receiving surface 233 at the center 218 of the image sensor (sensor chip) 212, that is, the center 218 of the light receiving surface 233 of the image sensor (sensor chip) 212. The optical axis 91A coincides with the normal line 207. When the optical system 205 is shifted from the optical system 205A in the basic state by the optical system shift amount ΔXY and moved to the optical system 205B, the optical axis 91 is separated from the optical axis 91A by the optical system shift amount ΔXY. Move to 91B. When the optical system 205 is shifted from the optical system 205A in the basic state by the optical system shift amount −ΔXY and moved to the optical system 205C, the optical axis 91 is separated from the optical axis 91A by the optical system shift amount −ΔXY. Move to the optical axis 91C. Note that FIG. 22 is schematically shown for ease of explanation, and the magnitude of the optical system shift amount ± ΔXY is not limited to that shown in FIG.

図23はレンズ側に組み込まれた姿勢調整装置により光学系205が撮像素子212の中心218の周りに光学系チルト量±Δθだけチルトされた場合の配置図である。図23において、光軸91Aは、撮像素子(センサーチップ)212の中心218における受光面233の法線207とのなす角度が0度である。光学系205Aが、法線207に対して垂直な面内に含まれる撮像素子(センサーチップ)212の中心218を通る直線を回転軸として、光学系チルト量Δθだけチルトされた結果、光学系205は光学系205Pへ移動し、その光軸91Pと法線207とは角度Δθをなす。光学系205Aが、法線207に対して垂直な面内に含まれる撮像素子(センサーチップ)212の中心218を通る直線を回転軸として、光学系チルト量−Δθだけチルトされた結果、光学系205は光学系205Qへ移動し、その光軸91Qと法線207とは角度−Δθをなす。なお、図23は説明を分かりやすくするために模式的に表したものであり、光学系チルト量±Δθの大きさは図23に示した大きさに限られない。   FIG. 23 is an arrangement diagram in the case where the optical system 205 is tilted by the optical system tilt amount ± Δθ around the center 218 of the image sensor 212 by the attitude adjusting device incorporated on the lens side. In FIG. 23, the angle formed between the optical axis 91A and the normal line 207 of the light receiving surface 233 at the center 218 of the image sensor (sensor chip) 212 is 0 degree. As a result of the optical system 205A being tilted by the optical system tilt amount Δθ with a straight line passing through the center 218 of the image sensor (sensor chip) 212 included in a plane perpendicular to the normal line 207 as a rotation axis, the optical system 205 Moves to the optical system 205P, and the optical axis 91P and the normal line 207 form an angle Δθ. As a result of the optical system 205A being tilted by an optical system tilt amount −Δθ with a straight line passing through the center 218 of the image sensor (sensor chip) 212 included in a plane perpendicular to the normal line 207 as a rotation axis, the optical system 205 moves to the optical system 205Q, and its optical axis 91Q and normal 207 form an angle -Δθ. Note that FIG. 23 is schematically shown for ease of explanation, and the magnitude of the optical system tilt amount ± Δθ is not limited to that shown in FIG.

上記光学系の姿勢調整はレンズ側に備えられた操作部材(不図示)により手動操作により行われる構成であってもよい。このような場合には操作部材によって行われた光学系の姿勢調整量(シフト量、チルト量)をレンズ駆動制御装置206からボディ駆動制御装置214に伝達することにより、カメラボディ側では姿勢調整量(姿勢情報)に応じて、瞳分割型位相差検出方式の焦点検出画素を用いた焦点検出の可否を判定したり、像ズレ量をデフォーカス量に変換する際の変換係数の値を変更することができる。   The posture adjustment of the optical system may be performed manually by an operation member (not shown) provided on the lens side. In such a case, the posture adjustment amount (shift amount, tilt amount) of the optical system performed by the operation member is transmitted from the lens drive control device 206 to the body drive control device 214, so that the posture adjustment amount on the camera body side. In accordance with (posture information), it is determined whether or not focus detection using focus detection pixels of the pupil division type phase difference detection method is performed, or the value of the conversion coefficient when converting the image shift amount into the defocus amount is changed. be able to.

(2)上記実施形態においては、意図的に光学系と撮像素子との間の相対的な姿勢を変化させているが、本発明はこれに限定されることはない。 (2) In the above embodiment, the relative posture between the optical system and the image sensor is intentionally changed, but the present invention is not limited to this.

例えばデジタルカメラ201製造・修理のため、あるいは撮像素子212交換のため、撮像素子(センサーチップ)をカメラボディに組み込む際に、組込み誤差により撮像素子(センサーチップ)が正規の位置から偏位して組み込まれた場合に本発明を適用することができる。上記組込み時の姿勢情報(姿勢誤差)を測定してカメラボディ内の記憶装置(不図示)に記憶しておく。ボディ駆動制御装置214は、記憶した姿勢情報(シフト量、チルト量)に応じて、瞳分割型位相差検出方式の焦点検出画素を用いた焦点検出の可否を判定したり、像ズレ量をデフォーカス量に変換する際の変換係数の値を決定することができる。   For example, when the image sensor (sensor chip) is incorporated into the camera body for manufacturing / repair of the digital camera 201 or for replacement of the image sensor 212, the image sensor (sensor chip) is displaced from the normal position due to an incorporation error. The present invention can be applied when incorporated. The posture information (posture error) at the time of incorporation is measured and stored in a storage device (not shown) in the camera body. The body drive control device 214 determines whether or not focus detection is possible using the focus detection pixels of the pupil division type phase difference detection method, and determines the image shift amount according to the stored posture information (shift amount and tilt amount). The value of the conversion coefficient when converting to the focus amount can be determined.

このような構成にしておけば、撮像素子をボディに組み込む際の組込み位置精度を緩めることができる。   With such a configuration, it is possible to relax the accuracy of the assembling position when the image sensor is incorporated into the body.

(3)例えば撮像素子の製造誤差によって生じる一対の焦点検出光束の方向のズレに対しても本発明を適用することができる。焦点検出画素313、314を構成する互いに平行なマイクロレンズと遮光マスクとの位置関係が、製造誤差または経年劣化のために、設計した位置関係から平行移動によって相対的にずれる場合がある。このような場合には、一対の焦点検出光束の方向は、図8に示す正規の方向から角度的にずれる、すなわち角度誤差を生じることとなるので、光学系に対する撮像素子上の焦点検出画素の位置が正規の位置から偏位する。上記角度誤差を測定し、姿勢情報(チルト量)としてカメラボディ内の記憶装置(不図示)に記憶しておく。ボディ駆動制御装置214は、記憶した姿勢情報(チルト量)に応じて、瞳分割型位相差検出方式の焦点検出画素を用いた焦点検出の可否を判定したり、像ズレ量をデフォーカス量に変換する際の変換係数の値を決定することができる。 (3) The present invention can also be applied to a deviation in the direction of a pair of focus detection light beams caused by, for example, a manufacturing error of the image sensor. In some cases, the positional relationship between the parallel microlenses constituting the focus detection pixels 313 and 314 and the light-shielding mask may be relatively shifted from the designed positional relationship by parallel movement due to manufacturing errors or aging degradation. In such a case, the directions of the pair of focus detection light beams are angularly deviated from the normal directions shown in FIG. 8, that is, an angle error occurs. The position deviates from the normal position. The angle error is measured and stored as posture information (tilt amount) in a storage device (not shown) in the camera body. The body drive control device 214 determines whether or not focus detection is possible using the focus detection pixel of the pupil division type phase difference detection method according to the stored posture information (tilt amount), and sets the image shift amount as the defocus amount. The value of the conversion coefficient at the time of conversion can be determined.

(4)図6に示す撮像素子212の部分拡大図では、各画素に1つの光電変換部を有する一対の焦点検出画素313,314を備える例を示したが、ひとつの焦点検出画素内に一対の光電変換部を備えるようにしてもよい。図24は図6に示す撮像素子212に代わる撮像素子212の部分拡大図であり、焦点検出画素311は一対の光電変換部13および14を備える。 (4) In the partially enlarged view of the image sensor 212 shown in FIG. 6, an example in which each pixel includes a pair of focus detection pixels 313 and 314 having one photoelectric conversion unit is shown. The photoelectric conversion unit may be provided. FIG. 24 is a partial enlarged view of an image sensor 212 that replaces the image sensor 212 shown in FIG. 6. The focus detection pixel 311 includes a pair of photoelectric conversion units 13 and 14.

図24に示す焦点検出画素311は、図6に示す焦点検出画素313および314のペアに相当した機能を果たす。焦点検出画素311は、マイクロレンズ10と一対の光電変換部13,14から構成される。焦点検出画素311には白色フィルタが配置されており、その分光感度特性は光電変換を行うフォトダイオードの分光感度特性と、赤外カットフィルタ(不図示)の分光感度特性とを総合した分光感度特性となる。その白色フィルタは、緑画素、赤画素および青画素の分光感度特性を加算したような分光感度特性を有し、高い感度を示す光波長領域は緑画素、赤画素および青画素の各々において各色フィルタが高い感度を示す光波長領域を包括している。   The focus detection pixel 311 shown in FIG. 24 performs a function corresponding to the pair of focus detection pixels 313 and 314 shown in FIG. The focus detection pixel 311 includes a microlens 10 and a pair of photoelectric conversion units 13 and 14. The focus detection pixel 311 is provided with a white filter, and its spectral sensitivity characteristic is a spectral sensitivity characteristic that combines the spectral sensitivity characteristic of a photodiode that performs photoelectric conversion and the spectral sensitivity characteristic of an infrared cut filter (not shown). It becomes. The white filter has a spectral sensitivity characteristic such that the spectral sensitivity characteristics of the green pixel, the red pixel, and the blue pixel are added, and the light wavelength region exhibiting high sensitivity is each color filter in each of the green pixel, the red pixel, and the blue pixel. Includes a light wavelength region exhibiting high sensitivity.

(5)上述した実施形態における撮像素子では焦点検出画素が白色フィルタを備えた例を示したが、撮像画素と同じ色フィルタ(例えば緑フィルタ)を備えるようにした場合にも本発明を適用することができる。 (5) In the image sensor in the above-described embodiment, the example in which the focus detection pixel includes the white filter has been described. However, the present invention is also applied to the case where the same color filter (for example, green filter) as that of the image capture pixel is provided. be able to.

(6)全ての画素を焦点検出画素311として構成するとともに、各焦点検出画素はベイヤー配列の色フィルタを備えるようにしてもよい。このようにすれば、撮影画面上の全ての位置で焦点検出が可能になるとともに、焦点検出画素311の一対の光電変換部13,14の出力を加算することにより、撮像画素の出力に相当する出力を容易に算出することができる。 (6) All the pixels may be configured as the focus detection pixels 311, and each focus detection pixel may include a Bayer array color filter. In this way, focus detection is possible at all positions on the shooting screen, and by adding the outputs of the pair of photoelectric conversion units 13 and 14 of the focus detection pixel 311, it corresponds to the output of the imaging pixel. The output can be easily calculated.

(7)上述した実施形態においては、撮像素子としてCCDイメージセンサやCMOSイメージセンサを用いることもできる。 (7) In the above-described embodiment, a CCD image sensor or a CMOS image sensor can be used as the image sensor.

(8)上述した実施形態における撮像素子では撮像画素がベイヤー配列の色フィルタを備えた例を示したが、色フィルタの構成や配列はこれに限定されることはない。例えば、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列やベイヤー配列以外の配列にも本発明を適用することができる。また色フィルタを備えないモノクロの撮像素子にも本発明を適用することができる。 (8) In the imaging device according to the above-described embodiment, the example in which the imaging pixel includes the color filter with the Bayer arrangement is shown, but the configuration and arrangement of the color filter are not limited to this. For example, the present invention can be applied to an arrangement other than the arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) or a Bayer arrangement. Further, the present invention can also be applied to a monochrome image sensor that does not include a color filter.

(9)撮像装置としては、上述したような、カメラボディに交換レンズが装着される構成のデジタルカメラに限定されない。例えば、レンズ一体型のデジタルカメラあるいはビデオカメラにも本発明を適用することができる。さらには、携帯電話などに内蔵される小型カメラモジュール、監視カメラやロボット用の視覚認識装置、車載カメラなどにも適用できる。 (9) The imaging apparatus is not limited to the digital camera having the configuration in which the interchangeable lens is mounted on the camera body as described above. For example, the present invention can be applied to a lens-integrated digital camera or video camera. Furthermore, the present invention can be applied to a small camera module built in a mobile phone, a surveillance camera, a visual recognition device for a robot, an in-vehicle camera, and the like.

10 マイクロレンズ、11、13、14 光電変換部、
41〜49 点、71 光束、73、74 焦点検出光束、
90 測距瞳面、 91 光軸、 93、94 測距瞳、
95 領域、96 射出瞳、97 面、
100 撮影画面、101〜109 焦点検出エリア、
111、112 焦点検出画素データ、113、114 重心、
201 デジタルカメラ、202 交換レンズ、203 カメラボディ、
204 マウント部、205 光学系、206 レンズ駆動制御装置、207 法線、
208 ズーミング用レンズ、209 レンズ、210 フォーカシング用レンズ、
211 絞り、212 撮像素子、213 電気接点、
214 ボディ駆動制御装置、
215 液晶表示素子駆動回路、216 液晶表示素子、217 接眼レンズ、
218 中心、219 メモリカード、220 操作部材、
221 姿勢調整装置、222 XYステージ、223 ゴニオステージ、
233 受光面、
310 撮像画素、311、313、314 焦点検出画素、
730、740 一対の領域
10 microlens, 11, 13, 14 photoelectric conversion unit,
41 to 49 points, 71 luminous flux, 73, 74 focus detection luminous flux,
90 Distance pupil plane, 91 Optical axis, 93, 94 Distance pupil,
95 areas, 96 exit pupils, 97 planes,
100 shooting screen, 101-109 focus detection area,
111, 112 focus detection pixel data, 113, 114 center of gravity,
201 digital camera, 202 interchangeable lens, 203 camera body,
204 mount unit, 205 optical system, 206 lens drive control device, 207 normal line,
208 zooming lens, 209 lens, 210 focusing lens,
211 Aperture, 212 Image sensor, 213 Electrical contact,
214 body drive control device,
215 liquid crystal display element driving circuit, 216 liquid crystal display element, 217 eyepiece,
218 center, 219 memory card, 220 operation member,
221 posture adjustment device, 222 XY stage, 223 gonio stage,
233 light receiving surface,
310 imaging pixels, 311, 313, 314 focus detection pixels,
730, 740 pair of regions

Claims (13)

結像光学系と、
前記結像光学系の射出瞳の一対の領域を通る一対の光束を受光し、該一対の光束が形成する一対の像に対応した一対の画像データを出力する焦点検出画素が配置されたセンサーチップと、
前記一対の画像データの位相差を算出するとともに、算出した前記位相差に基づき前記結像光学系の焦点調節状態を検出する焦点検出手段と、
前記結像光学系と前記センサーチップとの所定の配置からの偏差量を表す姿勢情報に基づき、前記焦点検出手段による前記焦点調節状態の検出処理方式を決定する決定手段とを備えることを特徴とする焦点検出装置。
An imaging optical system;
A sensor chip in which focus detection pixels that receive a pair of light beams passing through a pair of regions of the exit pupil of the imaging optical system and output a pair of image data corresponding to a pair of images formed by the pair of light beams are arranged. When,
A focus detection unit that calculates a phase difference between the pair of image data and detects a focus adjustment state of the imaging optical system based on the calculated phase difference;
And determining means for determining a detection processing method of the focus adjustment state by the focus detection means based on attitude information representing a deviation amount from a predetermined arrangement of the imaging optical system and the sensor chip. Focus detection device.
請求項1に記載の焦点検出装置において、
前記結像光学系と前記センサーチップとの相対的な姿勢を変更する姿勢変更手段と、
前記姿勢変更手段によって前記相対的な姿勢が変更された際の前記偏差量を表す前記姿勢情報を取得する取得手段とを備え、
前記決定手段は、前記取得手段によって取得された前記姿勢情報に基づき、前記検出処理方式を決定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
Posture changing means for changing a relative posture between the imaging optical system and the sensor chip;
Obtaining means for obtaining the posture information representing the deviation amount when the relative posture is changed by the posture changing means;
The focus detection apparatus, wherein the determination unit determines the detection processing method based on the posture information acquired by the acquisition unit.
請求項2に記載の焦点検出装置において、
前記姿勢変更手段は、前記センサーチップに対する前記結像光学系の姿勢を変更することによって、前記相対的な姿勢を変更することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 2,
The focus detection device, wherein the attitude changing unit changes the relative attitude by changing an attitude of the imaging optical system with respect to the sensor chip.
請求項2に記載の焦点検出装置において、
前記姿勢変更手段は、前記結像光学系に対する前記センサーチップの姿勢を変更することによって、前記相対的な姿勢を変更することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 2,
The focus detection device according to claim 1, wherein the posture changing means changes the relative posture by changing a posture of the sensor chip with respect to the imaging optical system.
請求項1に記載の焦点検出装置において、
前記姿勢情報を記憶する記憶手段をさらに備え、
前記姿勢情報は、前記結像光学系に対する前記センサーチップの姿勢調整誤差を表し、
前記決定手段は、前記記憶手段によって記憶された前記姿勢情報に基づき、前記検出処理方式を決定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
A storage means for storing the posture information;
The posture information represents a posture adjustment error of the sensor chip with respect to the imaging optical system,
The focus detection apparatus, wherein the determination unit determines the detection processing method based on the posture information stored by the storage unit.
請求項1〜5のいずれか1項に記載の焦点検出装置において、
前記姿勢情報は、前記結像光学系の光軸と、前記センサーチップの受光面の法線との間の角度偏差に関する情報であることを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 5,
The focus detection apparatus according to claim 1, wherein the posture information is information regarding an angular deviation between an optical axis of the imaging optical system and a normal line of a light receiving surface of the sensor chip.
請求項1〜5のいずれか1項に記載の焦点検出装置において、
前記姿勢情報は、前記結像光学系の光軸と前記センサーチップの設計中心との位置偏差に関する情報であることを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 5,
The focus detection apparatus according to claim 1, wherein the posture information is information related to a positional deviation between an optical axis of the imaging optical system and a design center of the sensor chip.
請求項1に記載の焦点検出装置において、
前記姿勢情報を記憶する記憶手段をさらに備え、
前記姿勢情報は、前記結像光学系に対する前記センサーチップ上の前記焦点検出画素の位置に関する製造誤差を表し、
前記決定手段は、前記記憶手段によって記憶された前記姿勢情報に基づき、前記焦点検出処理方式を決定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
A storage means for storing the posture information;
The posture information represents a manufacturing error related to the position of the focus detection pixel on the sensor chip with respect to the imaging optical system,
The focus detection apparatus, wherein the determination unit determines the focus detection processing method based on the posture information stored in the storage unit.
請求項8に記載の焦点検出装置において、
前記姿勢情報は、前記一対の光束の入射方向の設計値に対する前記入射方向の偏差に関する情報であることを特徴とする焦点検出装置。
The focus detection apparatus according to claim 8, wherein
The focus detection apparatus according to claim 1, wherein the posture information is information related to a deviation of the incident direction with respect to a design value of the incident direction of the pair of light beams.
請求項1〜9のいずれか1項に記載の焦点検出装置において、
前記決定手段は、前記検出処理方式として、前記姿勢情報に応じた変換係数に基づき前記位相差をデフォーカス量に変換することを決定することを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 9,
The focus detection apparatus according to claim 1, wherein the determination unit determines to convert the phase difference into a defocus amount based on a conversion coefficient corresponding to the posture information as the detection processing method.
請求項1〜9のいずれか1項に記載の焦点検出装置において、
前記決定手段は、前記検出処理方式として、前記姿勢情報に応じて前記一対の光束の相互間における光量のアンバランス量を検出し、該アンバランス量が所定値以上となる場合には前記焦点検出手段による前記焦点調節状態の検出を禁止することを決定することを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 9,
The determining means detects, as the detection processing method, an unbalance amount of the light amount between the pair of light beams according to the posture information, and the focus detection when the unbalance amount is a predetermined value or more. A focus detection apparatus that determines to prohibit detection of the focus adjustment state by means.
請求項1〜11のいずれか1項に記載の焦点検出装置において、
前記センサーチップ上には撮像画素と前記焦点検出画素とが混在して2次元的に配置されることを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 11,
The focus detection device, wherein the imaging pixels and the focus detection pixels are mixedly arranged on the sensor chip in a two-dimensional manner.
請求項1〜12のいずれか1項に記載の焦点検出装置において、
前記焦点検出画素は、マイクロレンズと前記マイクロレンズを介して前記一対の光束を受光する光電変換素子とを有し、
該マイクロレンズレンズにより、前記光電変換素子が前記一対の光束を受光する受光領域と前記一対の領域とが共役関係にあることを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 12,
The focus detection pixel includes a microlens and a photoelectric conversion element that receives the pair of light beams through the microlens,
The focus detection apparatus, wherein the light receiving area where the photoelectric conversion element receives the pair of light beams and the pair of areas are in a conjugate relation by the microlens lens.
JP2010233679A 2010-10-18 2010-10-18 Focus detection apparatus and imaging apparatus Active JP5614227B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010233679A JP5614227B2 (en) 2010-10-18 2010-10-18 Focus detection apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010233679A JP5614227B2 (en) 2010-10-18 2010-10-18 Focus detection apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2012088436A true JP2012088436A (en) 2012-05-10
JP5614227B2 JP5614227B2 (en) 2014-10-29

Family

ID=46260142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010233679A Active JP5614227B2 (en) 2010-10-18 2010-10-18 Focus detection apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5614227B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153317A1 (en) * 2019-01-23 2020-07-30 ソニーセミコンダクタソリューションズ株式会社 Vehicle-mounted camera
JP2021076777A (en) * 2019-11-12 2021-05-20 キヤノン株式会社 Control device, imaging apparatus, control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289284A (en) * 1993-04-01 1994-10-18 Canon Inc Focal point detector for photographic lens provided with shifting and tilting mechanism
JP2010049209A (en) * 2008-08-25 2010-03-04 Canon Inc Imaging sensing apparatus, image sensing system, and focus detection method
US20100245656A1 (en) * 2009-03-31 2010-09-30 Sony Corporation Imaging device and focus detecting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289284A (en) * 1993-04-01 1994-10-18 Canon Inc Focal point detector for photographic lens provided with shifting and tilting mechanism
JP2010049209A (en) * 2008-08-25 2010-03-04 Canon Inc Imaging sensing apparatus, image sensing system, and focus detection method
US20100245656A1 (en) * 2009-03-31 2010-09-30 Sony Corporation Imaging device and focus detecting method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153317A1 (en) * 2019-01-23 2020-07-30 ソニーセミコンダクタソリューションズ株式会社 Vehicle-mounted camera
JPWO2020153317A1 (en) * 2019-01-23 2021-11-25 ソニーセミコンダクタソリューションズ株式会社 In-vehicle camera
JP7436391B2 (en) 2019-01-23 2024-02-21 ソニーセミコンダクタソリューションズ株式会社 In-vehicle cameras and in-vehicle camera systems
JP2021076777A (en) * 2019-11-12 2021-05-20 キヤノン株式会社 Control device, imaging apparatus, control method, and program
JP7471799B2 (en) 2019-11-12 2024-04-22 キヤノン株式会社 Control device, imaging device, control method, and program

Also Published As

Publication number Publication date
JP5614227B2 (en) 2014-10-29

Similar Documents

Publication Publication Date Title
JP5454223B2 (en) camera
JP5942697B2 (en) Focus detection apparatus and imaging apparatus
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
JP5458475B2 (en) Focus detection apparatus and imaging apparatus
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
JP2009141390A (en) Image sensor and imaging apparatus
JP5381472B2 (en) Imaging device
JP2009271523A (en) Focus detection device and image-capturing apparatus
JP5278123B2 (en) Imaging device
JP5614227B2 (en) Focus detection apparatus and imaging apparatus
JP5338112B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5804105B2 (en) Imaging device
JP5338113B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5407314B2 (en) Focus detection apparatus and imaging apparatus
JP5685892B2 (en) Focus detection device, focus adjustment device, and imaging device
JP5338119B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5399627B2 (en) Focus detection device, focus adjustment device, and imaging device
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP6477597B2 (en) Focus detection apparatus and imaging apparatus
JP2009162845A (en) Imaging device, focus detecting device and imaging apparatus
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP4968009B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP4968010B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP6699768B2 (en) Focus detection device and camera
JP5691440B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140825

R150 Certificate of patent or registration of utility model

Ref document number: 5614227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250