JP2017219791A - Control device, imaging device, control method, program, and storage medium - Google Patents

Control device, imaging device, control method, program, and storage medium Download PDF

Info

Publication number
JP2017219791A
JP2017219791A JP2016116021A JP2016116021A JP2017219791A JP 2017219791 A JP2017219791 A JP 2017219791A JP 2016116021 A JP2016116021 A JP 2016116021A JP 2016116021 A JP2016116021 A JP 2016116021A JP 2017219791 A JP2017219791 A JP 2017219791A
Authority
JP
Japan
Prior art keywords
information
signal
baseline length
exit pupil
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016116021A
Other languages
Japanese (ja)
Inventor
西尾 彰宏
Teruhiro Nishio
彰宏 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016116021A priority Critical patent/JP2017219791A/en
Publication of JP2017219791A publication Critical patent/JP2017219791A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a control device that can perform accurate focus detection even when asymmetric optical vignetting occurs.SOLUTION: A control device comprises: acquisition means (169a) that acquires a first signal and a second signal corresponding to luminous fluxes passing through pupil areas different from each other in an imaging optical system; correction means (166) that corrects base length information on the basis of exit pupil information according to a focus detection position; and calculation means (169b) that calculates the amount of defocus on the basis of the amount of image shift obtained from the value of correlation between the first signal and second signal and the corrected base length information.SELECTED DRAWING: Figure 1

Description

本発明は、位相差検出方式の焦点検出を行う撮像装置に関する。   The present invention relates to an imaging apparatus that performs focus detection using a phase difference detection method.

従来から、静止画や動画の撮影時に撮像画素に結像した被写体像をリアルタイムに観察しながら撮影を行う、いわゆるライブビュー撮影が知られている。   2. Description of the Related Art Conventionally, so-called live view shooting is known in which shooting is performed while observing a subject image formed on an imaging pixel in real time when shooting a still image or a moving image.

特許文献1には、ライブビュー撮影の際に高速かつ正確な焦点検出を行うため、位相差検出方法の焦点検出を行う撮像装置が開示されている。特許文献1の撮像装置は、位相差検出方式により得られた相関値と基線長情報とを用いてデフォーカス量への換算を行うための換算係数に関し、撮像光学系の光線ケラレにより生じる誤差をフィードバックすることで換算係数を校正する。   Patent Document 1 discloses an imaging apparatus that performs focus detection by a phase difference detection method in order to perform fast and accurate focus detection during live view shooting. The imaging apparatus of Patent Document 1 relates to a conversion coefficient for performing conversion to a defocus amount using the correlation value obtained by the phase difference detection method and the baseline length information, and introduces an error caused by light vignetting of the imaging optical system. The conversion factor is calibrated by feedback.

特開2010−25997号公報JP 2010-25997 A

しかしながら、光線ケラレが非対称な状態では、正確な基線長情報を得ることが困難であり、焦点検出精度が低下する可能性がある。   However, when the ray vignetting is asymmetric, it is difficult to obtain accurate baseline length information, and the focus detection accuracy may be lowered.

そこで本発明は、非対称な光学ケラレが生じている場合でも高精度な焦点検出が可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供する。   Therefore, the present invention provides a control device, an imaging device, a control method, a program, and a storage medium that can perform focus detection with high accuracy even when asymmetric optical vignetting occurs.

本発明の一側面としての制御装置は、撮像光学系の互いに異なる瞳領域を通過する光束に対応する第1信号および第2信号を取得する信号取得手段と、焦点検出位置に応じた射出瞳情報に基づいて基線長情報を補正する補正手段と、前記第1信号と前記第2信号との相関値から得られた像ズレ量と、補正された前記基線長情報と、に基づいてデフォーカス量を算出する算出手段とを有する。   A control device according to one aspect of the present invention includes a signal acquisition unit that acquires a first signal and a second signal corresponding to light beams that pass through different pupil regions of an imaging optical system, and exit pupil information according to a focus detection position. A defocus amount based on the correction means for correcting the baseline length information based on the image, the image shift amount obtained from the correlation value between the first signal and the second signal, and the corrected baseline length information Calculating means for calculating.

本発明の他の側面としての撮像装置は、撮像光学系の互いに異なる瞳領域を通過する光束を受光する第1光電変換部および第2光電変換部を有する撮像素子と、前記第1光電変換部および前記第2光電変換部からの出力信号のそれぞれに対応する第1信号および第2信号を取得する信号取得手段と、焦点検出位置に応じた射出瞳情報に基づいて基線長情報を補正する補正手段と、前記第1信号と前記第2信号との相関値から得られた像ズレ量と、補正された前記基線長情報と、に基づいてデフォーカス量を算出する算出手段とを有する。   An imaging apparatus according to another aspect of the present invention includes an imaging device having a first photoelectric conversion unit and a second photoelectric conversion unit that receive light beams passing through different pupil regions of an imaging optical system, and the first photoelectric conversion unit. And signal acquisition means for acquiring the first signal and the second signal corresponding to each of the output signals from the second photoelectric conversion unit, and correction for correcting the baseline length information based on the exit pupil information corresponding to the focus detection position And a calculating means for calculating a defocus amount based on the image shift amount obtained from the correlation value between the first signal and the second signal and the corrected baseline length information.

本発明の他の側面としての制御方法は、撮像光学系の互いに異なる瞳領域を通過する光束に対応する第1信号および第2信号を取得するステップと、焦点検出位置に応じた射出瞳情報に基づいて基線長情報を補正するステップと、前記第1信号と前記第2信号との相関値から得られた像ズレ量と、補正された前記基線長情報と、に基づいてデフォーカス量を算出するステップとを有する。   According to another aspect of the present invention, there is provided a control method comprising: obtaining a first signal and a second signal corresponding to light beams passing through mutually different pupil regions of an imaging optical system; and exit pupil information corresponding to a focus detection position. A defocus amount is calculated based on the step of correcting the baseline length information based on the image, the image shift amount obtained from the correlation value between the first signal and the second signal, and the corrected baseline length information. A step of performing.

本発明の他の側面としてのプログラムは、前記制御方法をコンピュータに実行させる。   A program according to another aspect of the present invention causes a computer to execute the control method.

本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。   A storage medium according to another aspect of the present invention stores the program.

本発明の他の目的及び特徴は、以下の実施形態において説明される。   Other objects and features of the invention are described in the following embodiments.

本発明によれば、非対称の光学ケラレが生じている場合でも高精度な焦点検出が可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。   According to the present invention, it is possible to provide a control device, an imaging device, a control method, a program, and a storage medium capable of highly accurate focus detection even when asymmetric optical vignetting occurs.

本実施形態における撮像装置のブロック図である。It is a block diagram of the imaging device in this embodiment. 本実施形態における撮像素子の画素配列図である。It is a pixel array diagram of the image sensor in the present embodiment. 本実施形態における撮像素子の画素配列図である。It is a pixel array diagram of the image sensor in the present embodiment. 本実施形態における撮像素子の画素配列図である。It is a pixel array diagram of the image sensor in the present embodiment. 本実施形態において、焦点検出画素からの信号状態と焦点検出画素の受光角度範囲の重心位置と基線長との関係図である。In this embodiment, it is a relationship figure between the signal state from a focus detection pixel, the gravity center position of the light reception angle range of a focus detection pixel, and a base line length. 本実施形態における撮像光学系のケラレ状態と射出瞳距離との関係図である。It is a relationship figure of the vignetting state and exit pupil distance of the image pick-up optical system in this embodiment. 本実施形態において、撮像光学系の絞り位置での軸外光線の瞳形状と基線長との関係図であるIn this embodiment, it is a related figure of the pupil shape and base line length of an off-axis ray in the stop position of an imaging optical system. 本実施形態において、射出瞳距離の変化から非対称なケラレを推定して疑似F値を算出する方法の説明図である。In this embodiment, it is explanatory drawing of the method of estimating asymmetric vignetting from the change of an exit pupil distance, and calculating a pseudo F value. 本実施形態における射出瞳距離および周辺光量比と像高との関係図である。FIG. 6 is a relationship diagram between an exit pupil distance and a peripheral light amount ratio and an image height in the present embodiment. 本実施形態における焦点検出およびフォーカス制御のフローチャートである。5 is a flowchart of focus detection and focus control in the present embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本実施形態における撮像装置の概略構成について説明する。図1は、本実施形態における撮像装置10(カメラ)のブロック図である。撮像装置10は、カメラ本体150(撮像装置本体)とカメラ本体150に着脱可能なレンズ装置100(交換レンズ、撮像光学系)とを備えたデジタルカメラシステム(動画および静止画を記録可能な電子カメラシステム)である。ただし本実施形態は、これに限定されるものではなく、カメラ本体とレンズとが一体的に構成された撮像装置にも適用可能である。なお図1において、本実施形態の説明に不要な箇所に関しては省略している。   First, with reference to FIG. 1, a schematic configuration of the imaging apparatus according to the present embodiment will be described. FIG. 1 is a block diagram of an imaging apparatus 10 (camera) in the present embodiment. The imaging device 10 includes a digital camera system (an electronic camera capable of recording moving images and still images) including a camera body 150 (imaging device body) and a lens device 100 (interchangeable lens, imaging optical system) that can be attached to and detached from the camera body 150. System). However, the present embodiment is not limited to this, and can also be applied to an imaging apparatus in which a camera body and a lens are integrally configured. In FIG. 1, portions unnecessary for the description of the present embodiment are omitted.

図1において、101は撮像光学系のレンズ群である。102は絞り(光彩絞り)であり、その開口径は絞り径駆動手段106により調整(制御)され、撮影の際における光量調節が可能である。レンズ装置100において、レンズ群101はフォーカス駆動手段105により光軸AXに沿った方向(光軸方向)に移動し、焦点位置調節(フォーカス制御)を行う。フォーカス駆動手段105および絞り径駆動手段106は、レンズ側CPU104からの制御命令を受信して駆動制御を行う。より具体的には、フォーカス駆動手段105および絞り径駆動手段106は、カメラ側伝達手段171とレンズ側伝達手段103との間で通信されるカメラ本体150からの焦点検出評価値および測光値に基づいて制御される。   In FIG. 1, reference numeral 101 denotes a lens group of the imaging optical system. Reference numeral 102 denotes a diaphragm (a glow diaphragm) whose opening diameter is adjusted (controlled) by the diaphragm diameter driving means 106, and the light quantity can be adjusted during photographing. In the lens apparatus 100, the lens group 101 is moved in the direction (optical axis direction) along the optical axis AX by the focus driving unit 105, and performs focus position adjustment (focus control). The focus driving unit 105 and the aperture diameter driving unit 106 receive a control command from the lens side CPU 104 and perform drive control. More specifically, the focus driving unit 105 and the aperture diameter driving unit 106 are based on a focus detection evaluation value and a photometric value from the camera body 150 communicated between the camera side transmission unit 171 and the lens side transmission unit 103. Controlled.

レンズ装置100は、撮像光学系のズーム位置やフォーカス位置の変化における撮像光学系の射出瞳距離の変化特性に則した射出瞳距離情報107と、周辺光量比の変化特性に則した周辺光量比情報108を記憶している。またレンズ装置100は、絞り102の径の制御において設定可能なF値範囲情報、撮像光学系の焦点距離(ズームレンズの場合には焦点距離範囲)などの光学特性情報、および、撮像光学系の識別情報を含む光学系諸情報109を記憶している。射出瞳距離情報107、周辺光量比情報108、および、光学系諸情報109は、レンズ側伝達手段103とカメラ側伝達手段171とを介して、カメラ本体150に伝達される。本実施形態において、射出瞳距離情報107、周辺光量比情報108、および、光学系諸情報109は、レンズ装置100の記憶手段に記憶されている。   The lens apparatus 100 includes the exit pupil distance information 107 according to the change characteristic of the exit pupil distance of the imaging optical system when the zoom position or the focus position of the imaging optical system changes, and the peripheral light amount ratio information according to the change characteristic of the peripheral light amount ratio. 108 is stored. The lens device 100 also includes F value range information that can be set in the control of the diameter of the aperture 102, optical characteristic information such as the focal length of the imaging optical system (focal length range in the case of a zoom lens), and the imaging optical system. Various optical system information 109 including identification information is stored. The exit pupil distance information 107, the peripheral light amount ratio information 108, and the optical system information 109 are transmitted to the camera body 150 via the lens side transmission unit 103 and the camera side transmission unit 171. In the present embodiment, exit pupil distance information 107, peripheral light amount ratio information 108, and various optical system information 109 are stored in the storage unit of the lens apparatus 100.

カメラ本体150は、レンズ交換式の一眼レフレックスカメラであり、レンズ装置100からの被写体光線は、跳ね上げ式の反射部材155の駆動により偏向の有無が切り替えられる。反射部材155が跳ね上がっていない基準状態において、被写体光線は偏向してピント板154に被写体像が結像される。ピント板154の被写体像は、接眼レンズ152によりペンタゴナル形状の反射プリズム151を介して肉視観察が可能である。同時に、被写体像は測光用光学ユニット153に取り込まれる。測光手段159は、測光用光学ユニット153で得られる変換信号に基づいて、ピント板154に結像されている被写体照度を検出し、露光量を決定する。その際、撮像光学系からピント板154に入射される光線角度と拡散強度特性との不整合関係から生じる減光現象や光学ケラレによりピント板154での被写体照度が暗くなる。このため、検出される露光量は、適正値に対して誤差を含む。そこで、撮像光学系の射出瞳距離情報107から光線角度情報を取得し、周辺光量比情報108から光学ケラレ量を取得して減光状態を予想することにより、露光量を補正する。露光量決定手段160は、露光量を補正して適正な露光量を決定し、撮像素子駆動手段161によるゲイン量を調整する信号やレンズ装置100の絞り径制御のための信号を発生する。   The camera body 150 is an interchangeable lens single-lens reflex camera, and the subject light beam from the lens apparatus 100 is switched between deflection and non-deflection by driving a flip-up reflection member 155. In the reference state in which the reflecting member 155 is not raised, the subject light beam is deflected and a subject image is formed on the focus plate 154. The subject image on the focusing screen 154 can be visually observed through the pentagonal reflecting prism 151 by the eyepiece lens 152. At the same time, the subject image is taken into the photometric optical unit 153. The photometry unit 159 detects the illuminance of the subject imaged on the focus plate 154 based on the conversion signal obtained by the photometry optical unit 153, and determines the exposure amount. At that time, the illuminance of the subject on the focus plate 154 becomes dark due to a dimming phenomenon or optical vignetting caused by an inconsistent relationship between the angle of light incident on the focus plate 154 from the imaging optical system and the diffusion intensity characteristic. For this reason, the detected exposure amount includes an error with respect to an appropriate value. Therefore, the exposure amount is corrected by acquiring the light beam angle information from the exit pupil distance information 107 of the imaging optical system and acquiring the optical vignetting amount from the peripheral light amount ratio information 108 to predict the dimming state. The exposure amount determination unit 160 corrects the exposure amount to determine an appropriate exposure amount, and generates a signal for adjusting the gain amount by the image sensor driving unit 161 and a signal for controlling the aperture diameter of the lens device 100.

反射部材155は、その一部が半透過特性を有する。反射部材155を透過した光線は、複反射部材156により偏向し、焦点検出ユニット157に入射される。なお複反射部材156は、反射部材155が跳ね上がった状態(破線で示した状態)では、それに連動して折り畳んだ状態になり、撮像素子158に入射する被写体光線を妨げることを防止する(被写体光線を撮像素子158に入射させる)。焦点検出ユニット157に入射された光線は光電変換され、AF信号出力手段167に出力される。AF信号出力手段167は、一対の画素信号の位相差情報となるAF用の像信号(焦点検出信号)を抽出し、AF選択手段168に伝達する。   A part of the reflecting member 155 has a semi-transmissive property. The light beam transmitted through the reflecting member 155 is deflected by the double reflecting member 156 and is incident on the focus detection unit 157. The birefringent member 156 is folded in conjunction with the reflecting member 155 in a state where the reflecting member 155 jumps up (shown by a broken line), and prevents the subject light beam incident on the image sensor 158 from being obstructed (subject light beam). Is incident on the image sensor 158). The light beam incident on the focus detection unit 157 is photoelectrically converted and output to the AF signal output unit 167. The AF signal output unit 167 extracts an AF image signal (focus detection signal) that is phase difference information between the pair of pixel signals, and transmits the AF image signal to the AF selection unit 168.

撮像素子158は、CMOSセンサとその周辺回路で構成されたイメージセンサである。撮像素子158は、横方向にM画素、縦方向にN画素の受光ピクセルが正方配置され、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサである。また撮像素子158は、後述のように、複数の撮像画素中にAF画素(焦点検出画素)を配置して構成されている。本実施形態において、撮像素子158は、撮像光学系の互いに異なる瞳領域を通過する光束を受光するAF画素(第1光電変換部および第2光電変換部)を有する。   The image sensor 158 is an image sensor composed of a CMOS sensor and its peripheral circuits. The image sensor 158 is a two-dimensional single-plate color sensor in which M pixels in the horizontal direction and N pixels in the vertical direction are squarely arranged, and a Bayer array primary color mosaic filter is formed on-chip. The image sensor 158 is configured by arranging AF pixels (focus detection pixels) among a plurality of image pickup pixels, as will be described later. In the present embodiment, the image sensor 158 includes AF pixels (first photoelectric conversion unit and second photoelectric conversion unit) that receive light beams that pass through different pupil regions of the imaging optical system.

次に、反射部材155が跳ね上げられた状態(破線で記した状態)において、ライブビュー状態での焦点調節動作(AF動作)について説明する。なお、前提として、焦点検出の対象となる被写体位置(焦点検出位置)が既に決定されているのものとする。   Next, the focus adjustment operation (AF operation) in the live view state in a state where the reflection member 155 is flipped up (state indicated by a broken line) will be described. As a premise, it is assumed that a subject position (focus detection position) to be a focus detection target has already been determined.

撮像素子158が被写体像を受光すると、画素信号出力手段162は光電変換された信号を出力する。そしてAF信号抽出手段163は、位相差の相関演算(位相差AF)を行うための焦点検出位置におけるAF信号(焦点検出信号)を抽出する。AF選択手段168は、焦点検出ユニット157を用いた位相差検出方式の焦点検出、または、撮像素子158を用いた位相差検出方式の焦点検出(所謂、ライブビュー状態でのAF)のいずれの焦点検出処理を行うかを判定する。   When the image sensor 158 receives the subject image, the pixel signal output unit 162 outputs a photoelectrically converted signal. The AF signal extraction unit 163 extracts an AF signal (focus detection signal) at the focus detection position for performing a phase difference correlation calculation (phase difference AF). The AF selection means 168 is either a phase difference detection type focus detection using the focus detection unit 157 or a phase difference detection type focus detection using the image sensor 158 (so-called AF in a live view state). It is determined whether to perform detection processing.

焦点検出中(AF制御中)に適正な露出状態を得るため、露光量決定手段160は、画素信号出力手段162から出力される信号強度を調整する。そしてカメラ側CPU169は、光学系諸情報109から伝達された、撮像光学系の取り得るF値に基づいて設定F値を決定する。設定F値は、カメラ側伝達手段171およびレンズ側伝達手段103を介して、レンズ装置100の絞り径駆動手段106に伝達される。そして絞り径駆動手段106は、絞り102(絞り径)を変化させてF値を設定する。   In order to obtain an appropriate exposure state during focus detection (during AF control), the exposure amount determination unit 160 adjusts the signal intensity output from the pixel signal output unit 162. The camera-side CPU 169 determines the set F value based on the F value that can be taken by the imaging optical system, transmitted from the optical system information 109. The set F value is transmitted to the aperture diameter driving unit 106 of the lens apparatus 100 via the camera side transmission unit 171 and the lens side transmission unit 103. The diaphragm diameter driving means 106 sets the F value by changing the diaphragm 102 (diaphragm diameter).

ケラレ状態取得手段164(ケラレ情報取得手段)は、F値(F値情報)、撮像素子158の焦点検出画素の位置情報、および、射出瞳距離情報107に基づいて、撮像光学系の射出瞳距離の変化状態を取得する。そしてケラレ状態取得手段164は、後述のように光線ケラレ状態(光線ケラレ情報)を推定する。   The vignetting state acquisition unit 164 (vignetting information acquisition unit) is based on the F value (F value information), the position information of the focus detection pixel of the image sensor 158, and the exit pupil distance information 107, and the exit pupil distance of the imaging optical system. Get the change state of. Then, the vignetting state acquisition unit 164 estimates a light vignetting state (light vignetting information) as described later.

基線長情報取得手段165(基線長取得手段)は、予め、撮像光学系のF値に応じた基線長情報を記憶している。基線長情報取得手段165は、ケラレ状態取得手段164により取得された光線ケラレ情報に基づいて、撮像光学系のF値を疑似的なF値(擬似F値)に変換し、疑似F値に応じた基線長情報を取得する。基線長補正手段166は、光学ケラレ状態が非対称の光学ケラレ状態であるか否かを判定し、新たな疑似F値を取得して再び基線長情報取得手段165から新たな基線長情報を取得する。また基線長補正手段166は、取得した複数の基線長情報に基づいて、精度の高い基線長情報を生成する(基線長情報を補正する)。そして基線長補正手段166は、補正された基線長情報をカメラ側CPU169に伝達する。   Baseline length information acquisition unit 165 (baseline length acquisition unit) stores in advance baseline length information corresponding to the F value of the imaging optical system. The baseline length information acquisition unit 165 converts the F value of the imaging optical system into a pseudo F value (pseudo F value) based on the ray vignetting information acquired by the vignetting state acquisition unit 164, and according to the pseudo F value. Get baseline length information. The baseline length correction unit 166 determines whether or not the optical vignetting state is an asymmetric optical vignetting state, acquires a new pseudo F value, and acquires new baseline length information from the baseline length information acquisition unit 165 again. . The baseline length correction unit 166 generates highly accurate baseline length information (corrects the baseline length information) based on the acquired plurality of baseline length information. Then, the baseline length correction unit 166 transmits the corrected baseline length information to the camera side CPU 169.

カメラ側CPU169は、記憶されている所定のプログラムに基づいて、カメラ本体150の各種回路を駆動し、焦点検出処理(デフォーカス量演算処理)、撮影処理、画像形成処理と記録処理などの一連の動作を実行する。本実施形態において、カメラ側CPU169は、信号取得手段169aおよび算出手段169bを有する。これらの機能については後述する。焦点検出ユニット157を用いるAF方式が選択された場合、焦点検出ユニット157に固有の基線長情報が用いられる。一方、ライブビュー時の焦点検出において、フォーカス駆動量決定手段170は、基線長補正手段166から伝達される基線長情報を用いてデフォーカス量を取得して、フォーカスレンズ駆動量を算出する。フォーカスレンズ駆動量は、カメラ側伝達手段171およびレンズ側伝達手段103を介して、レンズ側CPU104へ伝達される。レンズ側CPU104は、伝達されたフォーカスレンズ駆動量に基づいてフォーカス駆動手段105への駆動制御命令を出力し、合焦制御のためのフォーカスレンズ駆動(フォーカス制御)を行う。   The camera-side CPU 169 drives various circuits of the camera body 150 based on a predetermined program stored therein, and performs a series of focus detection processing (defocus amount calculation processing), shooting processing, image formation processing, recording processing, and the like. Perform the action. In the present embodiment, the camera side CPU 169 includes a signal acquisition unit 169a and a calculation unit 169b. These functions will be described later. When the AF method using the focus detection unit 157 is selected, baseline length information unique to the focus detection unit 157 is used. On the other hand, in focus detection during live view, the focus drive amount determination unit 170 obtains the defocus amount using the baseline length information transmitted from the baseline length correction unit 166, and calculates the focus lens drive amount. The focus lens driving amount is transmitted to the lens side CPU 104 via the camera side transmission unit 171 and the lens side transmission unit 103. The lens side CPU 104 outputs a drive control command to the focus drive means 105 based on the transmitted focus lens drive amount, and performs focus lens drive (focus control) for focus control.

本実施形態において、射出瞳距離情報107、周辺光量比情報108、および、光学系諸情報109は、レンズ装置100の内部に設けられた記憶手段に記憶されているが、これに限定されるものではない。装着されている撮像光学系の種類の判別が可能であって、かつ、必要な情報を取得可能であれば、射出瞳距離情報107、周辺光量比情報108、および、光学系諸情報109の少なくとも一つを、カメラ本体150の内部に設けられた記憶手段に記憶してもよい。またこの構成によれば、画面周辺部の露出量補正を行うために記憶されている撮像光学系の周辺光量比情報108と撮像光学系の射出瞳距離情報とを基線長補正手段166が共用することにより、データ量の増加を防止する利点がある。   In the present embodiment, the exit pupil distance information 107, the peripheral light amount ratio information 108, and the optical system information 109 are stored in a storage unit provided in the lens apparatus 100, but the present invention is not limited to this. is not. If the type of the mounted imaging optical system can be determined and necessary information can be acquired, at least the exit pupil distance information 107, the peripheral light amount ratio information 108, and the optical system information 109 are at least One may be stored in storage means provided inside the camera body 150. Further, according to this configuration, the baseline length correction unit 166 shares the peripheral light amount ratio information 108 of the imaging optical system and the exit pupil distance information of the imaging optical system, which are stored for correcting the exposure amount of the peripheral portion of the screen. This has the advantage of preventing an increase in the amount of data.

次に、図2乃至図4を参照して、本実施形態の撮像素子158に用いられる焦点検出画素の構成および受光特性について説明する。図2は、本実施形態における撮像素子158の画素配列図である。図2において、上下方向をY方向、左右方向をX方向とする。図3および図4に関しても同様である。   Next, the configuration and light receiving characteristics of the focus detection pixels used in the image sensor 158 of this embodiment will be described with reference to FIGS. FIG. 2 is a pixel array diagram of the image sensor 158 in the present embodiment. In FIG. 2, the vertical direction is the Y direction, and the horizontal direction is the X direction. The same applies to FIGS. 3 and 4.

図2において、200は撮像画像を形成するための画素(撮像画素)、201〜204は例えば特開2009−244862号公報に記載されている遮光構造を有する焦点検出画素である。図2において、横縞パターン形状の被写体に関しては、Y方向に一列に配置された画素201、202を用いて、画素201、202(2つの光電変換部)の出力信号波形(一対の画素信号)に基づいて位相差検出方式の相関演算を行い、被写体の焦点位置を検出する。同様に、縦縞パターン形状の被写体に関しては、図2中のX方向に一列に配置された画素203、204を用いて、画素203、204(2つの光電変換部)の出力信号波形に基づいて相関演算を行い、被写体の焦点位置を検出する。   In FIG. 2, reference numeral 200 denotes a pixel (imaging pixel) for forming a captured image, and 201 to 204 are focus detection pixels having a light shielding structure described in, for example, Japanese Patent Application Laid-Open No. 2009-244862. In FIG. 2, for a subject having a horizontal stripe pattern shape, pixels 201 and 202 arranged in a line in the Y direction are used to output signal waveforms (a pair of pixel signals) of the pixels 201 and 202 (two photoelectric conversion units). Based on this, a correlation calculation using a phase difference detection method is performed to detect the focal position of the subject. Similarly, a subject having a vertical stripe pattern shape is correlated based on output signal waveforms of the pixels 203 and 204 (two photoelectric conversion units) using the pixels 203 and 204 arranged in a line in the X direction in FIG. Calculation is performed to detect the focal position of the subject.

図3は、本実施形態の変形例としての撮像素子158の画素配列図である。図3の撮像素子は、1つのマイクロレンズに対して2つの光電変換部(2つの副画素)を有し、画素300、301が2次元状に交互に複数配列されている。図3において、画素301は、Y方向の縞パターンの被写体の焦点検出を、X方向に並んだ副画素302、303からの信号を一対の画素信号の位相差情報として相関演算を行うため用いられる。また画素300は、X方向の縞パターンの被写体の焦点検出をY方向に並んだ副画素304、305からの信号を一対の画素信号として相関演算を行うために用いられる。撮影画像信号を出力する際には、副画素302と副画素303との信号を加算し、また、副画素304と副画素305との信号を加算すればよい。   FIG. 3 is a pixel array diagram of an image sensor 158 as a modification of the present embodiment. The image pickup device in FIG. 3 has two photoelectric conversion units (two subpixels) for one microlens, and a plurality of pixels 300 and 301 are alternately arranged two-dimensionally. In FIG. 3, a pixel 301 is used to perform focus calculation of a subject having a stripe pattern in the Y direction using a signal from subpixels 302 and 303 arranged in the X direction as phase difference information of a pair of pixel signals. . Further, the pixel 300 is used for performing a correlation calculation using the signals from the sub-pixels 304 and 305 arranged in the Y direction for the focus detection of the subject having the stripe pattern in the X direction as a pair of pixel signals. When outputting a photographic image signal, the signals of the sub-pixel 302 and the sub-pixel 303 are added, and the signals of the sub-pixel 304 and the sub-pixel 305 may be added.

図4は、本実施形態の変形例としての撮像素子158の画素配列図である。図4の撮像素子は、1つのマイクロレンズに対して4つの光電変換部(4つの副画素)を有し、同様の構造を有する画素400が2次元状に複数配列されている。図4の撮像素子は、4つの光電変換部からの出力信号の加算方法を変えることにより、図3の構造と同様の画素特性を得ることができる。図4において、Y方向の縞パターンの被写体の焦点検出する際、X方向に並んだ副画素401と副画素402との信号を加算し、副画素403と副画素404との信号を加算し、得られた2列の加算信号波形を一対の画素信号の位相差情報として相関演算に用いる。また、X方向の縞パターンの被写体の焦点検出を行う際、Y方向に並んだ副画素401と副画素403との信号を加算し、副画素402と副画素404との信号を加算し、得られた2列の加算信号波形を一対の画素信号の位相差情報として相関演算に用いる。   FIG. 4 is a pixel array diagram of an image sensor 158 as a modification of the present embodiment. 4 has four photoelectric conversion units (four subpixels) for one microlens, and a plurality of pixels 400 having the same structure are arranged in a two-dimensional manner. The image sensor of FIG. 4 can obtain the same pixel characteristics as the structure of FIG. 3 by changing the method of adding the output signals from the four photoelectric conversion units. In FIG. 4, when detecting the focus of a subject having a stripe pattern in the Y direction, the signals of the subpixels 401 and 402 arranged in the X direction are added, the signals of the subpixel 403 and the subpixel 404 are added, The obtained two columns of added signal waveforms are used for correlation calculation as phase difference information of a pair of pixel signals. Further, when focus detection of a subject having a stripe pattern in the X direction is performed, signals of the subpixel 401 and the subpixel 403 arranged in the Y direction are added, and signals of the subpixel 402 and the subpixel 404 are added. The added signal waveforms of the two columns thus obtained are used for correlation calculation as phase difference information of a pair of pixel signals.

前述の焦点検出のための2通りの加算方法は、撮像素子上にブロックに分けて加算方法を変えてもよい。千鳥配列的に互い違いに加算を変えることにより、図3に示される構造と等価な画素配列構造を達成することができる。この場合、縦縞パターン被写体および横縞パターン被写体を同時に評価することができるため、焦点検出に際して被写体パターン方向依存を除去または低減することが可能である。また、加算方法は、撮影状態に応じて切り替えてもよく、また、全画素に関して時系列的に切り替えてもよい。この際、同パターン方向の被写体を焦点検出する焦点検出用画素が密な状態になるため、焦点検出画素が疎な場合に生ずる細い線分を有する被写体が合焦近傍において被写体検出できないという問題を回避することができる。撮像信号として用いる場合、副画素401〜404の信号を加算すればよい。   The above-described two addition methods for focus detection may be divided into blocks on the image sensor and changed. By changing the addition alternately in a staggered arrangement, a pixel arrangement structure equivalent to the structure shown in FIG. 3 can be achieved. In this case, since the vertical stripe pattern subject and the horizontal stripe pattern subject can be simultaneously evaluated, it is possible to remove or reduce the subject pattern direction dependency in focus detection. The addition method may be switched according to the shooting state, or may be switched in time series for all pixels. At this time, since the focus detection pixels for detecting the focus of the subject in the same pattern direction are in a dense state, a subject having a thin line segment generated when the focus detection pixel is sparse cannot be detected near the focus. It can be avoided. When used as an imaging signal, the signals of the subpixels 401 to 404 may be added.

図2乃至図4のいずれかに示される撮像素子構造を用いることにより、従来の位相差検出方式のように撮像光学系を介した被写体像の一部を焦点検出専用の光学系に分離する必要が生じない。このため、リアルタイムに撮像素子が受光して画像記録を行う被写体像を監視しながらライブビュー撮影を行うことができ、従来の動画撮影においては被写体光線の分割機構無しでは行うことができなかった位相差検出方式の焦点検出が可能となる。   By using the imaging device structure shown in any of FIGS. 2 to 4, it is necessary to separate a part of the subject image via the imaging optical system into an optical system dedicated to focus detection as in the conventional phase difference detection method. Does not occur. For this reason, live view shooting can be performed while monitoring a subject image on which an image pickup device receives light and records an image in real time. In conventional moving image shooting, it cannot be performed without a subject beam splitting mechanism. It is possible to detect the focus by the phase difference detection method.

位相差検出方式の焦点検出では、前述のような画素構造の一対の焦点検出画素群の受光信号(以下A像、B像と呼称する)であるA像信号波形とB像信号波形との相対位置をずらしながら互いの波形を重ね合わせる。例えば、波形の差異部分の面積量がもっとも小さくなる状態を相関が最も取れている(相関値が最も高い)状態とする。そしてその状態になるようなA像とB像との相対的なずらし量(像ズレ量)に基づいてデフォーカス量を検出(算出)することが一般的である。   In the focus detection of the phase difference detection method, the relative relationship between the A image signal waveform and the B image signal waveform, which are light reception signals (hereinafter referred to as A image and B image) of the pair of focus detection pixel groups having the pixel structure as described above. Overlay each other's waveforms while shifting the position. For example, a state where the area amount of the difference portion of the waveform is the smallest is the state where the correlation is the highest (the correlation value is the highest). In general, the defocus amount is detected (calculated) based on the relative shift amount (image shift amount) between the A image and the B image in such a state.

デフォーカス量の算出の際には、瞳位置における像ズレ量から図2乃至図4を参照して説明したような一対の焦点検出画素の瞳分離幅を基線長情報として撮像装置10に記憶しておく必要がある。このとき、合焦状態において、瞳位置の像ズレ量は基線長と略一致している。一方、非合焦状態において、像ズレ量はデフォーカス量に略比例した変化を生ずる。このため、デフォーカス量は、像ズレ量から基線長を除算することにより求められる。   When calculating the defocus amount, the pupil separation width of the pair of focus detection pixels as described with reference to FIGS. 2 to 4 is stored in the imaging apparatus 10 as baseline length information from the image shift amount at the pupil position. It is necessary to keep. At this time, in the in-focus state, the image shift amount at the pupil position substantially matches the baseline length. On the other hand, in the out-of-focus state, the image shift amount changes substantially in proportion to the defocus amount. For this reason, the defocus amount is obtained by dividing the baseline length from the image shift amount.

ここで、図5を参照して、前述の内容に関して説明する。図5は、焦点検出画素からの信号状態と焦点検出画素の受光角度範囲の重心位置と基線長との関係図である。なお図5は、非対称な光線ケラレが発生していない状態を示している。図5において、Pは撮像光学系の射出瞳距離に対応する位置である。A、B、Cは焦点位置を示し、Bは撮像素子の位置(合焦位置)に相当する。Aはいわゆる前ピン状態であり、その際のデフォーカス量はDEF1(マイナス値)である。Cはいわゆる後ピン状態であり、その際のデフォーカス量はDEF2(プラス値)である。   Here, the above-described content will be described with reference to FIG. FIG. 5 is a relationship diagram between the signal state from the focus detection pixel, the barycentric position of the light reception angle range of the focus detection pixel, and the baseline length. FIG. 5 shows a state where asymmetrical light vignetting has not occurred. In FIG. 5, P is a position corresponding to the exit pupil distance of the imaging optical system. A, B, and C indicate focal positions, and B corresponds to the position (focus position) of the image sensor. A is a so-called front pin state, and the defocus amount at that time is DEF1 (minus value). C is a so-called rear pin state, and the defocus amount at that time is DEF2 (plus value).

以下に述べる焦点検出信号の波形は、図2乃至図4を参照して説明したような画素構造を有する撮像素子から得られる。図5において、位置Pは、合焦位置Bからの射出瞳距離POに対応する位置(絞りの位置)である。ZAは、前ピン状態(焦点位置A)において焦点検出画素群の光電変換信号である一対の画素信号の位相差情報から相関を得る際に必要とする像ズレ量である。ZBは、合焦状態(合焦位置B)であり、合焦が行われているため2つの焦点検出信号の波形は互いに重なっており、像ズレが生じていない状態である。ZCは、後ピン状態(焦点位置C)における像ズレ量であり、像ズレ量ZAに対して2つの焦点検出信号の位置が入れ替わった状態を示している。   The waveform of the focus detection signal described below is obtained from an image sensor having a pixel structure as described with reference to FIGS. In FIG. 5, a position P is a position (a stop position) corresponding to the exit pupil distance PO from the in-focus position B. ZA is an image shift amount necessary for obtaining a correlation from phase difference information of a pair of pixel signals that are photoelectric conversion signals of the focus detection pixel group in the front pin state (focal position A). ZB is an in-focus state (in-focus position B), and since focusing is performed, the waveforms of the two focus detection signals overlap each other, and no image displacement occurs. ZC is an image shift amount in the rear pin state (focus position C), and shows a state in which the positions of the two focus detection signals are switched with respect to the image shift amount ZA.

図5中のR1、R2は、焦点検出画素から撮像光学系の射出瞳距離POに対応する位置Pの平面に、一対の焦点検出画素の受光角度に対する信号強度特性を逆投影した信号強度分布である。信号強度分布R1、R2の重心位置をそれぞれ求め、その重心位置の隔たり量を基線長Lとする。射出瞳径は、撮像光学系のF値情報および射出瞳距離POに応じて射出瞳径が変化する。このため基線長Lは、撮像光学系のF値情報および射出瞳距離POに応じて決定される。   R1 and R2 in FIG. 5 are signal intensity distributions obtained by back projecting the signal intensity characteristics with respect to the light receiving angle of the pair of focus detection pixels on the plane of the position P corresponding to the exit pupil distance PO of the imaging optical system from the focus detection pixels. is there. The barycentric positions of the signal intensity distributions R1 and R2 are obtained, and the distance between the barycentric positions is set as the base line length L. The exit pupil diameter changes according to the F value information of the imaging optical system and the exit pupil distance PO. For this reason, the base line length L is determined according to the F value information of the imaging optical system and the exit pupil distance PO.

以上をまとめると、基線長L、射出瞳距離PO、および、像ズレ量ZA、ZCは、以下の式(1−1)、(1−2)のように表される関係がある。   In summary, the base line length L, the exit pupil distance PO, and the image shift amounts ZA and ZC have a relationship expressed as the following equations (1-1) and (1-2).

L:PO=ZA:DEF1 … (1−1)
L:PO=ZC:DEF2 … (1−2)
このため、デフォーカス量DEF1、DEF2は、以下の式(2−1)、(2−2)で表されるように求められる。
L: PO = ZA: DEF1 (1-1)
L: PO = ZC: DEF2 (1-2)
For this reason, the defocus amounts DEF1 and DEF2 are obtained as represented by the following equations (2-1) and (2-2).

DEF1=ZA・PO/L … (2−1)
DEF2=ZC・PO/L … (2−2)
ここで基線長L(基線長情報)は、撮像装置に用いられる焦点検出画素の受光角による信号出力特性を用いることにより算出される。基線長情報は、像ズレ量の算出と同様に、任意のF値情報および射出瞳距離POを設定した仮想的撮像光学系を用いて瞳位置で対となる分離領域のそれぞれの重心位置を算出すればよい。そして、2つの重心位置の隔たり量(基線長L)を基準基線長とする。前述のように、基線長Lは、撮像装置の用いられる焦点検出画素の受光角に対する出力信号強度が既知である場合、予め撮像光学系のF値情報および射出瞳距離POに対する基線長Lの関係を近似式の係数や2次元配列的に保持することができる。そして、このような基線長情報を撮像装置内に記憶し、像ズレ量および基線長情報に基づいてデフォーカス量を算出して、合焦制御を行う。
DEF1 = ZA · PO / L (2-1)
DEF2 = ZC · PO / L (2-2)
Here, the base line length L (base line length information) is calculated by using a signal output characteristic based on a light receiving angle of a focus detection pixel used in the imaging apparatus. Baseline length information calculates the center of gravity of each separation region paired at the pupil position using a virtual imaging optical system in which arbitrary F-number information and exit pupil distance PO are set, similar to the calculation of the image shift amount. do it. Then, the distance (baseline length L) between the two barycentric positions is set as the reference baseline length. As described above, when the output signal intensity with respect to the light receiving angle of the focus detection pixel used in the imaging apparatus is known, the base line length L is previously related to the F length information of the imaging optical system and the base line length L to the exit pupil distance PO Can be held in the form of an approximate expression coefficient or a two-dimensional array. Then, such baseline length information is stored in the imaging apparatus, a defocus amount is calculated based on the image shift amount and the baseline length information, and focusing control is performed.

しかしながら、周辺像高の焦点検出処理を行う際に、撮像面に結像する光線束は、像高が高くなるにつれ撮像光学系の有限なレンズ外径に起因する光線ケラレが大きく発生する。そのため、記憶された基線長情報をそのまま使用すると、正確な合焦を行うことができない可能性がある。   However, when performing the focus detection processing of the peripheral image height, the light bundle formed on the imaging surface is greatly vignetted due to the finite lens outer diameter of the imaging optical system as the image height increases. Therefore, if the stored baseline length information is used as it is, there is a possibility that accurate focusing cannot be performed.

光線ケラレは、撮像光学系を構成するレンズや遮光部材の有効径とその配置状態に応じて様々な状態になり得る。理想的には、撮像光学系の絞り位置(射出瞳距離)にて光軸から像高変化方向と直交する放射状方向に対称となるような瞳形状となっていることが望ましい。そのような瞳形状であれば、周辺像高における基線長は、光線ケラレが生じた場合においても光線ケラレによって見かけ上F値が変化したものと略等価であると考えることができ、基線長の補正処理が容易となる。しかし、次に述べるように、光線ケラレが非対称な形状になると、基線長の補正が困難となる。   The light vignetting can be in various states depending on the effective diameters and arrangement states of the lenses and light shielding members that constitute the imaging optical system. Ideally, it is desirable to have a pupil shape that is symmetrical in the radial direction perpendicular to the image height change direction from the optical axis at the stop position (exit pupil distance) of the imaging optical system. With such a pupil shape, the base line length in the peripheral image height can be considered to be substantially equivalent to the one in which the F value apparently changes due to the light vignetting even when the light beam vignetting occurs. Correction processing is facilitated. However, as will be described below, when the light vignetting has an asymmetric shape, it becomes difficult to correct the baseline length.

光線ケラレ状態が偏る原因として、撮像光学系の小型化やコマ収差が大きく発生するような光線の輪帯箇所を遮光する必要があるが、周辺光量はある程度確保する必要があり、そのため遮光する必要がある光線範囲が偏ってしまうためである。また、レンズ群が可動となる変倍撮像光学系においては、全ての変倍域で理想的な光線ケラレ状態を設定することが困難となる場合がある。撮像光学系の射出瞳距離は、焦点検出を行う相関方向への光学系の子午断面上での光路状態において任意像高への光線幅の中間光線とするような、所謂主光線と光軸が交差する位置である。光学ケラレが断面方向に対称である場合、撮像光学系の絞り位置が実質的に射出瞳距離となる。   It is necessary to shield the ring zone of the light beam that causes the downsizing of the imaging optical system and large coma aberration as the cause of the deviation of the light vignetting state, but it is necessary to secure a certain amount of peripheral light, and therefore it is necessary to shield it This is because a certain light beam range is biased. In a variable magnification imaging optical system in which the lens group is movable, it may be difficult to set an ideal light vignetting state in all variable magnification regions. The exit pupil distance of the imaging optical system is a so-called chief ray and optical axis, which is an intermediate ray of a light beam width to an arbitrary image height in the optical path state on the meridional section of the optical system in the correlation direction for focus detection. It is a crossing position. When the optical vignetting is symmetric in the cross-sectional direction, the stop position of the imaging optical system is substantially the exit pupil distance.

しかしながら、断面方向に非対称な光学ケラレが発生すると、射出瞳距離が絞り位置から外れるように変化する。このような射出瞳距離の変化は、像高中心位置では理想的な撮像光学系の絞り位置として像高の変化に対して、前述のような方法で光線追跡計算を行うことで得ることができる。そして、この情報を更に必要であれば変倍位置、F値、フォーカス位置を変化させて、図1の射出瞳距離情報107として撮像光学系や撮像装置内に記憶させる。   However, when asymmetrical vignetting occurs in the cross-sectional direction, the exit pupil distance changes so as to deviate from the aperture position. Such a change in the exit pupil distance can be obtained by performing a ray tracing calculation by the method as described above with respect to a change in the image height as an ideal aperture position of the imaging optical system at the center position of the image height. . Then, if necessary, the magnification position, the F value, and the focus position are changed and stored as exit pupil distance information 107 in FIG. 1 in the imaging optical system or imaging apparatus.

次に、射出瞳距離情報107および周辺光量比情報108を用いて非対称な光学ケラレ状態を予測し、高精度の基線長情報を取得する方法を説明する。なお、光線ケラレに関する図は、説明を簡易にするため上下方向の光学断面図を用いるが、実際には相関方向の光学断面図として考えることとする。例えば、図2および図3におけるX方向が撮像素子の水平方向であるとすれば、図2の画素201、202や図3の副画素302、303のように対となる焦点検出画素を用いて相関を行う場合、光学断面は左右の水平方向として考える。一方、図2の画素203、204や図3の副画素304、305の対となる焦点検出画素を用いて相関を行う場合、光学断面は上下の垂直方向として考える。なお、以下の説明を簡略に行うため、撮像素子の軸外像高に位置する対となる焦点検出画素の瞳分離状態は、撮像光学系の射出瞳距離で理想状態となるように構成されていることを前提とする。   Next, a method for predicting an asymmetric optical vignetting state using the exit pupil distance information 107 and the peripheral light amount ratio information 108 to acquire highly accurate baseline length information will be described. In addition, although the figure regarding the light vignetting uses an optical sectional view in the vertical direction for the sake of simplicity, it is actually considered as an optical sectional view in the correlation direction. For example, if the X direction in FIGS. 2 and 3 is the horizontal direction of the image sensor, paired focus detection pixels such as the pixels 201 and 202 in FIG. 2 and the sub-pixels 302 and 303 in FIG. 3 are used. When performing correlation, the optical section is considered as the horizontal direction on the left and right. On the other hand, when the correlation is performed using the focus detection pixels that are a pair of the pixels 203 and 204 in FIG. 2 and the sub-pixels 304 and 305 in FIG. In order to simplify the following description, the pupil separation state of the pair of focus detection pixels located at the off-axis image height of the imaging element is configured to be an ideal state at the exit pupil distance of the imaging optical system. It is assumed that

次に、図6を参照して、周辺像高へ射出する光線束の光線ケラレ状態が非対称に偏った状態の例を説明する。図6は、撮像光学系のケラレ状態と射出瞳距離との関係図である。図6中のPOは、結像面IPから射出瞳面までの距離(射出瞳距離)である。URは図6中の光線束の上側の光線(上線)、BRは光線束の下側の光線(下線)、PRは主光線で上線URと下線BRとの成す角度を2分する角度で結像面IPに射出する光線である。   Next, an example of a state in which the light vignetting state of the light beam emitted to the peripheral image height is asymmetrically biased will be described with reference to FIG. FIG. 6 is a relationship diagram between the vignetting state of the imaging optical system and the exit pupil distance. PO in FIG. 6 is a distance (exit pupil distance) from the imaging plane IP to the exit pupil plane. UR is the upper ray (upper line) of the ray bundle in FIG. 6, BR is the lower ray (underline) of the ray bundle, PR is the principal ray, and is formed by an angle that bisects the angle formed by the upper line UR and the underline BR. This is a light beam emitted to the image plane IP.

図6(A)は、上下方向に対称な光学ケラレを生じた状態、図6(B)は上線URがより大きくケラレを生じた状態、図6(C)は下線BRが大きくケラレを生じた状態をそれぞれ示している。図6(A)において、撮像光学系の絞り位置で光軸と主光線PRとが交わり、射出瞳距離POは結像面IPから絞り位置までの距離に相当する。このとき射出瞳距離POは、光学ケラレが全く生じていない場合と略同等の射出瞳距離Po0になっている。   FIG. 6A shows a state in which optical vignetting symmetrical in the vertical direction is generated, FIG. 6B shows a state in which the upper line UR is larger, and FIG. 6C shows a larger vignetting in the lower line BR. Each state is shown. In FIG. 6A, the optical axis and the principal ray PR intersect at the stop position of the imaging optical system, and the exit pupil distance PO corresponds to the distance from the imaging plane IP to the stop position. At this time, the exit pupil distance PO is substantially the same as the exit pupil distance Po0 when no optical vignetting occurs.

一方、図6(B)においては、上線URが大きくケラレを生じることにより、主光線PRの結像面IPへの射出角度が図6(A)に対してマイナス側(下側)に変化する。このため、主光線PRと光軸との交差する位置は結像面IP方向に変化して射出瞳距離が短くなり、射出瞳距離Po0とは異なる射出瞳距離Po1となる。   On the other hand, in FIG. 6B, when the upper line UR is largely vignetted, the emission angle of the principal ray PR to the imaging plane IP changes to the minus side (lower side) with respect to FIG. . For this reason, the position where the principal ray PR and the optical axis intersect changes in the imaging plane IP direction, the exit pupil distance becomes shorter, and the exit pupil distance Po1 is different from the exit pupil distance Po0.

また図6(C)において、下線BRが大きくケラレを生じることにより、主光線PRの結像面IPへの射出角度が図6(A)に対してプラス側(上側)に変化する。このため、主光線PRと光軸との交差する位置は物体側方向に変化して射出瞳距離が長くなり、射出瞳距離Po0とは異なる射出瞳距離Po1となる。したがって、射出瞳距離情報107を用いて、中心像高での理想的な射出瞳距離と任意像高での射出瞳距離とを比較することにより、非対称なケラレ状態が上線URと下線BRのいずれで大きく発生しているのかを推測することができる。   Further, in FIG. 6C, the underline BR is greatly vignetted, so that the emission angle of the principal ray PR to the imaging plane IP changes to the plus side (upper side) with respect to FIG. For this reason, the position where the principal ray PR and the optical axis intersect changes in the object side direction, the exit pupil distance becomes longer, and the exit pupil distance Po1 is different from the exit pupil distance Po0. Therefore, by using the exit pupil distance information 107 to compare the ideal exit pupil distance at the center image height and the exit pupil distance at the arbitrary image height, the asymmetric vignetting state is either the overline UR or the underline BR. It can be estimated whether it is greatly occurring.

次に、図7を参照して、非対称な光学ケラレ状態における基線長の変化状態を説明する。図7は、図6の光学ケラレ状態において、撮像光学系の絞り位置での軸外光線の瞳形状と基線長との関係図である。図7(A)、(B)、(C)は、それぞれ、撮像光学系が図6(A)、(B)、(C)の状態に対応する。図7は、瞳位置(図6の絞り位置)での像高Yに入射する光線束の瞳範囲と、その瞳範囲から一対の焦点検出画素に入射される光線範囲(焦点検出画素の瞳範囲)との関係から、非対称な光学ケラレによる基線長Lの変化状態の説明図である。図7(A)、(B)、(C)のそれぞれの左図は、瞳形状を示し、右図は各焦点検出画素の受光強度と各重心位置間の基線長を示している。   Next, with reference to FIG. 7, the change state of the baseline length in the asymmetric optical vignetting state will be described. FIG. 7 is a relationship diagram between the pupil shape of the off-axis ray and the base line length at the stop position of the imaging optical system in the optical vignetting state of FIG. 7A, 7B, and 7C, the imaging optical system corresponds to the states of FIGS. 6A, 6B, and 6C, respectively. FIG. 7 shows the pupil range of the light bundle incident on the image height Y at the pupil position (the stop position in FIG. 6), and the light range incident on the pair of focus detection pixels from the pupil range (pupil range of the focus detection pixel). FIG. 6 is an explanatory diagram of a change state of the baseline length L due to asymmetric optical vignetting. 7A, 7B, and 7C show the pupil shape, and the right figure shows the received light intensity of each focus detection pixel and the base line length between the barycentric positions.

図7中の左図のPUは、図6の撮像光学系の瞳位置(絞り位置)にて像高HGTに結像する光線束の瞳形状を表している。S1、S2は、同様に、撮像光学系の瞳位置での図2乃至図4を参照して説明した位相差検出を行うための対となる焦点検出画素に受光し得る光線束の範囲(焦点検出画素の瞳範囲)を示している。図7中の右図のR1、R2は、各焦点検出画素の信号(受光強度信号)を示し、水平方向Xは図6における上下方向に対応している。Lは基線長を示し、信号R1、R2の重心間距離を示している。   The PU in the left diagram in FIG. 7 represents the pupil shape of the light bundle that is imaged at the image height HGT at the pupil position (aperture position) of the imaging optical system in FIG. Similarly, S1 and S2 are ranges of light bundles (focal points) that can be received by the pair of focus detection pixels for performing the phase difference detection described with reference to FIGS. 2 to 4 at the pupil position of the imaging optical system. The pupil range of the detection pixel). R1 and R2 in the right diagram in FIG. 7 indicate signals (light reception intensity signals) of the focus detection pixels, and the horizontal direction X corresponds to the vertical direction in FIG. L indicates the base line length and indicates the distance between the centers of gravity of the signals R1 and R2.

図7(A)は、X方向の光学ケラレが対称な状態における光線束の瞳形状とそれに伴う基線長Lを示している。ここで一対の焦点検出画素における信号R1、R2(信号強度)は略対称な形状となり、それぞれの重心位置も瞳中心位置から等しい距離となっている。このため、基線長Lは、図7(A)中の破線Fで示されるような疑似的なF値で定義される瞳径と同等な基線長であるとして、予めF値に対して撮像装置内に記憶されている基線長情報を用いることができる。このような光学ケラレの対称性の有無判定は、図6に示されるように、像高変化に対する射出瞳距離の変化情報で検知することができる。そして、対応するF値は、周辺光量比情報から疑似的な楕円の短辺変化に対する瞳の面積比の割合として考えることにより、瞳上の短辺を直径とする瞳径のF値とすればよい。   FIG. 7A shows the pupil shape of the light bundle and the associated base line length L when the optical vignetting in the X direction is symmetric. Here, the signals R1 and R2 (signal intensity) in the pair of focus detection pixels have substantially symmetrical shapes, and the center positions of the respective centers are the same distance from the pupil center position. Therefore, the baseline length L is assumed to be a baseline length equivalent to a pupil diameter defined by a pseudo F value as indicated by a broken line F in FIG. The baseline length information stored in can be used. Such determination of the presence or absence of optical vignetting symmetry can be detected based on the change information of the exit pupil distance with respect to the image height change, as shown in FIG. Then, if the corresponding F value is considered as a ratio of the area ratio of the pupil to the short side change of the pseudo ellipse based on the peripheral light amount ratio information, the F value of the pupil diameter having the short side on the pupil as the diameter is used. Good.

図7(B)は、図6(B)に示されるように光線束の上線がより大きくケラレを生じた状態での焦点検出信号の信号強度と重心位置変化を示している。図7(A)の範囲S1に対して範囲S2でよりケラレが大きく発生しているため、信号R2のX方向幅は瞳中心位置方向に短くなっている。このため、信号R2の瞳中心からの重心位置は、信号R1の重心位置よりも短い。したがって、図7(B)の基線長Lは、図7(A)の基線長Lよりも短い。また非対称な光線ケラレを発生している状態においては、光線束の瞳形状が2種類の異なる半径の円弧で囲われたような形状となる。このため、楕円形状との整合を行うと、周辺光量比情報から得られる開口面積との整合を行うと誤差を生じると同時に、各焦点検出画素の信号の重心位置が瞳中心から対称である前提のF値から基線長情報を取得すると基線長の誤差が大きくなってくる問題を生じる。   FIG. 7B shows the signal intensity of the focus detection signal and the change in the center of gravity position in a state where the upper line of the light bundle is larger and vignetting occurs as shown in FIG. 6B. Since the vignetting is larger in the range S2 than in the range S1 in FIG. 7A, the X direction width of the signal R2 is shorter in the pupil center position direction. For this reason, the gravity center position from the pupil center of the signal R2 is shorter than the gravity center position of the signal R1. Therefore, the baseline length L in FIG. 7B is shorter than the baseline length L in FIG. In a state where asymmetrical light vignetting is generated, the shape of the pupil of the light beam is a shape surrounded by arcs of two different radii. For this reason, if matching with the elliptical shape is performed, matching with the aperture area obtained from the peripheral light amount ratio information causes an error, and at the same time, the position of the center of gravity of the signal of each focus detection pixel is symmetric from the pupil center. If the baseline length information is acquired from the F value, the problem of an increase in baseline length error occurs.

図7(C)は、図6(C)に示されるように光線束の下線に大きくケラレを生じた状態での焦点検出信号の信号強度と重心位置変化を示している。このため図7(B)とは反対に、焦点検出画素の信号R1が信号R2よりも光学ケラレの影響で小さくなる。その結果、図7(B)とは逆に信号R2に対して信号R1の瞳中心からの重心位置が短くなり、図7(A)の基線長Lよりも短い基線長となる。   FIG. 7C shows the signal intensity of the focus detection signal and the change in the position of the center of gravity when the vignetting is greatly generated in the underline of the light bundle as shown in FIG. 6C. Therefore, contrary to FIG. 7B, the signal R1 of the focus detection pixel becomes smaller than the signal R2 due to the effect of optical vignetting. As a result, in contrast to FIG. 7B, the barycentric position of the signal R1 from the center of the pupil with respect to the signal R2 is shortened, and the baseline length is shorter than the baseline length L of FIG.

次に、図8を参照して、図6および図7を参照して説明したような非対称な光学ケラレが発生している状態から、その非対称な光学ケラレの発生量の推定方法について説明する。図8は、射出瞳距離の変化から非対称なケラレを推定して疑似F値を算出する方法の説明図である。   Next, a method for estimating the amount of occurrence of asymmetric optical vignetting from the state in which asymmetric optical vignetting as described with reference to FIGS. 6 and 7 has occurred will be described with reference to FIG. FIG. 8 is an explanatory diagram of a method of calculating a pseudo F value by estimating asymmetric vignetting from a change in exit pupil distance.

本実施形態において、カメラ側CPU169は、図1の射出瞳距離情報107から、焦点検出の際の撮像光学系のF値(F値状態)に対応する射出瞳距離情報を取得する。そしてカメラ側CPU169は、取得した射出瞳距離情報と、焦点検出位置の変化(像高の変化)との関係に基づいて射出瞳距離変化状態情報を取得し、非対称な光学ケラレの発生量を推定する。   In the present embodiment, the camera-side CPU 169 acquires exit pupil distance information corresponding to the F value (F value state) of the imaging optical system at the time of focus detection from the exit pupil distance information 107 in FIG. The camera-side CPU 169 obtains exit pupil distance change state information based on the relationship between the obtained exit pupil distance information and the change in focus detection position (change in image height), and estimates the amount of occurrence of asymmetric optical vignetting. To do.

図8(A)は、図6(B)における撮像光学系の後玉レンズの有効径による光線ケラレを要因とした非対称な光線ケラレ状態を示している。一方、図8(B)は、図6(C)における撮像光学系の前玉レンズの有効径による光線ケラレを要因とした非対称な光線ケラレ状態を示している。図8中のHは、非対称な光線ケラレがない場合の射出瞳径、AXは撮像光学系の光軸、IPは結像面をそれぞれ示している。HGTは、光線が結像する像高位置、UR、BR、PRはそれぞれ非対称な光線ケラレがない場合の光線束の上線、下線、主光線をそれぞれ示している。
また、主光線PRと光軸AXとが交差する位置を射出瞳位置(絞りの位置)として、結像面IPから射出瞳位置までの距離を射出瞳距離Po0とする。
FIG. 8A shows an asymmetrical light vignetting state caused by light vignetting due to the effective diameter of the rear lens of the imaging optical system in FIG. 6B. On the other hand, FIG. 8B shows an asymmetrical light vignetting state caused by light vignetting due to the effective diameter of the front lens of the imaging optical system in FIG. 6C. In FIG. 8, H represents the exit pupil diameter when there is no asymmetrical light vignetting, AX represents the optical axis of the imaging optical system, and IP represents the image plane. HGT indicates the image height position where the light beam forms an image, and UR, BR, and PR respectively indicate the upper line, the lower line, and the chief ray when there is no asymmetrical light vignetting.
Further, the position where the principal ray PR and the optical axis AX intersect is defined as the exit pupil position (stop position), and the distance from the imaging plane IP to the exit pupil position is defined as the exit pupil distance Po0.

図8において、UR´、BR´、PR´はそれぞれレンズ有効径により光線ケラレが発生した場合における光線束の上線、下線、主光線をそれぞれ示している。主光線PR´と光軸AXとが交差する位置を、非対称な光線ケラレが発生したときの射出瞳位置として、結像面IPから射出瞳位置までの距離を射出瞳距離Po1とする。ここで、光軸AXと上線URとがなす角度をU_ANG、光軸AXと下線BRとがなす角度をB_ANGとする。同様に、光学ケラレが発生している場合において、光軸AXと上線UR´とがなす角度をU´_ANG、光軸AXと下線BR´とがなす角度をB´_ANGとして、その主光線の角度をP´_ANGとする(不図示)。   In FIG. 8, UR ′, BR ′, and PR ′ respectively indicate the upper line, the lower line, and the principal ray of the light bundle when the light vignetting occurs due to the effective lens diameter. A position where the principal ray PR ′ and the optical axis AX intersect is defined as an exit pupil position when asymmetrical light vignetting occurs, and a distance from the imaging plane IP to the exit pupil position is defined as an exit pupil distance Po1. Here, an angle formed by the optical axis AX and the upper line UR is U_ANG, and an angle formed by the optical axis AX and the lower line BR is B_ANG. Similarly, when optical vignetting occurs, the angle formed by the optical axis AX and the upper line UR ′ is U′_ANG, and the angle formed by the optical axis AX and the lower line BR ′ is B′_ANG. The angle is P′_ANG (not shown).

次に、前述の諸変数値を求めて精度の高い基線長情報を取得する方法を説明する。まず、焦点検出の際の撮像光学系のF値をFnoとすると、撮像光学系の絞り位置(理想的な射出瞳距離)での瞳の半径Hは、以下の式(3)のように表される。   Next, a method for obtaining the above-described various variable values and obtaining highly accurate baseline length information will be described. First, assuming that the F value of the imaging optical system at the time of focus detection is Fno, the pupil radius H at the stop position (ideal exit pupil distance) of the imaging optical system is expressed as the following equation (3). Is done.

H=Po0・TAN(ω) … (3)
(ω=SIN−1(1/2・Fno))
そして、角度U_ANG、B_ANGは、それぞれ、以下の式(4−1)、(4−2)のように表される。
H = Po0 · TAN (ω) (3)
(Ω = SIN-1 (1/2 · Fno))
The angles U_ANG and B_ANG are represented by the following equations (4-1) and (4-2), respectively.

U_ANG=TAN−1((HGT−H)/Po0) … (4−1)
B_ANG=TAN−1((HGT+H)/Po0) … (4−2)
また、図8(A)のように上線に光線ケラレが発生している場合、予め得られている射出瞳距離Po1から、以下の式(5)の関係を得ることができる。
U_ANG = TAN-1 ((HGT-H) / Po0) (4-1)
B_ANG = TAN-1 ((HGT + H) / Po0) (4-2)
When ray vignetting occurs on the upper line as shown in FIG. 8A, the relationship of the following equation (5) can be obtained from the exit pupil distance Po1 obtained in advance.

Y=Po1・TAN(P´_ANG) … (5)
式(5)を変形すると、以下の式(6)で表されるように、光学ケラレが発生している主光線の角度P´_ANGを得ることができる。
Y = Po1 · TAN (P′_ANG) (5)
By transforming equation (5), as represented by the following equation (6), an angle P′_ANG of the principal ray at which optical vignetting is generated can be obtained.

P´_ANG=TAN−1(HGT/Po1) … (6)
ここで、ケラレを生じている光線束の主光線角度は、上線と下線を2分する角度であるとして、主光線の角度P´_ANGは、以下の式(7)のように表される。
P′_ANG = TAN−1 (HGT / Po1) (6)
Here, assuming that the chief ray angle of the light bundle causing vignetting is an angle that divides the upper line and the underline into two, the chief ray angle P′_ANG is expressed as the following Expression (7).

P´_ANG=(U´_ANG+B_ANG)/2 … (7)
式(7)を変形すると、以下の式(8)で表されるように、光線ケラレが発生する上線と光軸とのなす角度U´_ANGを求められる。
P′_ANG = (U′_ANG + B_ANG) / 2 (7)
By transforming equation (7), as represented by the following equation (8), an angle U′_ANG formed by the upper line where the light vignetting occurs and the optical axis can be obtained.

U´_ANG=2・P´_ANG − B_ANG … (8)
そして、理想的な射出瞳とする絞り位置でのケラレを生じている方向の瞳の高さHUは、以下の式(9)で表されるように求めることができる。
U′_ANG = 2 · P′_ANG−B_ANG (8)
Then, the pupil height HU in the direction in which vignetting occurs at the stop position as an ideal exit pupil can be obtained as expressed by the following equation (9).

HU=HGT−Po0・TAN(U´_ANG) … (9)
ここで、瞳の高さHUを瞳の半径とするような疑似F値Fno´は、式(3)を変形して、以下の式(10)のように表すことができる。
HU = HGT-Po0 · TAN (U'_ANG) (9)
Here, the pseudo F value Fno ′ in which the pupil height HU is the pupil radius can be expressed as the following formula (10) by modifying the formula (3).

Fno´=1/(2・SIN(ω)) … (10)
そして光線角度ωは、ω=ATAN(HU/Po0)であるから、式(10)に代入することにより、光線ケラレが生じている側の光線束の疑似F値Fno´は、以下の式(11)のように表すことができる。
Fno ′ = 1 / (2 · SIN (ω)) (10)
Since the ray angle ω is ω = ATAN (HU / Po0), by substituting into the equation (10), the pseudo F value Fno ′ of the ray bundle on which the ray vignetting is generated can be expressed by the following equation (10): 11).

Fno´=1/(2・SIN(TAN−1(HU/Po0))) … (11)
また、図3(B)に示されるように下線が光線ケラレを発生させている場合、U´_ANGの代わりにB´_ANGを用いることにより、瞳半径HBを求めることができる。疑似F値Fno´は、瞳半径HBを用いて以下の式(12)のように表すことができる。
Fno ′ = 1 / (2 · SIN (TAN-1 (HU / Po0))) (11)
Also, as shown in FIG. 3B, when the underline generates ray vignetting, the pupil radius HB can be obtained by using B′_ANG instead of U′_ANG. The pseudo F value Fno ′ can be expressed by the following equation (12) using the pupil radius HB.

Fno´=1/(2・SIN(TAN−1(HB/Po0))) … (12)
以上のように、ケラレがない場合の撮像光学系のF値と、ケラレが生じた場合の式(11)または式(12)で表されるような疑似F値(擬似F値情報)とを取得することができる。基線長補正手段166は、この2種類の疑似F値情報を用いて、図1の基線長情報取得手段165からそれぞれの疑似F値に対応する2つの基線長情報を取得する。そして基線長補正手段166は、得られた2つの基線長を平均化し、高精度の補正された基線長を生成する。カメラ側CPU169は、補正された基線長を用いて、式(2−1)、式(2−2)で表される相関演算で得られる像ズレ量をデフォーカス量に変換することにより、高精度のデフォーカス量を取得することができる。
Fno ′ = 1 / (2 · SIN (TAN-1 (HB / Po0))) (12)
As described above, the F value of the imaging optical system when there is no vignetting and the pseudo F value (pseudo F value information) represented by the equation (11) or the equation (12) when vignetting occurs. Can be acquired. The baseline length correction unit 166 acquires two pieces of baseline length information corresponding to each pseudo F value from the baseline length information acquisition unit 165 of FIG. 1 using these two types of pseudo F value information. Then, the baseline length correction unit 166 averages the obtained two baseline lengths to generate a highly accurate corrected baseline length. The camera side CPU 169 converts the image shift amount obtained by the correlation calculation represented by the equations (2-1) and (2-2) into the defocus amount using the corrected baseline length, thereby increasing the An accurate defocus amount can be acquired.

なお本実施形態において、光線束の片側は光線ケラレがない状態を前提として説明したが、光線ケラレが対称である場合には撮像光学系の瞳径を対称な光線ケラレで定義された疑似F値で算出すればよい。その疑似F値を取得するには、まず像高変化に対する撮像光学系の射出瞳距離変化情報により理想状態(光学ケラレのない状態)の射出瞳距離に対して、射出瞳距離変化量が規定値を越えない像高位置範囲を検出する。また、その像高範囲から焦点検出を行う像高位置に近い像高位置を判定し、予め記憶されている周辺光量比情報から判定した像高での周辺光量比を算出する。そして、算出された周辺光量比から疑似F値を求め、その擬似F値に相当する瞳半径Hを求めて、非対称光学ケラレ量を判定するための基準量とすることができる。   In this embodiment, the description has been made on the assumption that one side of the light bundle has no light vignetting. However, when the light vignetting is symmetric, the pseudo-F value defined by the symmetric light vignetting is used for the pupil diameter of the imaging optical system. Calculate with In order to obtain the pseudo F value, first, the exit pupil distance change amount is a specified value with respect to the exit pupil distance in the ideal state (the state without optical vignetting) based on the exit pupil distance change information of the imaging optical system with respect to the image height change. An image height position range that does not exceed is detected. Further, the image height position close to the image height position where focus detection is performed is determined from the image height range, and the peripheral light amount ratio at the image height determined from the peripheral light amount ratio information stored in advance is calculated. Then, a pseudo F value is obtained from the calculated peripheral light amount ratio, a pupil radius H corresponding to the pseudo F value is obtained, and can be used as a reference amount for determining the asymmetric optical vignetting amount.

図9を参照して、その処理例について説明する。図9は、射出瞳距離および周辺光量比と像高との関係図である。図9では、射出瞳距離情報107と周辺光量比情報108とを用いて、像高の変化に対する射出瞳距離変化を示す射出瞳距離変化状態情報、および、像高の変化に対する周辺光量変化を示す周辺光量比変化情報をグラフ化している。   An example of the processing will be described with reference to FIG. FIG. 9 is a graph showing the relationship between the exit pupil distance, the peripheral light amount ratio, and the image height. In FIG. 9, using the exit pupil distance information 107 and the peripheral light amount ratio information 108, the exit pupil distance change state information indicating the change in the exit pupil distance with respect to the change in the image height and the peripheral light amount change with respect to the change in the image height are shown. The peripheral light ratio change information is graphed.

この情報は、射出瞳距離情報107および周辺光量比情報108としてレンズ装置100の記憶手段に格納されているデータを用いて定義され、現在の撮像光学系が設定されているF値に対応する。そして、像高中心近傍での射出瞳距離を、図8における理想的な射出瞳距離Po0とし、射出瞳距離Po0に対して射出瞳距離変化率の閾値を仮に10%として閾値を越えた像高範囲で基線長の精度が低下する原因となる非対称ケラレが発生すると仮定する。以下、像高20mm位置での焦点検出処理を行うことを想定して説明する。   This information is defined using data stored in the storage unit of the lens apparatus 100 as the exit pupil distance information 107 and the peripheral light amount ratio information 108, and corresponds to the F value for which the current imaging optical system is set. Then, the exit pupil distance in the vicinity of the image height center is set to an ideal exit pupil distance Po0 in FIG. 8, and the threshold value of the exit pupil distance change rate with respect to the exit pupil distance Po0 is assumed to be 10%. Assume that an asymmetric vignetting occurs that causes the accuracy of the baseline length to fall in the range. Hereinafter, description will be made assuming that focus detection processing is performed at an image height of 20 mm.

まず、カメラ側CPU169は、像高変化に対する射出瞳距離変化の関係から、閾値10%を超えるのは像高15mmの位置であると判定する。続いて、カメラ側CPU169は、像高15mmにおける周辺光量比を、図9中の下グラフ図のような像高変化に対する周辺光量変化情報に基づいて判定する、そして、得られた周辺光量比から疑似F値を求める。ここで、像高20mmにおける射出瞳位置を理想状態から外れた射出瞳距離Po1とする。射出瞳距離変化から、像高が高くなるにつれて射出瞳距離は短くなることがわかる。このため非対称な光学ケラレは、図6を参照して説明したように、光線束の上線のケラレが大きくなる状態であると判定することができる。したがって、図8(A)に関して説明したような処理を行うことで、大きなケラレが生じた場合でも精度の高い基線長情報を取得することが可能となる。   First, the camera-side CPU 169 determines that the position exceeding the threshold of 10% is the position of the image height of 15 mm from the relationship of the exit pupil distance change to the image height change. Subsequently, the camera side CPU 169 determines the peripheral light amount ratio at the image height of 15 mm based on the peripheral light amount change information with respect to the image height change as shown in the lower graph of FIG. 9, and from the obtained peripheral light amount ratio. A pseudo F value is obtained. Here, the exit pupil position at an image height of 20 mm is defined as an exit pupil distance Po1 deviating from the ideal state. From the change in the exit pupil distance, it can be seen that the exit pupil distance decreases as the image height increases. For this reason, as described with reference to FIG. 6, the asymmetric optical vignetting can be determined to be a state in which the vignetting of the upper line of the light beam becomes large. Therefore, by performing the processing described with reference to FIG. 8A, it is possible to acquire highly accurate baseline length information even when large vignetting occurs.

以上は非対称な光学ケラレを生じた場合において、精度の高い基線長情報を求めて合焦を行うことを説明したが、得られた基線長情報を用いて合焦の信頼性を判定してもよい。例えば、極端な非対称な光学ケラレによる周辺光量や射出瞳距離変化傾向を見られる状況で得られた基線長が規定値よりも小さくなっている場合、式(2−1)、式(2−2)で表されるように微少な基線長の誤差で算出されるデフォーカス量が大きく変化する。そのような場合、例えば焦点検出方式をコントラスト検出方式へ変更することや、焦点検出位置を問題のない位置に変更するなどの処理方法を選択するように構成してもよい。この場合、カメラ側CPU169は、補正された基線長情報に基づいて焦点検出の信頼性を判定する判定手段として機能する。   In the above, when asymmetric optical vignetting has occurred, it has been explained that focusing is performed by obtaining highly accurate baseline length information. However, even if the obtained baseline length information is used to determine the reliability of focusing. Good. For example, when the base line length obtained in a situation where the peripheral light amount and the exit pupil distance change tendency due to extremely asymmetric optical vignetting can be seen is smaller than a specified value, the equations (2-1) and (2-2) ), The defocus amount calculated with a slight error in the baseline length changes greatly. In such a case, for example, a processing method such as changing the focus detection method to a contrast detection method or changing the focus detection position to a position where there is no problem may be selected. In this case, the camera-side CPU 169 functions as a determination unit that determines the reliability of focus detection based on the corrected baseline length information.

本実施形態によれば、撮像光学系の光線ケラレにより基線長が変化を起こすため正確なデフォーカス量を得ることができなくなるという問題に関し、撮像光学系ごとの膨大な基線長情報を有せずとも、少ない情報量で基線長を補正することができる。その結果、高精度な合焦動作が可能となる。   According to the present embodiment, there is no enormous baseline length information for each imaging optical system with respect to the problem that an accurate defocus amount cannot be obtained because the baseline length changes due to ray vignetting of the imaging optical system. In both cases, the baseline length can be corrected with a small amount of information. As a result, a highly accurate focusing operation is possible.

次に、図10を参照して、本実施形態の撮像装置により焦点検出を行って撮像光学系の合焦制御(フォーカス制御)を行う処理について説明する。図10は、本実施形態における焦点検出およびフォーカス制御のフローチャートである。ここでは、交換可能な撮像光学系(交換レンズ)が取り付けられて焦点検出動作を開始した状態を初期状態と想定している。図10の各ステップは、主に、カメラ側CPU169の指令に基づいて各部により実行される。   Next, a process for performing focus control (focus control) of the image pickup optical system by performing focus detection using the image pickup apparatus of the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart of focus detection and focus control in this embodiment. Here, it is assumed that a state in which a replaceable imaging optical system (interchangeable lens) is attached and a focus detection operation is started is an initial state. Each step in FIG. 10 is mainly executed by each unit based on a command from the camera CPU 169.

まず、ステップS101において、カメラ側CPU169(信号取得手段169a)は、撮像素子158の複数の光電変換部からの信号(焦点検出信号)を取得する。続いてステップS102において、カメラ側CPU169は、焦点検出の際の撮像光学系のF値情報、および、焦点検出を行う撮像素子158上の焦点検出画素の位置情報(座標情報)を取得する。続いてステップS103において、カメラ側CPU169(算出手段169b)は、ステップS101にて取得した焦点検出信号を用いて相関演算を行い、像ズレ量を算出する。続いてステップS104において、カメラ側CPU169は、レンズ装置100の記憶手段に記憶されている撮像光学系の射出瞳距離情報107から、ステップS102にて取得したF値に対応する射出瞳情報(射出瞳距離情報)を取得する。その際に、カメラ側CPU169は、焦点検出位置(周辺像高)よりも撮像素子中心位置(中心像高)に近くなるような焦点検出位置における射出瞳距離情報をまとめて取得する。   First, in step S101, the camera side CPU 169 (signal acquisition unit 169a) acquires signals (focus detection signals) from a plurality of photoelectric conversion units of the image sensor 158. Subsequently, in step S102, the camera-side CPU 169 acquires F-number information of the imaging optical system at the time of focus detection and position information (coordinate information) of the focus detection pixel on the image sensor 158 that performs focus detection. Subsequently, in step S103, the camera side CPU 169 (calculation unit 169b) performs correlation calculation using the focus detection signal acquired in step S101, and calculates an image shift amount. Subsequently, in step S104, the camera side CPU 169 outputs exit pupil information (exit pupil) corresponding to the F value obtained in step S102 from the exit pupil distance information 107 of the imaging optical system stored in the storage unit of the lens apparatus 100. Get distance information). At that time, the camera-side CPU 169 collectively obtains exit pupil distance information at a focus detection position that is closer to the image sensor center position (center image height) than the focus detection position (peripheral image height).

続いてステップS105において、カメラ側CPU169は、ステップS102にて取得したF値(装着されたレンズ装置100のF値)に対応する周辺光量情報(周辺光量比情報)を、ステップS104と同様に、中心像高から周辺像高までまとめて取得する。続いてステップS106において、カメラ側CPU169は、ステップS104にて取得した射出瞳距離情報に基づいて、射出瞳距離変化情報(射出瞳位置変化情報)を作成する。この際に、不足すると考えられる情報は、補間演算を行って補うことができる。また、射出瞳距離(射出瞳位置)の変化状態は、多項式近似式を用いてもよい。   Subsequently, in step S105, the camera-side CPU 169 obtains peripheral light amount information (peripheral light amount ratio information) corresponding to the F value (F value of the attached lens device 100) acquired in step S102, as in step S104. Collect from the central image height to the peripheral image height. Subsequently, in step S106, the camera-side CPU 169 creates exit pupil distance change information (exit pupil position change information) based on the exit pupil distance information acquired in step S104. At this time, information considered to be insufficient can be compensated by performing an interpolation operation. Further, a polynomial approximate expression may be used for the change state of the exit pupil distance (exit pupil position).

続いてステップS107において、ケラレ状態取得手段164は、ステップS105にて取得した焦点検出位置での周辺光量比情報と、ステップS106にて取得した射出瞳距離変化情報とを用いて、ケラレ状態(光学ケラレ状態)を検出(取得)する。ケラレ状態取得手段164は、像高中心から射出瞳距離が所定量だけ変化していない像高範囲において、焦点検出位置(像高位置)に近い像高位置の周辺光量比から、光学ケラレ状態を検出する。そしてケラレ状態取得手段164は、そのケラレ状態に基づいて、疑似F値を取得する。ここで、カメラ側CPU169が現在の焦点検出位置において射出瞳距離が変化している判定した場合、ケラレ状態取得手段164は、非対称な光学ケラレが発生していると判定する。このとき、ケラレ状態取得手段164は、同様に図8を参照して説明した方法を用いて、非対称な光学ケラレ(光学ケラレ量)を推定し、2つの疑似F値を取得する。   Subsequently, in step S107, the vignetting state acquisition unit 164 uses the peripheral light amount ratio information at the focus detection position acquired in step S105 and the exit pupil distance change information acquired in step S106 to detect the vignetting state (optical). Vignetting state) is detected (acquired). The vignetting state acquisition means 164 determines the optical vignetting state from the peripheral light amount ratio at the image height position close to the focus detection position (image height position) in the image height range where the exit pupil distance does not change by a predetermined amount from the image height center. To detect. The vignetting state acquisition unit 164 acquires a pseudo F value based on the vignetting state. Here, when the camera-side CPU 169 determines that the exit pupil distance has changed at the current focus detection position, the vignetting state acquisition unit 164 determines that asymmetric optical vignetting has occurred. At this time, the vignetting state acquisition unit 164 similarly estimates the asymmetric optical vignetting (optical vignetting amount) using the method described with reference to FIG. 8 and acquires two pseudo F values.

続いてステップS108において、基線長情報取得手段165は、2つの擬似F値のそれぞれに対応する第1基線長情報および第2基線長情報を取得する。なお、ケラレ状態取得手段164が非対称な光学ケラレがないと判定した場合、ステップS108にて1つの疑似F値から、同値である第1基線長情報および第2基線長情報を取得すればよい。続いてステップS109において、基線長補正手段166(補正手段)は、ステップS108にて取得した第1基線長情報と第2基線長情報とを平均化し、基線長情報を補正する。これにより、非対称な光学ケラレが生じていても高精度の基線長情報を取得することができる。   Subsequently, in step S108, the baseline length information acquisition unit 165 acquires first baseline length information and second baseline length information corresponding to each of the two pseudo F values. When the vignetting state acquisition unit 164 determines that there is no asymmetric optical vignetting, the first baseline length information and the second baseline length information that are the same value may be acquired from one pseudo F value in step S108. Subsequently, in step S109, the baseline length correction unit 166 (correction unit) averages the first baseline length information and the second baseline length information acquired in step S108, and corrects the baseline length information. Thereby, even if asymmetric optical vignetting occurs, highly accurate baseline length information can be acquired.

続いてステップS110において、カメラ側CPU169(算出手段169b)は、ステップS109にて補正された基線長情報と、ステップS103にて取得した像ズレ量と、に基づいてデフォーカス量を算出する。このとき用いられる基線長情報は、撮像光学系の非対称な光線ケラレを考慮して補正されている。このため、補正されていない基線長情報を用いて算出されるデフォーカス量よりも正確なデフォーカス量を算出することができる。   Subsequently, in step S110, the camera side CPU 169 (calculating unit 169b) calculates a defocus amount based on the baseline length information corrected in step S109 and the image shift amount acquired in step S103. The baseline length information used at this time is corrected in consideration of asymmetrical light vignetting of the imaging optical system. For this reason, it is possible to calculate a defocus amount that is more accurate than the defocus amount calculated using the uncorrected baseline length information.

続いてステップS111において、カメラ側CPU169は、ステップS110にて取得したデフォーカス量が撮影可能な合焦状態であると判定する規定のデフォーカス範囲内に入っているか否かを判定する。そしてカメラ側CPU169は、合焦状態であると判定した場合、一連の焦点検出およびフォーカス制御(本フロー)を終了する。   Subsequently, in step S111, the camera-side CPU 169 determines whether or not the defocus amount acquired in step S110 is within a prescribed defocus range in which it is determined that the image is in focus. If the camera-side CPU 169 determines that the camera is in focus, the series of focus detection and focus control (this flow) ends.

一方、ステップS111にて合焦状態ではない(非合焦状態である)と判定された場合、ステップS112に進む。ステップS112において、カメラ側CPU169(フォーカス駆動量決定手段170)は、ステップS110にて取得したデフォーカス量に基づいて、撮像光学系が合焦状態になるためのフォーカス駆動量を算出する。続いてステップS113において、レンズ側CPU104(フォーカス駆動手段105)は、カメラ側CPU169(フォーカス制御手段)の指令に基づいて、フォーカス駆動量を用いてフォーカス駆動を行う。すなわちカメラ側CPU169は、補正された基線長情報に基づいてフォーカス制御を行う。そしてステップS101に戻り、合焦状態になるまで焦点検出およびフォーカス制御(ステップS101〜S111)を繰り返す。   On the other hand, if it is determined in step S111 that the subject is not in focus (is not in focus), the process proceeds to step S112. In step S112, the camera side CPU 169 (focus drive amount determination means 170) calculates a focus drive amount for the imaging optical system to be in focus based on the defocus amount acquired in step S110. Subsequently, in step S113, the lens side CPU 104 (focus drive unit 105) performs focus drive using the focus drive amount based on a command from the camera side CPU 169 (focus control unit). That is, the camera side CPU 169 performs focus control based on the corrected baseline length information. Then, returning to step S101, focus detection and focus control (steps S101 to S111) are repeated until the in-focus state is obtained.

このように本実施形態において、制御装置は、信号取得手段169a、補正手段(基線長補正手段166)、および、算出手段169bを有する。信号取得手段169aは、撮像光学系の互いに異なる瞳領域を通過する光束に対応する第1信号(第1焦点検出信号、第1副画素信号)および第2信号(第2焦点検出信号、第2副画素信号)を取得する。補正手段(基線長補正手段166)は、焦点検出位置(像高)に応じた射出瞳情報に基づいて基線長情報を補正する。算出手段169bは、第1信号と第2信号との相関値から得られた像ズレ量と、補正された基線長情報と、に基づいてデフォーカス量を算出する。   Thus, in the present embodiment, the control device includes the signal acquisition unit 169a, the correction unit (baseline length correction unit 166), and the calculation unit 169b. The signal acquisition unit 169a includes a first signal (first focus detection signal, first subpixel signal) and a second signal (second focus detection signal, second signal) corresponding to light beams that pass through different pupil regions of the imaging optical system. Subpixel signal) is acquired. The correction unit (baseline length correction unit 166) corrects the baseline length information based on the exit pupil information corresponding to the focus detection position (image height). The calculating unit 169b calculates the defocus amount based on the image shift amount obtained from the correlation value between the first signal and the second signal and the corrected baseline length information.

好ましくは、射出瞳情報は、射出瞳距離に関する情報を含む。補正手段は、焦点検出位置に応じた射出瞳距離の変化に基づいて、基線長情報を補正する。より好ましくは、制御装置は、基線長情報を取得する基線長取得手段(基線長情報取得手段165)を有する。基線長取得手段は、焦点検出の際の撮像光学系のF値と、焦点検出位置に応じた射出瞳距離とに基づいて、基線長情報を取得する。   Preferably, the exit pupil information includes information related to the exit pupil distance. The correcting unit corrects the baseline length information based on a change in the exit pupil distance according to the focus detection position. More preferably, the control device includes baseline length acquisition means (baseline length information acquisition means 165) for acquiring baseline length information. The baseline length acquisition unit acquires baseline length information based on the F value of the imaging optical system at the time of focus detection and the exit pupil distance according to the focus detection position.

好ましくは、制御装置は、焦点検出位置に応じた射出瞳情報の変化に基づいてケラレ情報を取得するケラレ情報取得手段(ケラレ状態取得手段164)を有する。補正手段は、ケラレ情報に基づいて基線長情報を補正する。より好ましくは、ケラレ情報取得手段は、射出瞳情報として、焦点検出位置の変化と射出瞳距離の変化との関係に基づいて、ケラレ情報を取得する。また好ましくは、ケラレ情報取得手段は、射出瞳情報(射出瞳距離情報107)と周辺光量情報(周辺光量比情報108)とを用いてケラレ情報を取得する。また好ましくは、補正手段は、レンズ装置100に記憶されている射出瞳情報を用いて、基線長情報を補正する。また好ましくは、ケラレ情報は、瞳形状の非対称ケラレ成分に関する情報を含む。   Preferably, the control device includes vignetting information acquisition means (vignetting state acquisition means 164) that acquires vignetting information based on a change in exit pupil information according to the focus detection position. The correcting means corrects the baseline length information based on the vignetting information. More preferably, the vignetting information acquisition means acquires the vignetting information as the exit pupil information based on the relationship between the change in the focus detection position and the change in the exit pupil distance. Preferably, the vignetting information acquisition unit acquires the vignetting information using the exit pupil information (exit pupil distance information 107) and the peripheral light amount information (the peripheral light amount ratio information 108). Preferably, the correction unit corrects the baseline length information using the exit pupil information stored in the lens apparatus 100. Preferably, the vignetting information includes information related to a pupil-shaped asymmetric vignetting component.

以上のように本実施形態では、射出瞳距離情報を用いることにより、非対称な光学ケラレが生じている場合でも高精度の基線長情報を取得することができ、高精度な焦点検出が可能となる。   As described above, in this embodiment, by using the exit pupil distance information, it is possible to acquire high-precision baseline length information even when asymmetric optical vignetting occurs, and it is possible to perform high-precision focus detection. .

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本実施形態によれば、非対称の光学ケラレが生じている場合でも高精度な焦点検出が可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。   According to the present embodiment, it is possible to provide a control device, an imaging device, a control method, a program, and a storage medium that can perform focus detection with high accuracy even when asymmetric optical vignetting occurs.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

本実施形態は、例えば、焦点検出画素を有する撮像素子を用いた一眼レフカメラやコンパクトデジタルカメラなどの撮像装置の他に、ビデオカメラなどの撮像装置にも適用可能である。また本実施形態は、例えば、位相差検出方式の焦点検出(位相差AF)とコントラスト検出方式の焦点検出(コントラストAF)とを組み合わせたハイブリッドAFを行う撮像装置にも適用可能である。この場合、撮像装置は、撮像素子を用いたコントラスト検出方式の焦点検出を行う焦点検出手段を有する。このような撮像装置は、状況に応じて、位相差AFまたはコントラストAFを選択的に使用し、または、これらを組み合わせて使用することができる。   The present embodiment is applicable to an imaging apparatus such as a video camera in addition to an imaging apparatus such as a single-lens reflex camera or a compact digital camera using an imaging element having focus detection pixels. The present embodiment can also be applied to, for example, an imaging apparatus that performs hybrid AF in which phase difference detection type focus detection (phase difference AF) and contrast detection type focus detection (contrast AF) are combined. In this case, the imaging apparatus includes a focus detection unit that performs focus detection by a contrast detection method using an imaging element. Such an imaging apparatus can selectively use phase difference AF or contrast AF, or a combination thereof, depending on the situation.

166 基線長補正手段(補正手段)
169a 信号取得手段
169b 算出手段
166 Baseline length correction means (correction means)
169a Signal acquisition means 169b calculation means

Claims (15)

撮像光学系の互いに異なる瞳領域を通過する光束に対応する第1信号および第2信号を取得する信号取得手段と、
焦点検出位置に応じた射出瞳情報に基づいて基線長情報を補正する補正手段と、
前記第1信号と前記第2信号との相関値から得られた像ズレ量と、補正された前記基線長情報と、に基づいてデフォーカス量を算出する算出手段と、を有することを特徴とする制御装置。
Signal acquisition means for acquiring a first signal and a second signal corresponding to light beams passing through different pupil regions of the imaging optical system;
Correction means for correcting the baseline length information based on the exit pupil information corresponding to the focus detection position;
And a calculating means for calculating a defocus amount based on the image shift amount obtained from the correlation value between the first signal and the second signal and the corrected baseline length information. Control device.
前記射出瞳情報は、射出瞳距離に関する情報を含み、
前記補正手段は、前記焦点検出位置に応じた前記射出瞳距離の変化に基づいて、前記基線長情報を補正することを特徴とする請求項1に記載の制御装置。
The exit pupil information includes information regarding exit pupil distance,
The control device according to claim 1, wherein the correction unit corrects the baseline length information based on a change in the exit pupil distance according to the focus detection position.
前記基線長情報を取得する基線長取得手段を更に有し、
前記基線長取得手段は、焦点検出の際の前記撮像光学系のF値と、前記焦点検出位置に応じた前記射出瞳距離とに基づいて、前記基線長情報を取得することを特徴とする請求項2に記載の制御装置。
It further has a baseline length acquisition means for acquiring the baseline length information,
The baseline length acquisition unit acquires the baseline length information based on an F value of the imaging optical system at the time of focus detection and the exit pupil distance according to the focus detection position. Item 3. The control device according to Item 2.
前記焦点検出位置に応じた前記射出瞳情報の変化に基づいてケラレ情報を取得するケラレ情報取得手段を更に有し、
前記補正手段は、前記ケラレ情報に基づいて前記基線長情報を補正することを特徴とする請求項1乃至3のいずれか1項に記載の制御装置。
Vignetting information acquisition means for acquiring vignetting information based on a change in the exit pupil information according to the focus detection position;
The control device according to claim 1, wherein the correction unit corrects the baseline length information based on the vignetting information.
前記ケラレ情報取得手段は、前記射出瞳情報として、前記焦点検出位置の変化と射出瞳距離の変化との関係に基づいて、前記ケラレ情報を取得することを特徴とする請求項4に記載の制御装置。   5. The control according to claim 4, wherein the vignetting information acquisition unit acquires the vignetting information as the exit pupil information based on a relationship between a change in the focus detection position and a change in the exit pupil distance. apparatus. 前記ケラレ情報取得手段は、前記射出瞳情報と周辺光量比情報とを用いて前記ケラレ情報を取得することを特徴とする請求項4または5に記載の制御装置。   The control device according to claim 4 or 5, wherein the vignetting information acquisition unit acquires the vignetting information using the exit pupil information and peripheral light amount ratio information. 前記ケラレ情報は、瞳形状の非対称ケラレ成分に関する情報を含むことを特徴とする請求項4乃至6のいずれか1項に記載の制御装置。   7. The control device according to claim 4, wherein the vignetting information includes information related to an asymmetric vignetting component of a pupil shape. 補正された前記基線長情報に基づいて焦点検出の信頼性を判定する判定手段を更に有することを特徴とする請求項1乃至7のいずれか1項に記載の制御装置。   The control device according to claim 1, further comprising a determination unit that determines the reliability of focus detection based on the corrected baseline length information. 補正された前記基線長情報に基づいてフォーカス制御を行うフォーカス制御手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載の制御装置。   9. The control device according to claim 1, further comprising a focus control unit that performs focus control based on the corrected baseline length information. 撮像光学系の互いに異なる瞳領域を通過する光束を受光する第1光電変換部および第2光電変換部を有する撮像素子と、
前記第1光電変換部および前記第2光電変換部からの出力信号のそれぞれに対応する第1信号および第2信号を取得する信号取得手段と、
焦点検出位置に応じた射出瞳情報に基づいて基線長情報を補正する補正手段と、
前記第1信号と前記第2信号との相関値から得られた像ズレ量と、補正された前記基線長情報と、に基づいてデフォーカス量を算出する算出手段と、を有することを特徴とする撮像装置。
An imaging device having a first photoelectric conversion unit and a second photoelectric conversion unit that receive light beams passing through different pupil regions of the imaging optical system;
Signal acquisition means for acquiring a first signal and a second signal respectively corresponding to output signals from the first photoelectric conversion unit and the second photoelectric conversion unit;
Correction means for correcting the baseline length information based on the exit pupil information corresponding to the focus detection position;
And a calculating means for calculating a defocus amount based on the image shift amount obtained from the correlation value between the first signal and the second signal and the corrected baseline length information. An imaging device.
前記撮像素子は、1つのマイクロレンズに対して前記第1光電変換部および前記第2光電変換部を有し、該マイクロレンズが2次元状に配列されていることを特徴とする請求項10に記載の撮像装置。   The image pickup device includes the first photoelectric conversion unit and the second photoelectric conversion unit with respect to one microlens, and the microlens is two-dimensionally arranged. The imaging device described. 前記補正手段は、レンズ装置に記憶されている前記射出瞳情報を用いて、前記基線長情報を補正することを特徴とする請求項10または11に記載の撮像装置。   The imaging device according to claim 10, wherein the correction unit corrects the baseline length information using the exit pupil information stored in the lens device. 撮像光学系の互いに異なる瞳領域を通過する光束に対応する第1信号および第2信号を取得するステップと、
焦点検出位置に応じた射出瞳情報に基づいて基線長情報を補正するステップと、
前記第1信号と前記第2信号との相関値から得られた像ズレ量と、補正された前記基線長情報と、に基づいてデフォーカス量を算出するステップと、を有することを特徴とする制御方法。
Obtaining a first signal and a second signal corresponding to light beams passing through different pupil regions of the imaging optical system;
Correcting baseline length information based on exit pupil information corresponding to the focus detection position;
And a step of calculating a defocus amount based on the image shift amount obtained from the correlation value between the first signal and the second signal and the corrected baseline length information. Control method.
撮像光学系の互いに異なる瞳領域を通過する光束に対応する第1信号および第2信号を取得するステップと、
焦点検出位置に応じた射出瞳情報に基づいて基線長情報を補正するステップと、
前記第1信号と前記第2信号との相関値から得られた像ズレ量と、補正された前記基線長情報と、に基づいてデフォーカス量を算出するステップと、をコンピュータに実行させることを特徴とするプログラム。
Obtaining a first signal and a second signal corresponding to light beams passing through different pupil regions of the imaging optical system;
Correcting baseline length information based on exit pupil information corresponding to the focus detection position;
Causing the computer to execute a step of calculating a defocus amount based on an image shift amount obtained from a correlation value between the first signal and the second signal and the corrected baseline length information. A featured program.
請求項14に記載のプログラムを記憶していることを特徴とする記憶媒体。   A storage medium storing the program according to claim 14.
JP2016116021A 2016-06-10 2016-06-10 Control device, imaging device, control method, program, and storage medium Pending JP2017219791A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016116021A JP2017219791A (en) 2016-06-10 2016-06-10 Control device, imaging device, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016116021A JP2017219791A (en) 2016-06-10 2016-06-10 Control device, imaging device, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2017219791A true JP2017219791A (en) 2017-12-14

Family

ID=60655974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016116021A Pending JP2017219791A (en) 2016-06-10 2016-06-10 Control device, imaging device, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2017219791A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020138350A1 (en) * 2018-12-26 2020-07-02 株式会社ニコン Interchangeable lens, focus detecting device, and camera body
CN112714884A (en) * 2018-07-20 2021-04-27 株式会社尼康 Focus detection device, imaging device, and interchangeable lens

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112714884A (en) * 2018-07-20 2021-04-27 株式会社尼康 Focus detection device, imaging device, and interchangeable lens
US20210377438A1 (en) * 2018-07-20 2021-12-02 Nikon Corporation Focus detection device, image capture device and interchangeable lens
US11714259B2 (en) * 2018-07-20 2023-08-01 Nikon Corporation Focus detection device, imaging device, and interchangeable lens
CN112714884B (en) * 2018-07-20 2023-10-27 株式会社尼康 Focus detection device, imaging device, and interchangeable lens
WO2020138350A1 (en) * 2018-12-26 2020-07-02 株式会社ニコン Interchangeable lens, focus detecting device, and camera body
CN113424102A (en) * 2018-12-26 2021-09-21 株式会社尼康 Interchangeable lens, focus detection device, and camera body
JPWO2020138350A1 (en) * 2018-12-26 2021-11-11 株式会社ニコン Interchangeable lens, focus detector, and camera body
US11803107B2 (en) 2018-12-26 2023-10-31 Nikon Corporation Interchangeable lens, focus detecting device, and camera body
CN113424102B (en) * 2018-12-26 2024-02-13 株式会社尼康 Interchangeable lens, focus detection device, and camera body

Similar Documents

Publication Publication Date Title
JP4984491B2 (en) Focus detection apparatus and optical system
JP5163068B2 (en) Imaging device
JP4961993B2 (en) Imaging device, focus detection device, and imaging device
JP5458475B2 (en) Focus detection apparatus and imaging apparatus
JP5374862B2 (en) Focus detection apparatus and imaging apparatus
US8634015B2 (en) Image capturing apparatus and method and program for controlling same
JP4858008B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, AND IMAGING DEVICE
JP5157400B2 (en) Imaging device
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
KR101444161B1 (en) Image-pickup element, and image-pickup apparatus and camera system having the same
JP2015194706A5 (en)
JP2008211631A (en) Focal point detection element, focal point detector, and imaging apparatus
JP5857547B2 (en) Focus detection device and focus adjustment device
JP5067148B2 (en) Imaging device, focus detection device, and imaging device
JP2007310043A (en) Correlation calculation method, correlation calculation device, focus detector and imaging apparatus
JP5800573B2 (en) Imaging apparatus, camera system, and focus detection method
JP2017219791A (en) Control device, imaging device, control method, program, and storage medium
JP2020154037A (en) Imaging device, and focus detection method
JP2014194502A (en) Imaging apparatus and imaging system
JP5610005B2 (en) Imaging device
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5399627B2 (en) Focus detection device, focus adjustment device, and imaging device
JP2007148338A (en) Optical apparatus
JP2020113948A (en) Imaging element, imaging apparatus, control method, and program
US8077251B2 (en) Photometry apparatus and camera