JP6854619B2 - Focus detection device and method, imaging device, lens unit and imaging system - Google Patents

Focus detection device and method, imaging device, lens unit and imaging system Download PDF

Info

Publication number
JP6854619B2
JP6854619B2 JP2016205469A JP2016205469A JP6854619B2 JP 6854619 B2 JP6854619 B2 JP 6854619B2 JP 2016205469 A JP2016205469 A JP 2016205469A JP 2016205469 A JP2016205469 A JP 2016205469A JP 6854619 B2 JP6854619 B2 JP 6854619B2
Authority
JP
Japan
Prior art keywords
conversion
image
conversion coefficient
optical system
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016205469A
Other languages
Japanese (ja)
Other versions
JP2018066864A (en
JP2018066864A5 (en
Inventor
友美 高尾
友美 高尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016205469A priority Critical patent/JP6854619B2/en
Publication of JP2018066864A publication Critical patent/JP2018066864A/en
Publication of JP2018066864A5 publication Critical patent/JP2018066864A5/ja
Application granted granted Critical
Publication of JP6854619B2 publication Critical patent/JP6854619B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、焦点検出装置及び方法、撮像装置、レンズユニット及び撮像システムに関し、特に、撮影光学系を介して入射する光を光電変換して得られた信号に基づいて焦点検出を行う焦点検出装置及び方法、撮像装置、レンズユニット及び撮像システムに関する。 The present invention relates to a focus detection device and method, an image pickup device, a lens unit, and an image pickup system, and in particular, a focus detection device that performs focus detection based on a signal obtained by photoelectric conversion of light incident through a photographing optical system. And methods, imaging devices, lens units and imaging systems.

従来より、撮像装置の自動焦点検出(AF)の一般的な方式として、位相差AF方式が知られている。位相差AF方式は、ビデオカメラやデジタルスチルカメラで多く用いられるAF方式であり、撮像素子が焦点検出用センサとして用いられるものが存在する。 Conventionally, the phase difference AF method has been known as a general method for automatic focus detection (AF) of an imaging device. The phase-difference AF method is an AF method often used in video cameras and digital still cameras, and there are some in which an image sensor is used as a focus detection sensor.

位相差AF方式は、撮像素子上の焦点検出画素による光学像を表す一対の像信号により、一対の像信号の相関度合いから、像ずれ量(位相差)を検出する。さらに、像ずれ量に変換係数を乗算することで、デフォーカス量を算出し、焦点状態を検出する。しかしながら、上記のAF方式は、光学像を利用して焦点検出を行うため、撮影レンズの光学系の収差により、焦点検出結果に誤差が生じる場合がある。 In the phase difference AF method, the amount of image shift (phase difference) is detected from the degree of correlation between the pair of image signals by the pair of image signals representing the optical image by the focus detection pixels on the image sensor. Further, the defocus amount is calculated by multiplying the image shift amount by the conversion coefficient, and the focus state is detected. However, since the above AF method performs focus detection using an optical image, an error may occur in the focus detection result due to the aberration of the optical system of the photographing lens.

そこで、特許文献1では、検出されるデフォーカス量に応じて、変換係数に所定の係数をかけて変換係数の値を切り替ることで、デフォーカス変化に応じた位相差AFの高精度化を図る方法が開示されている。また、変換係数のデフォーカス量に応じた変化は、一対の測距瞳分布(測距瞳面上における一対の焦点検出光束の光量分布)が、重心に対して非対称になることに起因して生じるとしている。 Therefore, in Patent Document 1, the conversion coefficient is multiplied by a predetermined coefficient according to the detected defocus amount to switch the value of the conversion coefficient, thereby improving the accuracy of the phase difference AF according to the defocus change. The method of planning is disclosed. The change in the conversion coefficient according to the defocus amount is due to the fact that the pair of ranging pupil distributions (the light amount distribution of the pair of focal detection luminous fluxes on the ranging pupil surface) becomes asymmetric with respect to the center of gravity. It is supposed to occur.

特開2013−054120号公報Japanese Unexamined Patent Publication No. 2013-054120

しかしながら、特許文献1の構成では、焦点検出誤差の補正を十分に行えないといった問題がある。特許文献1では、測距瞳分布によって変換係数が変化する点には触れられているが、撮影光学系の収差に応じて変換係数を算出する方法について詳細に述べられていない。つまり、絶対値が同じデフォーカス量が検出される場合、すなわち、+Xのデフォーカス量と−Xのデフォーカス量が検出される撮影光学系の状態では、特許文献1で算出される変換係数の値は同一である。しかし、絶対値が同じデフォーカス量においても、撮影光学系の収差等により、算出されるべき変換係数の値は本来異なる。 However, the configuration of Patent Document 1 has a problem that the focus detection error cannot be sufficiently corrected. Patent Document 1 mentions that the conversion coefficient changes depending on the distance measuring pupil distribution, but does not describe in detail a method of calculating the conversion coefficient according to the aberration of the photographing optical system. That is, when the defocus amount having the same absolute value is detected, that is, in the state of the photographing optical system in which the defocus amount of + X and the defocus amount of −X are detected, the conversion coefficient calculated in Patent Document 1 is The values are the same. However, even if the absolute value is the same defocus amount, the value of the conversion coefficient to be calculated is originally different due to the aberration of the photographing optical system and the like.

本発明は上記問題点を鑑みてなされたものであり、撮影光学系の収差等に応じて、より高精度に焦点調節を行えるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to enable more accurate focus adjustment according to aberrations of the photographing optical system and the like.

上記目的を達成するために、本発明の焦点検出装置は、複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、撮影光学系を介して入射する光を光電変換する撮像素子から得られた、瞳分割された一対の信号の相関量に基づいて、光軸方向のデフォーカス方向を示す符号付きの像ずれ量を検出する検出手段と、前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換手段と、前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、を有し、前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする。 In order to achieve the above object, the focus detection device of the present invention is obtained from an image pickup device that includes a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts light incident through the photographing optical system. Further, the detection means for detecting the signed image shift amount indicating the defocus direction in the optical axis direction based on the correlation amount of the pair of pupil-divided signals, and the signed image shift amount by the conversion coefficient. having conversion means for converting the defocus amount of the optical axis direction, based on the aberration information of the imaging optical system, a calculation unit configured to calculate the transform coefficients corresponding to the image shift amount each signed, the The conversion means uses the conversion coefficient corresponding to the signed image shift amount detected by the detection means for the conversion.

本発明によれば、撮影光学系の収差等に応じて、より高精度に焦点調節を行うことができる。 According to the present invention, the focus can be adjusted with higher accuracy according to the aberration of the photographing optical system and the like.

本発明の実施形態におけるデジタルカメラの概略構成を示すブロック図。The block diagram which shows the schematic structure of the digital camera in embodiment of this invention. 実施形態における撮像素子の構成例を示す図。The figure which shows the structural example of the image pickup device in embodiment. 実施形態における光電変換領域と射出瞳との関係を示す図。The figure which shows the relationship between the photoelectric conversion region and an exit pupil in an embodiment. 実施形態における焦点検出領域の例を示す図。The figure which shows the example of the focus detection area in an embodiment. 第1の実施形態におけるAF動作及び変換係数の算出方法を示すフローチャート。The flowchart which shows the AF operation and the calculation method of the conversion coefficient in 1st Embodiment. 焦点検出信号の相関演算に関する説明図。Explanatory drawing about correlation calculation of a focus detection signal. 焦点検出信号の相関量に関する説明図。Explanatory drawing about the correlation amount of a focus detection signal. 従来の変換係数の算出方法を説明するための図。The figure for demonstrating the calculation method of the conventional conversion coefficient. 異なるZ方向の位置における収差が含まれない瞳分割像の一例を示す図。The figure which shows an example of the pupil division image which does not include the aberration in the position in a different Z direction. 異なるZ方向の位置における収差が含まれる瞳分割像の一例を示す図。The figure which shows an example of the pupil division image which contains the aberration at the position in a different Z direction. 第1の実施形態におけるフィルタ処理後の瞳分割像の一例を示す図。The figure which shows an example of the pupil division image after the filter processing in 1st Embodiment. 第1の実施形態におけるプレディクションカーブの一例を示す図。The figure which shows an example of the prediction curve in 1st Embodiment. 第1の実施形態における変換係数の一例を示す図。The figure which shows an example of the conversion coefficient in 1st Embodiment. 第2の実施形態における変換係数の算出方法を示すフローチャート。The flowchart which shows the calculation method of the conversion coefficient in 2nd Embodiment.

以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。なお、実施形態は発明の理解と説明を容易にするため、具体的かつ特定の構成を有するが、本発明はそのような特定の構成に限定されない。例えば、以下では本発明をレンズ交換可能な一眼レフタイプのデジタルカメラに適用した実施形態について説明するが、本発明はレンズ交換できないタイプのデジタルカメラや、ビデオカメラに対しても適用可能である。また、カメラを備えた任意の電子機器、例えば携帯電話機、パーソナルコンピュータ(ラップトップ、タブレット、デスクトップ型など)、ゲーム機などで実施することもできる。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiment has a specific and specific configuration in order to facilitate understanding and explanation of the invention, but the present invention is not limited to such a specific configuration. For example, although the embodiment in which the present invention is applied to a single-lens reflex type digital camera with interchangeable lenses will be described below, the present invention can also be applied to a digital camera of a non-interchangeable lens type and a video camera. It can also be carried out on any electronic device equipped with a camera, such as a mobile phone, a personal computer (laptop, tablet, desktop type, etc.), a game machine, or the like.

<第1の実施形態>
(撮像装置の構成の説明−レンズユニット)
図1は、実施形態に係る撮像装置(撮像システム)の一例として、デジタルカメラの機能構成例を示すブロック図である。上述したように、本実施形態のデジタルカメラはレンズ交換式一眼レフカメラであり、レンズユニット100とカメラ本体120とを有する。レンズユニット100は、図中央の点線で示されるマウントMを介してカメラ本体120に装着される。
<First Embodiment>
(Explanation of the configuration of the imaging device-lens unit)
FIG. 1 is a block diagram showing a functional configuration example of a digital camera as an example of an imaging device (imaging system) according to an embodiment. As described above, the digital camera of the present embodiment is an interchangeable lens type single-lens reflex camera, and has a lens unit 100 and a camera body 120. The lens unit 100 is attached to the camera body 120 via the mount M shown by the dotted line in the center of the figure.

レンズユニット100は、第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、フォーカスレンズ群140(以下、単に「フォーカスレンズ」と呼ぶ。)等からなる光学系と、駆動/制御系とを有する。このようにレンズユニット100は、フォーカスレンズ104を含み、被写体の光学像を形成する撮影レンズである。 The lens unit 100 includes an optical system including a first lens group 101, an aperture combined shutter 102, a second lens group 103, a focus lens group 140 (hereinafter, simply referred to as a "focus lens"), and a drive / control system. Has. As described above, the lens unit 100 is a photographing lens including the focus lens 104 and forming an optical image of the subject.

第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに移動可能に保持される。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量を調節する機能のほか、静止画撮影時には露出時間を制御するメカニカルシャッタとしても機能する。絞り兼用シャッタ102及び第2レンズ群103は一体で光軸方向OAに移動可能であり、第1レンズ群101と連動して移動することによりズーム機能を実現する。また、フォーカスレンズ104も光軸方向OAに移動可能であり、位置に応じてレンズユニット100が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ104の光軸方向OAにおける位置を制御することにより、レンズユニット100の合焦距離を調節する焦点調節を行う。 The first lens group 101 is arranged at the tip of the lens unit 100 and is movably held in the optical axis direction OA. The aperture combined shutter 102 functions not only as a function of adjusting the amount of light at the time of shooting by adjusting the aperture diameter thereof, but also as a mechanical shutter for controlling the exposure time at the time of shooting a still image. The aperture combined shutter 102 and the second lens group 103 can be integrally moved in the optical axis direction OA, and the zoom function is realized by moving in conjunction with the first lens group 101. Further, the focus lens 104 can also be moved in the optical axis direction OA, and the subject distance (focusing distance) at which the lens unit 100 is focused changes according to the position. By controlling the position of the focus lens 104 in the optical axis direction OA, the focus adjustment for adjusting the focusing distance of the lens unit 100 is performed.

駆動/制御系は、ズームアクチュエータ111、絞りシャッタアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116、レンズMPU(マイクロプロセッサ)117、レンズメモリ118を有する。 The drive / control system includes a zoom actuator 111, an aperture shutter actuator 112, a focus actuator 113, a zoom drive circuit 114, an aperture shutter drive circuit 115, a focus drive circuit 116, a lens MPU (microprocessor) 117, and a lens memory 118.

ズーム駆動回路114は、撮影者のズーム操作に応じてズームアクチュエータ111を駆動して、第1レンズ群101から第2レンズ群103を光軸方向OAに駆動することで、レンズユニット100の光学系の画角を制御する。絞りシャッタ駆動回路115は、絞りシャッタアクチュエータ112を用いて絞り兼用シャッタ102を駆動し、絞り兼用シャッタ102の開口径や開閉動作を制御する。フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104を光軸方向OAに駆動し、レンズユニット100の光学系の合焦距離を変化させる。また、フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104の現在位置を検出する。 The zoom drive circuit 114 drives the zoom actuator 111 according to the zoom operation of the photographer to drive the first lens group 101 to the second lens group 103 in the optical axis direction OA, thereby driving the optical system of the lens unit 100. Control the angle of view of. The aperture shutter drive circuit 115 drives the aperture combined shutter 102 by using the aperture shutter actuator 112, and controls the aperture diameter and the opening / closing operation of the aperture combined shutter 102. The focus drive circuit 116 drives the focus lens 104 in the optical axis direction OA by using the focus actuator 113 to change the focusing distance of the optical system of the lens unit 100. Further, the focus drive circuit 116 detects the current position of the focus lens 104 by using the focus actuator 113.

レンズMPU117は、レンズユニット100に係る全ての演算、制御を行い、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116を制御する。また、レンズMPU117は、マウントMを通じてカメラMPU(マイクロプロセッサ)125と接続され、コマンドやデータを通信する。例えば、レンズMPU117はフォーカスレンズ104の光軸上の位置を検出し、カメラMPU125からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ104の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。またレンズMPU117は、カメラMPU125からの要求に応じて、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116を制御する。レンズメモリ118は自動焦点検出に必要な光学情報が予め記憶されている。カメラMPU125は、例えば内蔵する不揮発性メモリやレンズメモリ118に記憶されているプログラムを実行することで、レンズユニット100の動作を制御する。 The lens MPU 117 performs all calculations and controls related to the lens unit 100, and controls the zoom drive circuit 114, the aperture shutter drive circuit 115, and the focus drive circuit 116. Further, the lens MPU 117 is connected to the camera MPU (microprocessor) 125 through the mount M to communicate commands and data. For example, the lens MPU 117 detects the position of the focus lens 104 on the optical axis and notifies the lens position information in response to a request from the camera MPU 125. This lens position information includes the position of the focus lens 104 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the optical system is not moving, and the optical axis of the lens frame that limits the light beam of the exit pupil. Includes information such as position and diameter in direction OA. Further, the lens MPU 117 controls the zoom drive circuit 114, the aperture shutter drive circuit 115, and the focus drive circuit 116 in response to a request from the camera MPU 125. The lens memory 118 stores in advance optical information necessary for automatic focus detection. The camera MPU 125 controls the operation of the lens unit 100 by, for example, executing a program stored in the built-in non-volatile memory or the lens memory 118.

(撮像装置の構成の説明−カメラ本体)
カメラ本体120は、光学ローパスフィルタ(LPF)121および撮像素子122からなる光学系と、駆動/制御系とを有する。レンズユニット100の第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、フォーカスレンズ104と、カメラ本体120の光学LPF121は撮影光学系を構成する。
(Explanation of the configuration of the imaging device-camera body)
The camera body 120 has an optical system including an optical low-pass filter (LPF) 121 and an image sensor 122, and a drive / control system. The first lens group 101 of the lens unit 100, the shutter 102 for both aperture, the second lens group 103, the focus lens 104, and the optical LPF 121 of the camera body 120 constitute a photographing optical system.

光学LPF121は、撮影画像の偽色やモアレを軽減する。撮像素子122はCMOSイメージセンサと周辺回路で構成され、横方向m画素、縦方向n画素(n,mは2以上の整数)からなる複数の画素が行列状に配置される。本実施形態の撮像素子122は、図2を参照して後述するような構成の瞳分割機能を有する画素を有し、撮影光学系を介して入射した光を光電変換して、画像信号を出力する。 The optical LPF 121 reduces false colors and moire of captured images. The image sensor 122 is composed of a CMOS image sensor and peripheral circuits, and a plurality of pixels composed of m pixels in the horizontal direction and n pixels in the vertical direction (n and m are integers of 2 or more) are arranged in a matrix. The image pickup device 122 of the present embodiment has pixels having a pupil division function as described later with reference to FIG. 2, and photoelectrically converts the light incident through the photographing optical system to output an image signal. To do.

駆動/制御系は、撮像素子駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群127、メモリ128、撮像面位相差焦点検出部129を有する。 The drive / control system includes an image sensor drive circuit 123, an image processing circuit 124, a camera MPU 125, a display 126, an operation switch group 127, a memory 128, and an image pickup surface phase difference focus detection unit 129.

撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、取得した画像信号をA/D変換してカメラMPU125及び画像処理回路124に送信する。画像処理回路124は、撮像素子122から出力された画像データに対し、例えばγ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行い、表示・記録用の画像データを生成する。また、画像処理回路124は位相差AFのための焦点検出用データも生成する。 The image sensor drive circuit 123 controls the operation of the image sensor 122, converts the acquired image signal into A / D, and transmits the acquired image signal to the camera MPU 125 and the image processing circuit 124. The image processing circuit 124 performs general image processing performed by a digital camera, such as γ conversion, white balance adjustment processing, color interpolation processing, and compression coding processing, on the image data output from the image sensor 122. Generate image data for display / recording. The image processing circuit 124 also generates focus detection data for phase-difference AF.

カメラMPU125は、カメラ本体120に係る全ての演算、制御を行い、撮像素子駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、撮像面位相差焦点検出部129を制御する。また、カメラMPU125はマウントMの信号線を介してレンズMPU117と接続され、レンズMPU117とコマンドやデータを通信する。カメラMPU125はレンズMPU117に対し、レンズ位置の取得要求や、所定の駆動量での絞り兼用シャッタ102、フォーカスレンズ104、ズームの駆動要求や、レンズユニット100に固有の光学情報の取得要求などを要求する。なお、カメラMPU125には、カメラ動作を制御するプログラムを格納したROM(Read Only Memory)125a、変数を記憶するRAM(Random Access Memory)125b、諸パラメータを記憶するEEPROM(Electrically Erasable Programmable Read-Only Memory)125cが内蔵されている。 The camera MPU 125 performs all calculations and controls related to the camera body 120, and controls the image sensor drive circuit 123, the image processing circuit 124, the display 126, the operation switch group 127, the memory 128, and the image pickup surface phase difference focus detection unit 129. To do. Further, the camera MPU 125 is connected to the lens MPU 117 via the signal line of the mount M, and communicates commands and data with the lens MPU 117. The camera MPU 125 requests the lens MPU 117 to acquire the lens position, the aperture combined shutter 102 with a predetermined drive amount, the focus lens 104, the zoom drive request, the optical information specific to the lens unit 100, and the like. To do. The camera MPU 125 includes a ROM (Read Only Memory) 125a that stores a program that controls camera operation, a RAM (Random Access Memory) 125b that stores variables, and an EEPROM (Electrically Erasable Programmable Read-Only Memory) that stores various parameters. ) 125c is built-in.

表示器126はLCD(Liquid Crystal Display)などから構成され、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像などを表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。メモリ128は、着脱可能なフラッシュメモリで、撮影済み画像を記録する。 The display 126 is composed of an LCD (Liquid Crystal Display) or the like, and displays information on a shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, an in-focus state display image at the time of focus detection, and the like. The operation switch group 127 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory 128 is a detachable flash memory for recording captured images.

撮像面位相差焦点検出部129は、画像処理回路124により得られる焦点検出用データを用いて位相差検出方式で焦点検出処理(撮像面位相差AF)を行う。より具体的には、画像処理回路124が、撮影光学系の一対の瞳領域を通過する光束で形成される一対の像データを焦点検出用データとして生成し、撮像面位相差焦点検出部129はこの一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施形態の撮像面位相差焦点検出部129は、専用のAFセンサを用いず、撮像素子122の出力に基づく位相差AFを行う。なお、撮像面位相差焦点検出部129の動作については後で詳細に説明する。 The imaging surface phase difference focus detection unit 129 performs focus detection processing (imaging surface phase difference AF) by a phase difference detection method using the focus detection data obtained by the image processing circuit 124. More specifically, the image processing circuit 124 generates a pair of image data formed by the light flux passing through the pair of pupil regions of the photographing optical system as focus detection data, and the imaging surface phase difference focus detection unit 129 The amount of focus shift is detected based on the amount of shift of the pair of image data. As described above, the imaging surface phase difference focus detection unit 129 of the present embodiment performs phase difference AF based on the output of the image sensor 122 without using a dedicated AF sensor. The operation of the imaging surface phase difference focus detection unit 129 will be described in detail later.

(焦点検出動作の説明:位相差AF)
以下、撮像面位相差焦点検出部129の動作についてさらに詳細に説明する。図2(a)は本実施形態における撮像素子122の画素配列を模式的に示した図で、2次元CMOSエリアセンサの縦(Y方向)6行と横(X方向)8列の範囲を、レンズユニット100側から観察した状態を示している。撮像素子122にはベイヤー配列のカラーフィルタが設けられ、奇数行の画素211には、左から順に緑(G)と赤(R)のカラーフィルタが交互に、偶数行の画素211には、左から順に青(B)と緑(G)のカラーフィルタが交互に配置されている。画素211において、円211iはオンチップマイクロレンズを表し、オンチップマイクロレンズ211iの内側に配置された複数の矩形211a,211bはそれぞれ光電変換部である。
(Explanation of focus detection operation: phase difference AF)
Hereinafter, the operation of the imaging surface phase difference focus detection unit 129 will be described in more detail. FIG. 2A is a diagram schematically showing the pixel arrangement of the image sensor 122 in the present embodiment, and covers a range of 6 rows in the vertical direction (Y direction) and 8 columns in the horizontal direction (X direction) of the two-dimensional CMOS area sensor. The state observed from the lens unit 100 side is shown. The image sensor 122 is provided with a Bayer-arranged color filter. The odd-row pixels 211 are alternately green (G) and red (R) color filters from the left, and the even-row pixels 211 are on the left. Blue (B) and green (G) color filters are arranged alternately in order from the beginning. In the pixel 211, the circle 211i represents an on-chip microlens, and the plurality of rectangles 211a and 211b arranged inside the on-chip microlens 211i are photoelectric conversion units, respectively.

本実施形態の撮像素子122は、すべての画素211の光電変換部がX方向に2分割され、個々の光電変換部の光電変換信号と、光電変換信号の和が独立して読み出し可能である。また、光電変換信号の和から一方の光電変換部の光電変換信号を減じることで、他方の光電変換部の光電変換信号に相当する信号を得ることができる。個々の光電変換部における光電変換信号は位相差AFのための焦点検出用データとして用いたり、3D(3−Dimensional)画像を構成する視差画像の生成に用いたりすることもできる。また、光電変換信号の和は、通常の撮影画像データとして用いることができる。 In the image sensor 122 of the present embodiment, the photoelectric conversion units of all the pixels 211 are divided into two in the X direction, and the photoelectric conversion signals of the individual photoelectric conversion units and the sum of the photoelectric conversion signals can be read out independently. Further, by subtracting the photoelectric conversion signal of one photoelectric conversion unit from the sum of the photoelectric conversion signals, a signal corresponding to the photoelectric conversion signal of the other photoelectric conversion unit can be obtained. The photoelectric conversion signal in each photoelectric conversion unit can be used as focus detection data for phase difference AF, or can be used to generate a parallax image constituting a 3D (3-Dimensional) image. Further, the sum of the photoelectric conversion signals can be used as normal captured image data.

ここで、位相差AFを行う場合の画素信号について説明する。後述するように、本実施形態においては、図2(a)のマイクロレンズ211iと、分割された光電変換部211a,211bで撮影光学系の射出光束を瞳分割する。そして、同一画素行に配置された所定範囲内の複数の画素211について、光電変換部211aの出力をつなぎ合わせて編成したものをAF用A像、光電変換部211bの出力をつなぎ合わせて編成したものをAF用B像とする。光電変換部211a,211bの出力は、カラーフィルタの単位配列に含まれる緑、赤、青、緑の出力を加算して算出した疑似的な輝度(Y)信号を用いる。但し、赤、青、緑の色ごとに、AF用A像、AF用B像を編成してもよい。 Here, the pixel signal when performing phase difference AF will be described. As will be described later, in the present embodiment, the emission light flux of the photographing optical system is divided into pupils by the microlens 211i shown in FIG. 2A and the divided photoelectric conversion units 211a and 211b. Then, for a plurality of pixels 211 within a predetermined range arranged in the same pixel row, the outputs of the photoelectric conversion unit 211a are connected and organized, and the AF image A and the outputs of the photoelectric conversion unit 211b are connected and organized. Let the thing be a B image for AF. As the output of the photoelectric conversion units 211a and 211b, a pseudo luminance (Y) signal calculated by adding the outputs of green, red, blue, and green included in the unit array of the color filter is used. However, the AF image A and the AF image B may be organized for each of the red, blue, and green colors.

このように生成したAF用A像とAF用B像の相対的な像ずれ量を相関演算により検出することで、一対の像信号の相関度であるプレディクション量[bit]を検出することができる。カメラMPU125は、プレディクション量に変換係数を乗ずることで、所定領域のデフォーカス量[mm]に変換することができる。本実施形態では、各画素から一方の光電変換部の出力と全光電変換部の出力の和を撮像素子122から読み出すものとする。例えば光電変換部211aの出力と、光電変換部211a,211bの出力の和とが読み出される場合、光電変換部211bの出力は和から光電変換部211aの出力を減じることで取得する。これにより、AF用A像とAF用B像の両方を得ることができ、位相差AFを実現できる。また、光電変換部の出力の和は、一般的には、出力画像の1画素(出力画素)を形成する。このような撮像素子は、特開2004−134867号公報などに開示されるように公知であるため、これ以上の詳細に関する説明は省略する。 By detecting the relative image shift amount between the AF A image and the AF B image generated in this way by correlation calculation, it is possible to detect the prediction amount [bit] which is the degree of correlation between the pair of image signals. it can. The camera MPU 125 can be converted into a defocus amount [mm] in a predetermined region by multiplying the prediction amount by a conversion coefficient. In the present embodiment, the sum of the output of one photoelectric conversion unit and the output of all photoelectric conversion units is read from the image sensor 122 from each pixel. For example, when the sum of the output of the photoelectric conversion unit 211a and the output of the photoelectric conversion units 211a and 211b are read, the output of the photoelectric conversion unit 211b is obtained by subtracting the output of the photoelectric conversion unit 211a from the sum. As a result, both the AF image A and the AF image B can be obtained, and phase-difference AF can be realized. Further, the sum of the outputs of the photoelectric conversion unit generally forms one pixel (output pixel) of the output image. Since such an image sensor is known as disclosed in Japanese Patent Application Laid-Open No. 2004-134876, further detailed description thereof will be omitted.

図2(b)は本実施形態の撮像素子122の読み出し回路の構成例を示した図である。151は水平走査回路、153は垂直走査回路である。そして各画素の境界部には、水平走査ライン152a及び152bと、垂直走査ライン154a及び154bが配線され、各光電変換部はこれらの走査ラインを介して信号が外部に読み出される。垂直走査回路153による制御により、光電変換部211a,211bから、光電変換信号の和を読み出したり、光電変換部211a,211bぞれぞれの一対の信号を取得可能に読み出したりすることができる。 FIG. 2B is a diagram showing a configuration example of a readout circuit of the image pickup device 122 of the present embodiment. Reference numeral 151 is a horizontal scanning circuit, and reference numeral 153 is a vertical scanning circuit. Horizontal scanning lines 152a and 152b and vertical scanning lines 154a and 154b are wired at the boundary of each pixel, and each photoelectric conversion unit reads a signal to the outside via these scanning lines. By control by the vertical scanning circuit 153, the sum of the photoelectric conversion signals can be read out from the photoelectric conversion units 211a and 211b, and a pair of signals of the photoelectric conversion units 211a and 211b can be read out so as to be acquired.

なお、本実施形態の撮像素子は上述の画素内の読み出し方法に加え、以下の2種類の読み出しモードを有する。第1の読み出しモードは全画素読み出しモードと称するもので、高精細静止画を撮像するためのモードである。この場合は、全画素の信号が読み出される。 The image sensor of the present embodiment has the following two types of readout modes in addition to the above-mentioned in-pixel readout method. The first readout mode is called an all-pixel readout mode, which is a mode for capturing a high-definition still image. In this case, the signals of all pixels are read out.

第2の読み出しモードは間引き読み出しモードと称するもので、動画記録、もしくはプレビュー画像の表示のみを行うためのモードである。この場合に必要な画素数は全画素よりも少ないため、画素群はX方向及びY方向ともに所定比率で間引いた画素のみ読み出す。また、高速に読み出す必要がある場合にも、同様に間引き読み出しモードを用いる。X方向に間引く際には、信号の加算を行ってS/Nの改善を図り、Y方向に間引く際には、間引かれる行の信号出力を無視する。位相差AFも、通常、第2の読み出しモードで読み出された信号に基づいて行われる。 The second read mode is called a thinning read mode, which is a mode for recording a moving image or displaying only a preview image. Since the number of pixels required in this case is smaller than that of all pixels, only the pixels thinned out at a predetermined ratio in both the X direction and the Y direction are read out as the pixel group. Also, when it is necessary to read at high speed, the thinning read mode is used in the same manner. When thinning out in the X direction, signals are added to improve S / N, and when thinning out in the Y direction, the signal output of the thinned line is ignored. Phase-difference AF is also usually performed based on the signal read in the second read mode.

図3は、本実施形態の撮像装置において、撮影光学系の射出瞳面と、像高ゼロすなわち像面中央近辺に配置された撮像素子122の光電変換部211a,211bの共役関係を説明する図である。撮像素子122内の光電変換部211a,211bと撮影光学系の射出瞳面は、オンチップマイクロレンズ211iによって共役関係となるように設計される。一般的に、撮影光学系の射出瞳は、光量調節用の虹彩絞りが置かれる面とほぼ一致するが、本実施形態の撮影光学系は変倍機能を有するズームレンズを含み、光学タイプによっては、変倍操作を行うと射出瞳の像面からの距離や大きさが変化する。図3(a)では、レンズユニット100の焦点距離が、広角端と望遠端の中央にある状態を示している。この状態における射出瞳距離Zepを標準値として、オンチップマイクロレンズ211iの形状や、像高(X,Y座標)に応じた偏心パラメータの最適設計がなされる。 FIG. 3 is a diagram illustrating a conjugate relationship between the exit pupil surface of the photographing optical system and the photoelectric conversion units 211a and 211b of the image pickup element 122 arranged near the center of the image plane, that is, the image height is zero in the image pickup apparatus of the present embodiment. Is. The photoelectric conversion units 211a and 211b in the image sensor 122 and the exit pupil surface of the photographing optical system are designed to have a conjugate relationship by the on-chip microlens 211i. Generally, the exit pupil of the photographic optical system substantially coincides with the surface on which the iris diaphragm for adjusting the amount of light is placed, but the photographic optical system of the present embodiment includes a zoom lens having a scaling function, and depending on the optical type. , The distance and size of the exit pupil from the image plane change when the magnification operation is performed. FIG. 3A shows a state in which the focal length of the lens unit 100 is at the center of the wide-angle end and the telephoto end. With the exit pupil distance Zep in this state as a standard value, the optimum design of the eccentricity parameter according to the shape of the on-chip microlens 211i and the image height (X, Y coordinates) is made.

図3(a)において、101は第1レンズ群、101bは第1レンズ群を保持する鏡筒部材、104はフォーカスレンズ、104bはフォーカスレンズ104を保持する鏡筒部材である。102は絞り兼用シャッタで、102aは絞り開放時の開口径を規定する開口板、102bは絞り込み時の開口径を調節するための絞り羽根である。なお、撮影光学系を通過する光束の制限部材として作用する101b、102a、102b、及び104bは、像面から観察した場合の光学的な虚像を示している。また、絞り兼用シャッタ102の近傍における合成開口をレンズの射出瞳と定義し、前述したように像面からの距離をZepとしている。 In FIG. 3A, 101 is a first lens group, 101b is a lens barrel member that holds the first lens group, 104 is a focus lens, and 104b is a lens barrel member that holds the focus lens 104. 102 is a shutter that also serves as a diaphragm, 102a is an opening plate that defines the aperture diameter when the diaphragm is open, and 102b is a diaphragm blade for adjusting the aperture diameter when the diaphragm is opened. Note that 101b, 102a, 102b, and 104b, which act as limiting members for the light flux passing through the photographing optical system, show an optical virtual image when observed from the image plane. Further, the synthetic aperture in the vicinity of the diaphragm and shutter 102 is defined as the exit pupil of the lens, and the distance from the image plane is Zep as described above.

画素211は像面中央近傍に配置されており、本実施形態では、中央画素と呼ぶ。中央画素211は、最下層より、光電変換部211a,211b、配線層211e〜211g、カラーフィルタ211h、及びオンチップマイクロレンズ211iの各部材で構成される。そして2つの光電変換部211a,211bはオンチップマイクロレンズ211iによって撮影光学系の射出瞳面に投影される。換言すれば、撮影光学系の射出瞳が、オンチップマイクロレンズ211iを介して、光電変換部の表面に投影される。 The pixel 211 is arranged near the center of the image plane, and is referred to as a center pixel in the present embodiment. From the bottom layer, the central pixel 211 is composed of photoelectric conversion units 211a and 211b, wiring layers 211e to 211g, color filters 211h, and on-chip microlens 211i. Then, the two photoelectric conversion units 211a and 211b are projected onto the exit pupil surface of the photographing optical system by the on-chip microlens 211i. In other words, the exit pupil of the photographing optical system is projected onto the surface of the photoelectric conversion unit via the on-chip microlens 211i.

図3(b)は、撮影光学系の射出瞳面上における、光電変換部211a,211bの投影像を示したもので、光電変換部211a,211bに対する投影像は各々EP1a,EP1bとなる。また本実施形態では、撮像素子122は、2つの光電変換部211a,211bのいずれか一方の出力と、両方の和の出力を得ることができる画素を有している。両方の和の出力は、撮影光学系のほぼ全瞳領域である投影像EP1a,EP1bの両方の領域を通過した光束を光電変換したものであるので、図3(b)でのTLと投影像EP1a,EP1bが重複している面積に相当する光束に対応する値が出力される。 FIG. 3B shows the projected images of the photoelectric conversion units 211a and 211b on the exit pupil surface of the photographing optical system, and the projected images on the photoelectric conversion units 211a and 211b are EP1a and EP1b, respectively. Further, in the present embodiment, the image sensor 122 has a pixel capable of obtaining the output of either one of the two photoelectric conversion units 211a and 211b and the output of the sum of both. The output of the sum of both is the photoelectric conversion of the luminous flux that has passed through both the projected images EP1a and EP1b, which are almost the entire pupil region of the photographing optical system. Therefore, the TL and the projected image in FIG. 3 (b) are obtained. A value corresponding to the luminous flux corresponding to the area where EP1a and EP1b overlap is output.

位相差AFを行う場合、カメラMPU125は撮像素子122から上述した2種類の出力を読み出すように撮像素子駆動回路123を制御する。そして、カメラMPU125は画像処理回路124に対して焦点検出領域の情報を与え、焦点検出領域内に含まれる画素の出力から、AF用A像及びAF用B像のデータを生成して撮像面位相差焦点検出部129に供給するよう命令する。画像処理回路124はこの命令に従ってAF用A像及びAF用B像のデータを生成して撮像面位相差焦点検出部129に出力する。 When performing phase-difference AF, the camera MPU 125 controls the image sensor drive circuit 123 so as to read the above-mentioned two types of outputs from the image sensor 122. Then, the camera MPU 125 gives information on the focus detection region to the image processing circuit 124, generates data of the AF image A and the AF B image from the output of the pixels included in the focus detection region, and generates the image plane position. It is instructed to supply to the phase difference focus detection unit 129. The image processing circuit 124 generates data for the AF image A and the AF image B according to this command and outputs the data to the imaging surface phase difference focus detection unit 129.

なお、ここでは一例として水平方向に射出瞳を2分割する構成を説明したが、撮像素子122の一部の画素については垂直方向に射出瞳を2分割する構成としてもよい。また、水平および垂直の両方向に射出瞳を分割する構成としてもよい。垂直方向に射出瞳を分割する画素を設けることにより、水平だけでなく垂直方向の被写体のコントラストに対応した位相差AFが可能となる。 Although the configuration in which the exit pupil is divided into two in the horizontal direction has been described here as an example, a configuration in which the exit pupil is divided into two in the vertical direction may be used for some pixels of the image sensor 122. Further, the exit pupil may be divided in both the horizontal and vertical directions. By providing pixels that divide the exit pupil in the vertical direction, phase-difference AF corresponding to the contrast of the subject in the vertical direction as well as the horizontal direction becomes possible.

(焦点検出領域の説明)
図4は、撮影範囲内における焦点検出領域の例を示す図である。上述の通り、位相差AFは焦点検出領域に含まれる画素から得られた信号に基づいて行われる。図4において、点線で示す長方形は撮像素子122の撮影範囲内の焦点検出領域219を示す。図4の例では、afH(横)×afV(縦)[pix]の画素を含む。図4では、顔検出を行って焦点検出領域を設定した例を示したが、主被写体220を含むように焦点検出領域を設定としても良いし、ユーザーが事前に設定した焦点検出領域でも構わない。数、位置及び大きさは図示したものに限定されない。
(Explanation of focus detection area)
FIG. 4 is a diagram showing an example of a focus detection region within the photographing range. As described above, the phase difference AF is performed based on the signal obtained from the pixels included in the focus detection region. In FIG. 4, the rectangle shown by the dotted line indicates the focus detection region 219 within the imaging range of the image sensor 122. In the example of FIG. 4, the pixels of afH (horizontal) × afV (vertical) [pix] are included. In FIG. 4, an example in which the focus detection area is set by performing face detection is shown, but the focus detection area may be set so as to include the main subject 220, or the focus detection area preset by the user may be used. .. The number, position and size are not limited to those shown.

(焦点検出処理の流れの説明)
次に、図5を参照して、本実施形態のデジタルカメラにおける自動焦点検出(AF)動作について説明する。以下のAF処理動作は、他の主体が明記されている場合を除き、カメラMPU125が主体となって実行される。また、カメラMPU125がレンズMPU117にコマンド等を送信することによってレンズユニット100の駆動や制御を行う場合、説明を簡潔にするために動作主体をカメラMPU125として記載する場合がある。
(Explanation of the flow of focus detection processing)
Next, the automatic focus detection (AF) operation in the digital camera of the present embodiment will be described with reference to FIG. The following AF processing operations are mainly executed by the camera MPU 125, unless another subject is specified. Further, when the camera MPU 125 drives or controls the lens unit 100 by transmitting a command or the like to the lens MPU 117, the operating subject may be described as the camera MPU 125 for the sake of brevity.

まず、S1においてカメラMPU125は焦点検出領域を設定する。ここで設定される焦点検出領域219は、図4に示すように、主被写体220によって決められるものでも良いし、予め設定された焦点検出領域でも良い。ここでは、焦点検出領域に対して、焦点検出領域219を代表する座標(x、y)を設定する。この時の代表座標(x、y)は例えば、焦点検出領域219に対する重心位置であっても良い。 First, in S1, the camera MPU 125 sets the focus detection region. As shown in FIG. 4, the focus detection area 219 set here may be determined by the main subject 220 or may be a preset focus detection area. Here, the coordinates (x, y) representing the focus detection area 219 are set with respect to the focus detection area. The representative coordinates (x, y) at this time may be, for example, the position of the center of gravity with respect to the focus detection region 219.

次に、S2では焦点検出用データの読み出しを行う。前述した方法で、S1で設定した焦点検出領域219内の画素からの読み出した信号を用いることで、AF用A像、AF用B像の信号を生成する。 Next, in S2, the focus detection data is read out. By using the signals read from the pixels in the focus detection area 219 set in S1 by the method described above, the signals of the AF image A and the AF image B are generated.

次に、カメラMPUは、S3において、S2で得られたAF用A像、AF用B像の相対的な像ずれ量を相関演算により検出することで、プレディクション量[bit]である像ずれ量P[bit]を検出する。ここで図6を用いて、相関演算の方法の一例を説明する。S2で、焦点検出画素から図6(a)のようなAF用A像(以下、A像)、AF用B像(以下、B像)信号が読み出されたとする。カメラMPU125は、まず、ノイズの低減のため、A像、B像に対してデジタルフィルタ処理を行う。図6(a)のフィルタ処理後の波形が図6(b)である。そして、カメラMPU125は、図6(b)〜図6(e)のように、A像、B像いずれかもしくは両方をビットシフトしながらその時の相関量CORを計算する。この時の相関量CORとは、A像、B像を重ねた時の面積でも良いし、A像の面積―B像の面積でも良いし、相関度を表す計算値であればどの値でも良い。 Next, in S3, the camera MPU detects the relative image shift amount of the AF A image and the AF B image obtained in S2 by the correlation calculation, so that the image shift is a prediction amount [bit]. The quantity P [bit] is detected. Here, an example of the method of correlation calculation will be described with reference to FIG. It is assumed that in S2, the AF A image (hereinafter, A image) and AF B image (hereinafter, B image) signals as shown in FIG. 6A are read from the focus detection pixels. The camera MPU 125 first performs digital filter processing on the A image and the B image in order to reduce noise. The waveform after the filter processing of FIG. 6 (a) is shown in FIG. 6 (b). Then, as shown in FIGS. 6 (b) to 6 (e), the camera MPU 125 calculates the correlation amount COR at that time while bit-shifting either or both of the A image and the B image. The correlation amount COR at this time may be the area when the A image and the B image are overlapped, the area of the A image-the area of the B image, or any value as long as it is a calculated value representing the degree of correlation. ..

図7は、図6に図示したA像、B像を相関演算した時の、シフト量[bit]と相関量COR(ここではA像の面積とB像面積の差分)の関係を図示したものである。A像とB像が一致した時、A像とB像の重なりが大きくなるため、最も相関が高く、相関量CORは小さくなる。ここでは、相関量CORが極小値をとる時のシフト量[bit]が像ずれ量Pとなるので、内挿補間演算等により、像ずれ量P=2.6[bit]と計算される。 FIG. 7 illustrates the relationship between the shift amount [bit] and the correlation amount COR (here, the difference between the area of the A image and the area of the B image) when the A image and the B image shown in FIG. 6 are correlated. Is. When the A image and the B image match, the overlap between the A image and the B image becomes large, so that the correlation is the highest and the correlation amount COR becomes small. Here, since the shift amount [bit] when the correlation amount COR takes the minimum value is the image shift amount P, the image shift amount P = 2.6 [bit] is calculated by interpolation interpolation calculation or the like.

次に、S4では、像ずれ量Pに乗じて、デフォーカス量DEFを求めるための値である変換係数Kを取得する。なお、変換係数Kの算出方法については、詳細に後述する。 Next, in S4, the conversion coefficient K, which is a value for obtaining the defocus amount DEF, is obtained by multiplying the image shift amount P. The calculation method of the conversion coefficient K will be described in detail later.

次に、カメラMPUは、S5において、以下の計算式(1)により、デフォーカス量DEF[mm]の計算を行う。
DEF=P×K …(1)
Next, the camera MPU calculates the defocus amount DEF [mm] in S5 by the following calculation formula (1).
DEF = P × K… (1)

次に、S6では、カメラMPU125が、S5で得られたデフォーカス量DEFに基づいて、以下の式(2)によりフォーカスレンズ104の駆動量M[lensmm]を計算し、フォーカスレンズ104を駆動させる。
M=DEF/FS …(2)
Next, in S6, the camera MPU 125 calculates the drive amount M [lensmm] of the focus lens 104 by the following equation (2) based on the defocus amount DEF obtained in S5, and drives the focus lens 104. ..
M = DEF / FS ... (2)

FSはデフォーカス量DEF[mm]をレンズ駆動量[lensmm]に変換する係数であり、レンズMPU117から取得される値とする。カメラMPU125は、レンズ駆動量Mの分、光軸方向にフォーカスレンズ104を駆動させることで、ユーザーの意図にあった焦点画像を得る。
次に、図5(b)及び図8を参照して、本第1の実施形態における変換係数Kの計算方法について詳細に説明する。S11では、まず、変換係数Kの計算に用いる撮像装置の状態(計算ステート)の取得を行う。計算ステートとしては、図5(a)でAF検出を行った際の、撮影光学系のズーム位置、F値、フォーカスレンズ位置、S1で設定された焦点検出領域219の座標(x,y)、S3で検出された像ずれ量Pを記憶、またはレンズMPU117から取得しておく。
FS is a coefficient for converting the defocus amount DEF [mm] into the lens drive amount [lensmm], and is a value obtained from the lens MPU 117. The camera MPU 125 drives the focus lens 104 in the optical axis direction by the amount of the lens drive amount M to obtain a focus image suitable for the user's intention.
Next, the calculation method of the conversion coefficient K in the first embodiment will be described in detail with reference to FIGS. 5 (b) and 8. In S11, first, the state (calculation state) of the image pickup apparatus used for calculating the conversion coefficient K is acquired. The calculation states include the zoom position of the photographing optical system, the F value, the focus lens position, and the coordinates (x, y) of the focus detection area 219 set in S1 when AF detection is performed in FIG. 5 (a). The image shift amount P detected in S3 is stored or acquired from the lens MPU 117.

次に、S12では、カメラMPU125がS11で取得した計算ステートに応じた収差情報をレンズMPU117から取得する。ここで、変換係数Kを算出する際に、収差情報が必要な理由を説明する。 Next, in S12, the aberration information corresponding to the calculation state acquired by the camera MPU 125 in S11 is acquired from the lens MPU 117. Here, the reason why aberration information is required when calculating the conversion coefficient K will be described.

まず、従来の変換係数Kの求め方を図8を参照して説明する。図8のZ方向軸は、撮影光学系の光軸方向を示し、Z=0は撮像素子面を示す。Zepは前述した射出瞳距離を示す。Z=Zep上のA像、B像の焦点検出光束の光量分布である瞳強度分布PI_A、瞳強度分布PI_Bは、図2に示すようなマトリクス上に配置された光電変換部211a,211bそれぞれから出力された焦点検出用信号を射出瞳面上に投影した投影像である。図8のPI_A、PI_Bは一次元の瞳強度分布を示したものである。PI_ABはPI_AとPI_Bの強度分布をx座標毎に足し合わせた値で、出力画素(A+B像)の光束の光量分布である瞳強度分布を表している。言い換えると、瞳強度分布PI_ABは、瞳強度分布PI_Aと瞳強度分布PI_Bに瞳分割されている。 First, a conventional method of obtaining the conversion coefficient K will be described with reference to FIG. The Z-direction axis in FIG. 8 indicates the optical axis direction of the photographing optical system, and Z = 0 indicates the image sensor surface. Zep indicates the exit pupil distance described above. The pupil intensity distribution PI_A and the pupil intensity distribution PI_B, which are the light intensity distributions of the focal detection light fluxes of the A image and the B image on Z = Zep, are taken from the photoelectric conversion units 211a and 211b arranged on the matrix as shown in FIG. This is a projected image of the output focus detection signal projected onto the exit pupil surface. PI_A and PI_B in FIG. 8 show a one-dimensional pupil intensity distribution. PI_AB is a value obtained by adding the intensity distributions of PI_A and PI_B for each x-coordinate, and represents the pupil intensity distribution which is the light intensity distribution of the luminous flux of the output pixel (A + B image). In other words, the pupil intensity distribution PI_AB is divided into a pupil intensity distribution PI_A and a pupil intensity distribution PI_B.

この時のPI_A、PI_Bの重心間隔を基線長BLとすると、射出瞳距離Zepと基線長BLとの比で、A像、B像の単位横ずれ量[bit]に対する光軸方向の変化量[mm]を求めることができる。従って、変換係数Kは以下の式(3)で表すことができる。
変換係数K[mm/bit]=Zep/BL …(3)
Assuming that the distance between the center of gravity of PI_A and PI_B at this time is the baseline length BL, the amount of change [mm] in the optical axis direction with respect to the unit lateral displacement amount [bit] of the A image and the B image in the ratio of the exit pupil distance Zep and the baseline length BL ] Can be obtained. Therefore, the conversion coefficient K can be expressed by the following equation (3).
Conversion coefficient K [mm / bit] = Zep / BL ... (3)

上式(3)において、各Z方向の位置において検出されると想定されているA像、B像は、瞳強度分布PI_A、PI_Bの相似形状である。例えば、図9に示すように、Z=Z5位置における瞳分離像は、P_A(Z5)、P_B(Z5)であり、Z=Z−5位置における瞳分離像は、P_A(Z−5)、P_B(Z−5)である。Z=0の撮像素子面では、P_A(0)、P_B(0)のように、パルス形状となって光束が一点に収束し、瞳分離像A、Bが完全に一致するが、それ以外のZ方向の位置においては、瞳分離像は、瞳強度分布の相似形状となる。従って、式(3)で計算される変換係数Kにより、X方向のA像、B像の像ずれ量Pが光軸方向のデフォーカス量DEFに変換される。 In the above equation (3), the A image and the B image which are assumed to be detected at the positions in each Z direction have similar shapes of the pupil intensity distributions PI_A and PI_B. For example, as shown in FIG. 9, the pupil separation images at the Z = Z5 position are P_A (Z5) and P_B (Z5), and the pupil separation images at the Z = Z-5 position are P_A (Z-5), It is P_B (Z-5). On the image sensor surface with Z = 0, like P_A (0) and P_B (0), the luminous flux becomes a pulse shape and the luminous flux converges at one point, and the pupil separation images A and B completely match, but other than that. At the position in the Z direction, the pupil separation image has a similar shape to the pupil intensity distribution. Therefore, the conversion coefficient K calculated by the equation (3) converts the image shift amount P of the A image and the B image in the X direction into the defocus amount DEF in the optical axis direction.

しかし、各Z方向の位置(例えば、図9中、Z=Z5、0、Z−5)において、焦点検出画素で検出されるA像、B像は、撮影光学系を通って受光されるので、実際には撮影光学系の収差を含めた特性が、焦点検出画素において受光される。各Z方向の位置(図9中、Z=Z5、0、Z−5)における撮影光学系の収差情報を図10に示す。図10では、収差情報の例として、撮影光学系の線像強度分布を示した。 However, at each position in the Z direction (for example, Z = Z5, 0, Z-5 in FIG. 9), the A image and the B image detected by the focus detection pixels are received through the photographing optical system. Actually, the characteristics including the aberration of the photographing optical system are received by the focus detection pixel. The aberration information of the photographing optical system at each position in the Z direction (Z = Z5, 0, Z-5 in FIG. 9) is shown in FIG. In FIG. 10, the line image intensity distribution of the photographing optical system is shown as an example of the aberration information.

図10(a)の線像強度分布LSF_ABは、瞳分離されていない状態(A+B像)での線像強度分布を示しており、図10(b)の線像強度分布LSF_A、LSF_Bは、瞳分割された状態のA像、B像の線像強度分布を示している。また、実際に焦点検出画素において受光されるA像、B像は、各Z方向の位置(図10中、Z=Z5、0、Z−5)における線像強度分布LSF_A、LSF_Bと被写体信号が畳み込まれた信号である。被写体信号は、デフォーカス量に応じて変化しないので、A像、B像の単位横ずれ量[bit]に対する光軸方向の変化量[mm]である変換係数K[mm/bit]は、撮影光学系の収差情報が含まれた線像強度分布によって決定されるべき値である。 The line image intensity distribution LSF_AB in FIG. 10 (a) shows the line image intensity distribution in the state where the pupils are not separated (A + B image), and the line image intensity distributions LSF_A and LSF_B in FIG. 10 (b) are pupils. The line image intensity distribution of the A image and the B image in the divided state is shown. Further, the A image and the B image actually received by the focus detection pixel have the line image intensity distributions LSF_A and LSF_B at the positions in each Z direction (Z = Z5, 0, Z-5 in FIG. 10) and the subject signal. It is a convoluted signal. Since the subject signal does not change according to the amount of defocus, the conversion coefficient K [mm / bit], which is the amount of change [mm] in the optical axis direction with respect to the unit lateral displacement amount [bit] of the A image and the B image, is the photographing optics. It is a value to be determined by the line image intensity distribution including the aberration information of the system.

図9の例で示されるように、瞳分離像はZ方向の位置の符号(図9中、Z=Z5、Z−5)によってはP_A像とP_B像が入れ替わるだけで、変換係数Kは変化しない、すなわち、対称形状であった。これに対し、図10の例で示されるように、線像強度分布はZ方向の位置の符号(図10中、Z=Z5、Z−5)によって形状が異なるため、この符号によっても異なる変換係数を取得しなければならない。つまり、Z=Z5とZ=Z−5の絶対値は5で同一であるが、正であるZ=Z5と負であるZ=Z−5とでは、線像強度分布形状が異なる。 As shown in the example of FIG. 9, the conversion coefficient K of the pupil separation image changes only by exchanging the P_A image and the P_B image depending on the sign of the position in the Z direction (Z = Z5, Z-5 in FIG. 9). No, that is, it had a symmetrical shape. On the other hand, as shown in the example of FIG. 10, since the shape of the line image intensity distribution differs depending on the code of the position in the Z direction (Z = Z5, Z-5 in FIG. 10), the conversion also differs depending on this code. You have to get the coefficient. That is, the absolute values of Z = Z5 and Z = Z-5 are the same at 5, but the line image intensity distribution shape is different between the positive Z = Z5 and the negative Z = Z-5.

また、撮影光学系の収差が大きければ大きいほど、線像強度分布の値はZ方向の位置及び符号によって非対称形状になる。よって、本実施形態では、S12において、S11で取得された計算ステートにおける収差情報である図10(b)の線像強度分布を取得する。収差情報を取得するZ方向の位置、点数は任意であるが、S3で計算され得る像ずれ量Pを網羅するプレディクション量、デフォーカス範囲の収差情報を取得することが望ましい。但し、計算量が多くなることを鑑みて、例えば、像ずれ量Pの符号に応じて、収差情報の取得範囲を変更するなどしても良い。また、収差情報は線像強度分布の形状を表現する関数として表現し、カメラROMに記憶されているものでも良いし、また形状を表す代表的なパラメータ(半値幅やA像とB像の重心間隔)で表現されても良い。 Further, the larger the aberration of the photographing optical system, the more the value of the line image intensity distribution becomes an asymmetrical shape depending on the position and the sign in the Z direction. Therefore, in the present embodiment, in S12, the line image intensity distribution of FIG. 10B, which is the aberration information in the calculated state acquired in S11, is acquired. The position and the number of points in the Z direction for acquiring the aberration information are arbitrary, but it is desirable to acquire the aberration information in the prediction amount and the defocus range that covers the image shift amount P that can be calculated in S3. However, in view of the large amount of calculation, for example, the acquisition range of the aberration information may be changed according to the sign of the image shift amount P. Further, the aberration information is expressed as a function expressing the shape of the line image intensity distribution and may be stored in the camera ROM, or a typical parameter representing the shape (half width or the center of gravity of the A image and the B image). Interval) may be expressed.

次に、S13では、S12で取得されたA像、B像の線像強度分布LSF_A、LSF_Bに対して、収差情報の変換を行う。ここでは、デジタルフィルタ処理と、相関演算を行う。ここでのデジタルフィルタ処理は、S3の相関演算時に用いられたデジタルフィルタと同等のものをかける。これは、光学収差によって変化する線像強度分布の周波数変動を、デジタルフィルタ帯域に合わせて正しく検出して変換係数Kを計算するためである。図10(b)の線像強度分布に対して、フィルタ処理を行うと、図11のようにd_LSF_A、d_LSF_Bが得られる。 Next, in S13, aberration information is converted for the line image intensity distributions LSF_A and LSF_B of the A image and the B image acquired in S12. Here, digital filter processing and correlation calculation are performed. The digital filter processing here applies the same digital filter as that used at the time of the correlation calculation in S3. This is because the frequency fluctuation of the line image intensity distribution that changes due to optical aberration is correctly detected according to the digital filter band, and the conversion coefficient K is calculated. When the line image intensity distribution of FIG. 10B is filtered, d_LSF_A and d_LSF_B are obtained as shown in FIG.

さらに、それぞれのZ方向の位置(Z=Z5、0、Z−5)において、得られた収差情報(線像強度分布)のデジタルフィルタ後の波形に前述した方法で相関演算処理を施すことで、Z方向の位置毎の相関量LSF_Pを計算する。その結果を示したものが図12である。図12は、横軸に計算されたプレディクション量Pred[bit]、縦軸にデフォーカス量def[mm]をプロットした時のカーブ(以下、「プレディクションカーブ」と呼ぶ。)を示す図である。点線で示したグラフCuv1は、撮影光学系に収差がない場合(線像強度分布を図9に示した瞳分離像をA像、B像とした場合)のプレディクションカーブを示している。実線で示したグラフCuv2は、撮影光学系に収差がある場合(S12で得られた線像強度分布をA像、B像とした場合)のプレディクションカーブを示している。ここでは、例えば、Z方向の位置Z=Z5(def=5mm)において相関量LSF_P(5)=3、Z方向の位置Z=Z−5(def=−5mm)において相関量LSF_P(5)=−3.5であった場合のプレディクションカーブCuv2を図示している。 Further, at each position in the Z direction (Z = Z5, 0, Z-5), the waveform of the obtained aberration information (line image intensity distribution) after the digital filter is subjected to the correlation calculation processing by the method described above. , The correlation amount LSF_P for each position in the Z direction is calculated. The result is shown in FIG. FIG. 12 is a diagram showing a curve (hereinafter, referred to as “prediction curve”) when the calculated prediction amount Pred [bit] is plotted on the horizontal axis and the defocus amount def [mm] is plotted on the vertical axis. is there. The graph Cuv1 shown by the dotted line shows the prediction curve when there is no aberration in the photographing optical system (when the pupil separation image shown in FIG. 9 is the A image and the B image). The graph Cuv2 shown by the solid line shows the prediction curve when there is an aberration in the photographing optical system (when the line image intensity distribution obtained in S12 is an A image and a B image). Here, for example, the correlation amount LSF_P (5) = 3 at the position Z = Z5 (def = 5 mm) in the Z direction, and the correlation amount LSF_P (5) = 3 at the position Z = Z-5 (def = -5 mm) in the Z direction. The prediction curve Cuv2 when it is −3.5 is shown in the figure.

前述したように、撮影光学系の収差により、Z方向の位置の符号によってもプレディクションカーブの傾きは変化し(def=5mmとdef=−5mmでは、Predが異なる)、また、Z方向の位置によってもプレディクションカーブの傾きは異なる。図12に示すプレディクションカーブCuv2は、撮影光学系、撮影光学系のズーム位置、F値、フォーカスレンズ位置、デジタルフィルタ帯域によっても形状が異なるため、S11で取得された計算ステート、使用したデジタルフィルタごとに計算を行う。ここでは、収差情報である線像強度分布を、デフォーカス量±7mmの範囲を1mm刻みで取得し、プレディクションカーブを計算したとする。すると、図12のような黒丸のプロット点が得られ、補間計算、フィッティングによりプレディクションカーブCuv2を求めることができる。 As described above, due to the aberration of the photographing optical system, the slope of the prediction curve changes depending on the sign of the position in the Z direction (the Pred differs between def = 5 mm and def = -5 mm), and the position in the Z direction. The slope of the prediction curve also differs depending on the type. Since the shape of the prediction curve Cuv2 shown in FIG. 12 differs depending on the photographing optical system, the zoom position of the photographing optical system, the F value, the focus lens position, and the digital filter band, the calculation state acquired in S11 and the digital filter used are used. Calculate for each. Here, it is assumed that the line image intensity distribution, which is the aberration information, is acquired in the range of the defocus amount ± 7 mm in 1 mm increments, and the prediction curve is calculated. Then, the plot points of the black circles as shown in FIG. 12 are obtained, and the prediction curve Cuv2 can be obtained by interpolation calculation and fitting.

また、収差情報として、予め、線像強度分布をフィルタ処理した図12のようなプレディクションカーブの状態で保持しても良い。その場合には、デジタルフィルタの帯域によって変化するプレディクションカーブを複数保持し、デジタルフィルタの検出帯域に合わせたプレディクションカーブをカメラMPU125が選択する。 Further, as the aberration information, the line image intensity distribution may be held in the state of the prediction curve as shown in FIG. 12 which has been filtered in advance. In that case, a plurality of prediction curves that change depending on the band of the digital filter are held, and the camera MPU 125 selects the prediction curve that matches the detection band of the digital filter.

また、一般的に、デフォーカス量が大きくなると、プレディクションカーブCuv2はプレディクションカーブCuv1に漸近していく。よって、収差情報である線像強度分布の取得点数は、デフォーカス範囲が大きくなるごとに粗くなる、などとしても良い。また、S11で取得される計算ステートにおいて、一般的に、像高が高い(つまり、中央像高から離れれば離れる)ほど、撮影光学系の収差は大きくなるので、像高に応じて収差情報である線像強度分布の取得点数を増やす、などとしても良い。また、S11で取得される計算ステートにおいて、一般的に、F値が小さい場合には、撮影光学系の収差は大きくなるので、F値に応じて収差情報である線像強度分布の取得点数を増やす、などとしても良い。 Further, in general, as the defocus amount increases, the prediction curve Cuv2 gradually approaches the prediction curve Cuv1. Therefore, the number of acquisition points of the line image intensity distribution, which is aberration information, may become coarser as the defocus range increases. Further, in the calculation state acquired in S11, in general, the higher the image height (that is, the farther away from the central image height), the larger the aberration of the photographing optical system. It is also possible to increase the number of acquisition points of a certain line image intensity distribution. Further, in the calculation state acquired in S11, generally, when the F value is small, the aberration of the photographing optical system becomes large, so the number of acquisition points of the line image intensity distribution which is the aberration information is determined according to the F value. You can increase it.

次に、S14では変換係数Kを計算する。ここでは、S3で得られた像ずれ量Pに対応する変換係数Kを、S13で得られたプレディクションカーブから計算する。今、S3で得られた相関量がP=2.6[bit]であったので、図12のPred[bit]=2.6[bit]に相当するデフォーカス量def[mm]を計算する。補間計算方法は、プレディクションカーブCuv2のフィッティング関数から求めても良いし、近傍2点の補間による(図12ではdef=+4,+5の2点から補間)方法でも良い。ここでは、図12に示すようにPred[bit]=2.6[bit]に相当するデフォーカス量def[mm]=4.2[mm]として取得されたとする。すると、変換係数Kは
K[mm/bit]=4.2/2.6≒1.6 …(4)
Next, in S14, the conversion coefficient K is calculated. Here, the conversion coefficient K corresponding to the image shift amount P obtained in S3 is calculated from the prediction curve obtained in S13. Now, since the correlation amount obtained in S3 is P = 2.6 [bit], the defocus amount def [mm] corresponding to Pred [bit] = 2.6 [bit] in FIG. 12 is calculated. .. The interpolation calculation method may be obtained from the fitting function of the prediction curve Cuv2, or may be a method of interpolation of two neighboring points (interpolation from two points of def = + 4, + 5 in FIG. 12). Here, it is assumed that the defocus amount def [mm] = 4.2 [mm] corresponding to Pred [bit] = 2.6 [bit] is acquired as shown in FIG. Then, the conversion coefficient K is K [mm / bit] = 4.2 / 2.6≈1.6 ... (4)

として求めることができる。そして、図13に示すように、図12のプレディクションカーブに基づいて予め各Pred[bit]における変換係数Kの値を算出して記憶し、処理を終了する。そして、S4では、S3で検出された像ずれ量Pから対応する変換係数を選択する。なお、上述した変換係数Kの算出を、AFを行う都度、行うようにしても良い。その場合、プレディクションカーブから像ずれ量Pに対応するデフォーカス量が直接得られるので、上記式(4)及び式(3)を行わないようにすることができる。
上記の通り本第1の実施形態によれば、撮影光学系の収差情報によって変換係数を変更することを可能としたため、よりユーザーの意図にあった焦点検出の補正が可能である。
Can be obtained as. Then, as shown in FIG. 13, the value of the conversion coefficient K in each Pred [bit] is calculated and stored in advance based on the prediction curve of FIG. 12, and the process is completed. Then, in S4, the corresponding conversion coefficient is selected from the image shift amount P detected in S3. The conversion coefficient K described above may be calculated each time AF is performed. In that case, since the defocus amount corresponding to the image shift amount P can be directly obtained from the prediction curve, it is possible to avoid performing the above equations (4) and (3).
As described above, according to the first embodiment, since it is possible to change the conversion coefficient according to the aberration information of the photographing optical system, it is possible to correct the focus detection more according to the user's intention.

また、上述の説明では、補正値の計算を主にカメラMPU125で行ったが、本発明はこれに限られるものではなく。例えば、レンズMPU117で補正値の計算を行ってもよい。その場合には、カメラMPU125からレンズMPU117に対して収差情報を送信し、レンズMPU117内で、変換係数Kの算出を行う。その場合には、カメラMPU125から送信された合焦位置に対して、レンズMPU117が補正を施して、レンズ駆動を行えばよい。 Further, in the above description, the calculation of the correction value is mainly performed by the camera MPU 125, but the present invention is not limited to this. For example, the correction value may be calculated by the lens MPU 117. In that case, aberration information is transmitted from the camera MPU 125 to the lens MPU 117, and the conversion coefficient K is calculated in the lens MPU 117. In that case, the lens MPU 117 may correct the in-focus position transmitted from the camera MPU 125 to drive the lens.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第2の実施形態は、変換係数Kの計算方法を収差の大小によって切り替える点が、第1の実施形態と異なる。なお、変換係数Kの計算方法を除く、撮像装置の構成や動作は第1の実施形態で説明したものと同様であるため、適宜説明を省略する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. The second embodiment is different from the first embodiment in that the calculation method of the conversion coefficient K is switched depending on the magnitude of the aberration. Since the configuration and operation of the image pickup apparatus are the same as those described in the first embodiment except for the calculation method of the conversion coefficient K, the description thereof will be omitted as appropriate.

第2の実施形態における変換係数Kの算出方法について、図14を用いて説明する。なお、図14において、第1の実施形態で説明した図5(b)における処理と同様の処理を行う工程には、図5(b)と同じ参照数字を付している。 The method of calculating the conversion coefficient K in the second embodiment will be described with reference to FIG. In FIG. 14, the same reference numbers as those in FIG. 5 (b) are attached to the steps of performing the same process as the process in FIG. 5 (b) described in the first embodiment.

S11では、前述した方法で、計算ステートの取得を行う。次に、S21では、S11で取得した変換係数Kを求める計算ステートが収差の大きいレンズステートであるか否かを判定する。レンズ交換式のカメラにおいては、全てのレンズ及び計算ステートにおいて、第1の実施形態で前述した変換係数Kの演算を施すと、カメラの演算負荷、記憶容量の増大を招いてしまう。そのため、変換係数Kの演算をするか否かを、レンズIDや、S11で取得した計算ステートによって切り替えることが考えられる。 In S11, the calculation state is acquired by the method described above. Next, in S21, it is determined whether or not the calculation state for obtaining the conversion coefficient K acquired in S11 is a lens state having a large aberration. In an interchangeable lens type camera, if the above-mentioned calculation of the conversion coefficient K in the first embodiment is performed in all the lenses and the calculation state, the calculation load and the storage capacity of the camera will increase. Therefore, it is conceivable to switch whether or not to calculate the conversion coefficient K depending on the lens ID and the calculation state acquired in S11.

収差の大小の判定フラグは、予めレンズ情報に付与され、レンズMPU117からカメラMPU125に送信されるものでも良いし、S11で取得されるステート毎に判定フラグが用意されても良い。また、撮影光学系の収差によって引き起こされる、最良像面とAF検出結果のずれ量(=ベストピント補正量(以下、BP補正量))の有無によって切り替えても良い。なお、BP補正量の発生方法、補正方法については特開2009−128843号公報などに開示されるように公知であるため、ここでの詳細な説明は省略する。さらに、収差には複数種別があり、例えば、球面収差、非点収差、色収差、コマ収差等があるが、収差要因ごとにレンズが大小の判別フラグを持ち、例えば、最も線像強度分布の形状に影響のある収差要因でS21の判別を行うなどとしても良い。 The determination flag of the magnitude of the aberration may be added to the lens information in advance and transmitted from the lens MPU 117 to the camera MPU 125, or the determination flag may be prepared for each state acquired in S11. Further, it may be switched depending on the presence or absence of the deviation amount (= best focus correction amount (hereinafter, BP correction amount)) between the best image plane and the AF detection result caused by the aberration of the photographing optical system. Since the method of generating the BP correction amount and the method of correction are known as disclosed in Japanese Patent Application Laid-Open No. 2009-128843, detailed description here will be omitted. Further, there are a plurality of types of aberrations, for example, spherical aberration, non-point aberration, chromatic aberration, coma, etc., but the lens has a size discrimination flag for each aberration factor, for example, the shape of the most line image intensity distribution. It is also possible to discriminate S21 based on the aberration factor that affects the above.

BP補正も同様に、レンズ交換式のカメラにおいて、全てのレンズにおいて、BP補正を施すと、カメラの演算負荷、記憶容量の増大を招くため、BP補正をするか否かをレンズID、S11で取得した計算ステートによって切り替えることが考えられる。また、一般的には、BP補正値の大きいレンズに対しては、BP補正を施すことが多い。BP補正値は、主に撮影光学系の収差によって引き起こされるため、BP補正を施すレンズは撮影光学系の収差が大きいケースが多い。ここでは、前述した変換係数Kの算出処理の演算負荷を低減するため、収差の小さい(すなわち、撮影光学系の収差が少ない)レンズ、計算ステートに対しては、予め用意された変換係数Kを適用する。 Similarly, in an interchangeable lens camera, if BP correction is applied to all lenses, the calculation load and storage capacity of the camera will increase. Therefore, whether or not to perform BP correction is determined by the lens ID and S11. It is conceivable to switch depending on the acquired calculation state. Further, in general, a lens having a large BP correction value is often subjected to BP correction. Since the BP correction value is mainly caused by the aberration of the photographing optical system, the lens to which the BP correction is applied often has a large aberration of the photographing optical system. Here, in order to reduce the calculation load of the calculation process of the conversion coefficient K described above, a conversion coefficient K prepared in advance is used for the lens having a small aberration (that is, the aberration of the photographing optical system is small) and the calculation state. Apply.

このように、S21において収差の大小判定を行い、収差が大きいレンズ、計算ステートであればS12に進み、S12からS14において第1の実施形態と同様の処理を行う。一方、S21で収差が大きいレンズ、計算ステートでなければ、S22に進む。 In this way, the magnitude of the aberration is determined in S21, and if the lens has a large aberration or the calculation state, the process proceeds to S12, and the same processing as in the first embodiment is performed in S12 to S14. On the other hand, if the lens is not in the calculation state and the lens has a large aberration in S21, the process proceeds to S22.

S22では、瞳分離像から求めた変換係数Kを取得する。撮影光学系の収差が少ない場合、図9で示したように、光電変換部211a,211bから出力されると想定されているA像、B像は、瞳強度分布PI_A、PI_Bの相似形状である。よって、S22において、変換係数Kは、
変換係数K[mm/bit]=Zep/BL …(3)
In S22, the conversion coefficient K obtained from the pupil separation image is acquired. When the aberration of the photographing optical system is small, as shown in FIG. 9, the A image and the B image which are supposed to be output from the photoelectric conversion units 211a and 211b have similar shapes of the pupil intensity distributions PI_A and PI_B. .. Therefore, in S22, the conversion coefficient K is
Conversion coefficient K [mm / bit] = Zep / BL ... (3)

で求めることができる。S22では、変換係数Kを式(3)で求めた値として記憶し、処理を終了する。
上記の通り本第2の実施形態によれば、撮影光学系の収差の大小によって、簡易的に撮影光学系の収差の大小を判定し、変換係数を変更することを可能としたため、カメラMPU125の演算負荷を低減することができる。
Can be obtained at. In S22, the conversion coefficient K is stored as the value obtained by the equation (3), and the process ends.
As described above, according to the second embodiment, the magnitude of the aberration of the photographing optical system can be easily determined based on the magnitude of the aberration of the photographing optical system, and the conversion coefficient can be changed. The calculation load can be reduced.

<他の実施形態>
なお、本発明は、複数の機器から構成されるシステムに適用しても、一つの機器からなる装置に適用してもよい。
<Other Embodiments>
The present invention may be applied to a system composed of a plurality of devices or a device composed of one device.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:レンズユニット、104:フォーカスレンズ、113:フォーカスアクチュエータ、117:レンズMPU、118:レンズメモリ、120:カメラ本体、122:撮像素子、125:カメラMPU、129:撮像面位相差検出部 100: Lens unit, 104: Focus lens, 113: Focus actuator, 117: Lens MPU, 118: Lens memory, 120: Camera body, 122: Imaging element, 125: Camera MPU, 129: Imaging surface phase difference detector

Claims (15)

複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、撮影光学系を介して入射する光を光電変換する撮像素子から得られた、瞳分割された一対の信号の相関量に基づいて、光軸方向のデフォーカス方向を示す符号付きの像ずれ量を検出する検出手段と、
前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換手段と、
前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、を有し、
前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする焦点検出装置。
Based on the correlation amount of a pair of pupil-divided signals obtained from an imaging element that has a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts light incident through the photographing optical system. A detection means for detecting a signed image shift amount indicating the defocus direction in the optical axis direction, and
The image shift amount with the code, the conversion factor, conversion means for converting the defocus amount of the optical axis direction,
It has a calculation means for calculating the conversion coefficient corresponding to each signed image shift amount based on the aberration information of the photographing optical system.
The conversion means is a focus detection device that uses the conversion coefficient corresponding to the signed image shift amount detected by the detection means for the conversion.
前記算出手段は、前記変換係数を異なる複数の符号付きの像ずれ量について算出し、該算出した変換係数を記憶手段に記憶し、
前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する変換係数を前記記憶手段から読み出して、前記変換に用いることを特徴とする請求項1に記載の焦点検出装置。
The calculation means calculates the conversion coefficient for a plurality of different signed image shift amounts, stores the calculated conversion coefficient in the storage means, and stores the calculated conversion coefficient in the storage means.
The focus detection device according to claim 1, wherein the conversion means reads out a conversion coefficient corresponding to the signed image shift amount detected by the detection means from the storage means and uses it for the conversion. ..
前記算出手段は、前記検出手段により検出された前記符号付きの像ずれ量に応じた変換係数を算出し、
前記変換手段は、該算出された変換係数を前記変換に用いることを特徴とする請求項1に記載の焦点検出装置。
The calculation means calculates a conversion coefficient according to the signed image shift amount detected by the detection means.
The focus detection device according to claim 1, wherein the conversion means uses the calculated conversion coefficient for the conversion.
前記算出手段は、前記撮影光学系、ズーム位置、F値、フォーカスレンズ位置に応じて異なる前記収差情報を取得することを特徴とする請求項1に記載の焦点検出装置。 The focus detection device according to claim 1, wherein the calculation means acquires the aberration information that differs depending on the photographing optical system, the zoom position, the F value, and the focus lens position. 前記算出手段は、前記収差情報をデジタルフィルタ処理し、デジタルフィルタ処理した収差情報を用いて前記変換係数を算出することを特徴とする請求項1乃至4のいずれか1項に記載の焦点検出装置。 The focus detection device according to any one of claims 1 to 4, wherein the calculation means digitally filters the aberration information and calculates the conversion coefficient using the digitally filtered aberration information. .. 前記収差情報は、前記一対の像信号の線像強度分布であることを特徴とする請求項1乃至5のいずれか1項に記載の焦点検出装置。 The focus detection device according to any one of claims 1 to 5, wherein the aberration information is a line image intensity distribution of the pair of image signals. 前記一対の像信号の線像強度分布が非対称形状を有することを特徴とする請求項6に記載の焦点検出装置。 The focus detection device according to claim 6, wherein the line image intensity distribution of the pair of image signals has an asymmetrical shape. 前記撮影光学系の収差が予め決められた収差よりも小さい場合に、前記変換手段は、像ずれ量に応じて変化しない予め決められた変換係数を前記変換に用いることを特徴とする請求項1乃至7のいずれか1項に記載の焦点検出装置。 Claim 1 is characterized in that when the aberration of the photographing optical system is smaller than the predetermined aberration, the conversion means uses a predetermined conversion coefficient that does not change according to the amount of image shift for the conversion. 7. The focus detection device according to any one of 7. 前記変換手段は、撮影光学系の収差によって引き起こされる、最良像面と前記デフォーカス量から求められた像面との間にずれが生じている場合に、前記算出手段により算出された変換係数を前記変換に用い、前記ずれが生じていない場合に、像ずれ量に応じて変化しない予め決められた変換係数を前記変換に用いることを特徴とする請求項1乃至7のいずれか1項に記載の焦点検出装置。 The conversion means calculates the conversion coefficient by the calculation means when there is a deviation between the best image plane and the image plane obtained from the defocus amount caused by the aberration of the photographing optical system. The invention according to any one of claims 1 to 7, wherein a predetermined conversion coefficient which is used for the conversion and does not change according to the amount of image deviation when the deviation does not occur is used for the conversion. Focus detector. 複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、撮影光学系を介して入射する光を光電変換する撮像素子と、
前記撮像素子から、瞳分割された一対の信号を取得可能に読み出す読み出し手段と、
請求項1乃至9のいずれか1項に記載の焦点検出装置と
を有することを特徴とする撮像装置。
An image pickup element that has a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts the light incident through the photographing optical system.
A reading means for retrievably reading a pair of pupil-divided signals from the image sensor.
An imaging device comprising the focus detection device according to any one of claims 1 to 9.
撮影光学系の異なる瞳領域を通過した光に基づく一対の信号の相関量に基づいて検出された光軸方向のデフォーカス方向を示す符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換手段と、
前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、
前記変換されたデフォーカス量に基づいてレンズを駆動することにより、焦点調節を行う合焦手段と、を有し、
前記変換手段は、前記検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とするレンズユニット。
The image shift amount with a code indicating the defocus direction of the detected direction of the optical axis based on the correlation of a pair of signals based on the light having passed through different pupil regions of the photographing optical system, the conversion coefficient, the optical axis direction Conversion means to convert to the amount of defocus of
A calculation means for calculating the conversion coefficient corresponding to each signed image shift amount based on the aberration information of the photographing optical system, and
It has a focusing means for adjusting the focus by driving the lens based on the converted defocus amount.
The conversion means is a lens unit characterized in that the conversion coefficient corresponding to the detected signed image shift amount is used for the conversion.
撮像装置とレンズユニットとを含む撮像システムであって、
前記撮像装置が、
複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、撮影光学系を介して入射する光を光電変換する撮像素子と、
前記撮像素子から、瞳分割された一対の信号を取得可能に読み出す読み出し手段と、
前記一対の信号の相関量に基づいて、光軸方向のデフォーカス方向を示す符号付きの像ずれ量を検出する検出手段と、を有し、
レンズユニットが、
前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換手段と、
前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、
前記変換されたデフォーカス量に基づいてレンズを駆動することにより、焦点調節を行う合焦手段と、を有し、
前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする撮像システム。
An imaging system that includes an imaging device and a lens unit.
The image pickup device
An image pickup element that has a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts the light incident through the photographing optical system.
A reading means for retrievably reading a pair of pupil-divided signals from the image sensor.
It has a detecting means for detecting a signed image shift amount indicating a defocus direction in the optical axis direction based on a correlation amount of the pair of signals.
The lens unit
The image shift amount with the code, the conversion factor, conversion means for converting the defocus amount of the optical axis direction,
A calculation means for calculating the conversion coefficient corresponding to each signed image shift amount based on the aberration information of the photographing optical system, and
It has a focusing means for adjusting the focus by driving the lens based on the converted defocus amount.
The conversion means is an imaging system characterized in that the conversion coefficient corresponding to the signed image shift amount detected by the detection means is used for the conversion.
読み出し手段が、複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、撮影光学系を介して入射する光を光電変換する撮像素子から、瞳分割された一対の信号を取得可能に読み出す読み出し工程と、
検出手段が、前記一対の信号の相関量に基づいて、光軸方向のデフォーカス方向を示す符号付きの像ずれ量を検出する検出工程と、
変換手段が、前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換工程と、
算出手段が、前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出工程と、を有し、
前記変換工程では、前記検出工程で検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする焦点検出方法。
The readout means includes a plurality of photoelectric conversion units for each of the plurality of microlenses, and reads out a pair of pupil-divided signals from an image sensor that photoelectrically converts the light incident through the photographing optical system. Process and
A detection step in which the detection means detects a signed image shift amount indicating a defocus direction in the optical axis direction based on the correlation amount of the pair of signals.
Conversion means, a conversion step of converting the image shift amount with the code, the conversion factor, the defocus amount of the optical axis direction,
The calculation means includes a calculation step of calculating the conversion coefficient corresponding to each of the signed image shift amounts based on the aberration information of the photographing optical system.
In the conversion step, the focus detection method is characterized in that the conversion coefficient corresponding to the signed image shift amount detected in the detection step is used for the conversion.
コンピュータに、請求項13に記載の焦点検出方法の各工程を実行させるためのプログラム。 A program for causing a computer to execute each step of the focus detection method according to claim 13. 請求項14に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores the program according to claim 14.
JP2016205469A 2016-10-19 2016-10-19 Focus detection device and method, imaging device, lens unit and imaging system Active JP6854619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016205469A JP6854619B2 (en) 2016-10-19 2016-10-19 Focus detection device and method, imaging device, lens unit and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016205469A JP6854619B2 (en) 2016-10-19 2016-10-19 Focus detection device and method, imaging device, lens unit and imaging system

Publications (3)

Publication Number Publication Date
JP2018066864A JP2018066864A (en) 2018-04-26
JP2018066864A5 JP2018066864A5 (en) 2019-11-21
JP6854619B2 true JP6854619B2 (en) 2021-04-07

Family

ID=62086085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016205469A Active JP6854619B2 (en) 2016-10-19 2016-10-19 Focus detection device and method, imaging device, lens unit and imaging system

Country Status (1)

Country Link
JP (1) JP6854619B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003686A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Focus detection device, imaging apparatus, and interchangeable lens device
JP7206668B2 (en) * 2018-07-20 2023-01-18 株式会社ニコン camera body and interchangeable lens
JP2020060470A (en) * 2018-10-11 2020-04-16 キヤノン株式会社 Aberration estimation method, aberration estimation device, program, and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6116151B2 (en) * 2012-07-31 2017-04-19 キヤノン株式会社 Distance detector
JP5942697B2 (en) * 2012-08-21 2016-06-29 株式会社ニコン Focus detection apparatus and imaging apparatus
JP6362060B2 (en) * 2013-07-01 2018-07-25 キヤノン株式会社 Imaging apparatus, control method thereof, and program

Also Published As

Publication number Publication date
JP2018066864A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
KR102053305B1 (en) Imaging optical system
JP6478457B2 (en) Focus adjustment device and focus adjustment method
EP3018516B1 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP6429546B2 (en) Imaging apparatus, control method, program, and storage medium
TWI548272B (en) Image capture apparatus and method for controlling image capture apparatus
JP6682310B2 (en) Focus detection apparatus and method, and imaging apparatus
JP6298362B2 (en) Imaging apparatus, control method therefor, and imaging system
JP6843604B2 (en) Information processing device and information processing method
JP6464118B2 (en) Focus detection apparatus and method, imaging apparatus, and lens unit
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP6890937B2 (en) Focus detector, image pickup device, and focus detection method
JP6484004B2 (en) Imaging apparatus and control method thereof, imaging optical system and control method thereof
JP7037271B2 (en) Focus detectors and focus detectors, imaging devices, programs and storage media
JP6744933B2 (en) Lens part and its control method
JP6685769B2 (en) Information processing device, imaging device, and information processing method
JP2019200348A (en) Imaging device and control method for imaging device
JP6686191B2 (en) Focus detection device, imaging device, and focus detection method
JP6686239B1 (en) Lens unit, transmitter, and receiver
JP6548626B2 (en) Image pickup apparatus, control method for image pickup apparatus, and focus control program
JP6415054B2 (en) Imaging apparatus and imaging method
JP2020003686A (en) Focus detection device, imaging apparatus, and interchangeable lens device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191010

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210316

R151 Written notification of patent or utility model registration

Ref document number: 6854619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151