JP6854619B2 - Focus detection device and method, imaging device, lens unit and imaging system - Google Patents
Focus detection device and method, imaging device, lens unit and imaging system Download PDFInfo
- Publication number
- JP6854619B2 JP6854619B2 JP2016205469A JP2016205469A JP6854619B2 JP 6854619 B2 JP6854619 B2 JP 6854619B2 JP 2016205469 A JP2016205469 A JP 2016205469A JP 2016205469 A JP2016205469 A JP 2016205469A JP 6854619 B2 JP6854619 B2 JP 6854619B2
- Authority
- JP
- Japan
- Prior art keywords
- conversion
- image
- conversion coefficient
- optical system
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、焦点検出装置及び方法、撮像装置、レンズユニット及び撮像システムに関し、特に、撮影光学系を介して入射する光を光電変換して得られた信号に基づいて焦点検出を行う焦点検出装置及び方法、撮像装置、レンズユニット及び撮像システムに関する。 The present invention relates to a focus detection device and method, an image pickup device, a lens unit, and an image pickup system, and in particular, a focus detection device that performs focus detection based on a signal obtained by photoelectric conversion of light incident through a photographing optical system. And methods, imaging devices, lens units and imaging systems.
従来より、撮像装置の自動焦点検出(AF)の一般的な方式として、位相差AF方式が知られている。位相差AF方式は、ビデオカメラやデジタルスチルカメラで多く用いられるAF方式であり、撮像素子が焦点検出用センサとして用いられるものが存在する。 Conventionally, the phase difference AF method has been known as a general method for automatic focus detection (AF) of an imaging device. The phase-difference AF method is an AF method often used in video cameras and digital still cameras, and there are some in which an image sensor is used as a focus detection sensor.
位相差AF方式は、撮像素子上の焦点検出画素による光学像を表す一対の像信号により、一対の像信号の相関度合いから、像ずれ量(位相差)を検出する。さらに、像ずれ量に変換係数を乗算することで、デフォーカス量を算出し、焦点状態を検出する。しかしながら、上記のAF方式は、光学像を利用して焦点検出を行うため、撮影レンズの光学系の収差により、焦点検出結果に誤差が生じる場合がある。 In the phase difference AF method, the amount of image shift (phase difference) is detected from the degree of correlation between the pair of image signals by the pair of image signals representing the optical image by the focus detection pixels on the image sensor. Further, the defocus amount is calculated by multiplying the image shift amount by the conversion coefficient, and the focus state is detected. However, since the above AF method performs focus detection using an optical image, an error may occur in the focus detection result due to the aberration of the optical system of the photographing lens.
そこで、特許文献1では、検出されるデフォーカス量に応じて、変換係数に所定の係数をかけて変換係数の値を切り替ることで、デフォーカス変化に応じた位相差AFの高精度化を図る方法が開示されている。また、変換係数のデフォーカス量に応じた変化は、一対の測距瞳分布(測距瞳面上における一対の焦点検出光束の光量分布)が、重心に対して非対称になることに起因して生じるとしている。
Therefore, in
しかしながら、特許文献1の構成では、焦点検出誤差の補正を十分に行えないといった問題がある。特許文献1では、測距瞳分布によって変換係数が変化する点には触れられているが、撮影光学系の収差に応じて変換係数を算出する方法について詳細に述べられていない。つまり、絶対値が同じデフォーカス量が検出される場合、すなわち、+Xのデフォーカス量と−Xのデフォーカス量が検出される撮影光学系の状態では、特許文献1で算出される変換係数の値は同一である。しかし、絶対値が同じデフォーカス量においても、撮影光学系の収差等により、算出されるべき変換係数の値は本来異なる。
However, the configuration of
本発明は上記問題点を鑑みてなされたものであり、撮影光学系の収差等に応じて、より高精度に焦点調節を行えるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to enable more accurate focus adjustment according to aberrations of the photographing optical system and the like.
上記目的を達成するために、本発明の焦点検出装置は、複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、撮影光学系を介して入射する光を光電変換する撮像素子から得られた、瞳分割された一対の信号の相関量に基づいて、光軸方向のデフォーカス方向を示す符号付きの像ずれ量を検出する検出手段と、前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換手段と、前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、を有し、前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする。 In order to achieve the above object, the focus detection device of the present invention is obtained from an image pickup device that includes a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts light incident through the photographing optical system. Further, the detection means for detecting the signed image shift amount indicating the defocus direction in the optical axis direction based on the correlation amount of the pair of pupil-divided signals, and the signed image shift amount by the conversion coefficient. having conversion means for converting the defocus amount of the optical axis direction, based on the aberration information of the imaging optical system, a calculation unit configured to calculate the transform coefficients corresponding to the image shift amount each signed, the The conversion means uses the conversion coefficient corresponding to the signed image shift amount detected by the detection means for the conversion.
本発明によれば、撮影光学系の収差等に応じて、より高精度に焦点調節を行うことができる。 According to the present invention, the focus can be adjusted with higher accuracy according to the aberration of the photographing optical system and the like.
以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。なお、実施形態は発明の理解と説明を容易にするため、具体的かつ特定の構成を有するが、本発明はそのような特定の構成に限定されない。例えば、以下では本発明をレンズ交換可能な一眼レフタイプのデジタルカメラに適用した実施形態について説明するが、本発明はレンズ交換できないタイプのデジタルカメラや、ビデオカメラに対しても適用可能である。また、カメラを備えた任意の電子機器、例えば携帯電話機、パーソナルコンピュータ(ラップトップ、タブレット、デスクトップ型など)、ゲーム機などで実施することもできる。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiment has a specific and specific configuration in order to facilitate understanding and explanation of the invention, but the present invention is not limited to such a specific configuration. For example, although the embodiment in which the present invention is applied to a single-lens reflex type digital camera with interchangeable lenses will be described below, the present invention can also be applied to a digital camera of a non-interchangeable lens type and a video camera. It can also be carried out on any electronic device equipped with a camera, such as a mobile phone, a personal computer (laptop, tablet, desktop type, etc.), a game machine, or the like.
<第1の実施形態>
(撮像装置の構成の説明−レンズユニット)
図1は、実施形態に係る撮像装置(撮像システム)の一例として、デジタルカメラの機能構成例を示すブロック図である。上述したように、本実施形態のデジタルカメラはレンズ交換式一眼レフカメラであり、レンズユニット100とカメラ本体120とを有する。レンズユニット100は、図中央の点線で示されるマウントMを介してカメラ本体120に装着される。
<First Embodiment>
(Explanation of the configuration of the imaging device-lens unit)
FIG. 1 is a block diagram showing a functional configuration example of a digital camera as an example of an imaging device (imaging system) according to an embodiment. As described above, the digital camera of the present embodiment is an interchangeable lens type single-lens reflex camera, and has a
レンズユニット100は、第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、フォーカスレンズ群140(以下、単に「フォーカスレンズ」と呼ぶ。)等からなる光学系と、駆動/制御系とを有する。このようにレンズユニット100は、フォーカスレンズ104を含み、被写体の光学像を形成する撮影レンズである。
The
第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに移動可能に保持される。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量を調節する機能のほか、静止画撮影時には露出時間を制御するメカニカルシャッタとしても機能する。絞り兼用シャッタ102及び第2レンズ群103は一体で光軸方向OAに移動可能であり、第1レンズ群101と連動して移動することによりズーム機能を実現する。また、フォーカスレンズ104も光軸方向OAに移動可能であり、位置に応じてレンズユニット100が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ104の光軸方向OAにおける位置を制御することにより、レンズユニット100の合焦距離を調節する焦点調節を行う。
The
駆動/制御系は、ズームアクチュエータ111、絞りシャッタアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116、レンズMPU(マイクロプロセッサ)117、レンズメモリ118を有する。
The drive / control system includes a
ズーム駆動回路114は、撮影者のズーム操作に応じてズームアクチュエータ111を駆動して、第1レンズ群101から第2レンズ群103を光軸方向OAに駆動することで、レンズユニット100の光学系の画角を制御する。絞りシャッタ駆動回路115は、絞りシャッタアクチュエータ112を用いて絞り兼用シャッタ102を駆動し、絞り兼用シャッタ102の開口径や開閉動作を制御する。フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104を光軸方向OAに駆動し、レンズユニット100の光学系の合焦距離を変化させる。また、フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104の現在位置を検出する。
The
レンズMPU117は、レンズユニット100に係る全ての演算、制御を行い、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116を制御する。また、レンズMPU117は、マウントMを通じてカメラMPU(マイクロプロセッサ)125と接続され、コマンドやデータを通信する。例えば、レンズMPU117はフォーカスレンズ104の光軸上の位置を検出し、カメラMPU125からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ104の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。またレンズMPU117は、カメラMPU125からの要求に応じて、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116を制御する。レンズメモリ118は自動焦点検出に必要な光学情報が予め記憶されている。カメラMPU125は、例えば内蔵する不揮発性メモリやレンズメモリ118に記憶されているプログラムを実行することで、レンズユニット100の動作を制御する。
The lens MPU 117 performs all calculations and controls related to the
(撮像装置の構成の説明−カメラ本体)
カメラ本体120は、光学ローパスフィルタ(LPF)121および撮像素子122からなる光学系と、駆動/制御系とを有する。レンズユニット100の第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、フォーカスレンズ104と、カメラ本体120の光学LPF121は撮影光学系を構成する。
(Explanation of the configuration of the imaging device-camera body)
The
光学LPF121は、撮影画像の偽色やモアレを軽減する。撮像素子122はCMOSイメージセンサと周辺回路で構成され、横方向m画素、縦方向n画素(n,mは2以上の整数)からなる複数の画素が行列状に配置される。本実施形態の撮像素子122は、図2を参照して後述するような構成の瞳分割機能を有する画素を有し、撮影光学系を介して入射した光を光電変換して、画像信号を出力する。
The
駆動/制御系は、撮像素子駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群127、メモリ128、撮像面位相差焦点検出部129を有する。
The drive / control system includes an image
撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、取得した画像信号をA/D変換してカメラMPU125及び画像処理回路124に送信する。画像処理回路124は、撮像素子122から出力された画像データに対し、例えばγ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行い、表示・記録用の画像データを生成する。また、画像処理回路124は位相差AFのための焦点検出用データも生成する。
The image
カメラMPU125は、カメラ本体120に係る全ての演算、制御を行い、撮像素子駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、撮像面位相差焦点検出部129を制御する。また、カメラMPU125はマウントMの信号線を介してレンズMPU117と接続され、レンズMPU117とコマンドやデータを通信する。カメラMPU125はレンズMPU117に対し、レンズ位置の取得要求や、所定の駆動量での絞り兼用シャッタ102、フォーカスレンズ104、ズームの駆動要求や、レンズユニット100に固有の光学情報の取得要求などを要求する。なお、カメラMPU125には、カメラ動作を制御するプログラムを格納したROM(Read Only Memory)125a、変数を記憶するRAM(Random Access Memory)125b、諸パラメータを記憶するEEPROM(Electrically Erasable Programmable Read-Only Memory)125cが内蔵されている。
The
表示器126はLCD(Liquid Crystal Display)などから構成され、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像などを表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。メモリ128は、着脱可能なフラッシュメモリで、撮影済み画像を記録する。
The
撮像面位相差焦点検出部129は、画像処理回路124により得られる焦点検出用データを用いて位相差検出方式で焦点検出処理(撮像面位相差AF)を行う。より具体的には、画像処理回路124が、撮影光学系の一対の瞳領域を通過する光束で形成される一対の像データを焦点検出用データとして生成し、撮像面位相差焦点検出部129はこの一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施形態の撮像面位相差焦点検出部129は、専用のAFセンサを用いず、撮像素子122の出力に基づく位相差AFを行う。なお、撮像面位相差焦点検出部129の動作については後で詳細に説明する。
The imaging surface phase difference focus detection unit 129 performs focus detection processing (imaging surface phase difference AF) by a phase difference detection method using the focus detection data obtained by the
(焦点検出動作の説明:位相差AF)
以下、撮像面位相差焦点検出部129の動作についてさらに詳細に説明する。図2(a)は本実施形態における撮像素子122の画素配列を模式的に示した図で、2次元CMOSエリアセンサの縦(Y方向)6行と横(X方向)8列の範囲を、レンズユニット100側から観察した状態を示している。撮像素子122にはベイヤー配列のカラーフィルタが設けられ、奇数行の画素211には、左から順に緑(G)と赤(R)のカラーフィルタが交互に、偶数行の画素211には、左から順に青(B)と緑(G)のカラーフィルタが交互に配置されている。画素211において、円211iはオンチップマイクロレンズを表し、オンチップマイクロレンズ211iの内側に配置された複数の矩形211a,211bはそれぞれ光電変換部である。
(Explanation of focus detection operation: phase difference AF)
Hereinafter, the operation of the imaging surface phase difference focus detection unit 129 will be described in more detail. FIG. 2A is a diagram schematically showing the pixel arrangement of the
本実施形態の撮像素子122は、すべての画素211の光電変換部がX方向に2分割され、個々の光電変換部の光電変換信号と、光電変換信号の和が独立して読み出し可能である。また、光電変換信号の和から一方の光電変換部の光電変換信号を減じることで、他方の光電変換部の光電変換信号に相当する信号を得ることができる。個々の光電変換部における光電変換信号は位相差AFのための焦点検出用データとして用いたり、3D(3−Dimensional)画像を構成する視差画像の生成に用いたりすることもできる。また、光電変換信号の和は、通常の撮影画像データとして用いることができる。
In the
ここで、位相差AFを行う場合の画素信号について説明する。後述するように、本実施形態においては、図2(a)のマイクロレンズ211iと、分割された光電変換部211a,211bで撮影光学系の射出光束を瞳分割する。そして、同一画素行に配置された所定範囲内の複数の画素211について、光電変換部211aの出力をつなぎ合わせて編成したものをAF用A像、光電変換部211bの出力をつなぎ合わせて編成したものをAF用B像とする。光電変換部211a,211bの出力は、カラーフィルタの単位配列に含まれる緑、赤、青、緑の出力を加算して算出した疑似的な輝度(Y)信号を用いる。但し、赤、青、緑の色ごとに、AF用A像、AF用B像を編成してもよい。
Here, the pixel signal when performing phase difference AF will be described. As will be described later, in the present embodiment, the emission light flux of the photographing optical system is divided into pupils by the microlens 211i shown in FIG. 2A and the divided
このように生成したAF用A像とAF用B像の相対的な像ずれ量を相関演算により検出することで、一対の像信号の相関度であるプレディクション量[bit]を検出することができる。カメラMPU125は、プレディクション量に変換係数を乗ずることで、所定領域のデフォーカス量[mm]に変換することができる。本実施形態では、各画素から一方の光電変換部の出力と全光電変換部の出力の和を撮像素子122から読み出すものとする。例えば光電変換部211aの出力と、光電変換部211a,211bの出力の和とが読み出される場合、光電変換部211bの出力は和から光電変換部211aの出力を減じることで取得する。これにより、AF用A像とAF用B像の両方を得ることができ、位相差AFを実現できる。また、光電変換部の出力の和は、一般的には、出力画像の1画素(出力画素)を形成する。このような撮像素子は、特開2004−134867号公報などに開示されるように公知であるため、これ以上の詳細に関する説明は省略する。
By detecting the relative image shift amount between the AF A image and the AF B image generated in this way by correlation calculation, it is possible to detect the prediction amount [bit] which is the degree of correlation between the pair of image signals. it can. The
図2(b)は本実施形態の撮像素子122の読み出し回路の構成例を示した図である。151は水平走査回路、153は垂直走査回路である。そして各画素の境界部には、水平走査ライン152a及び152bと、垂直走査ライン154a及び154bが配線され、各光電変換部はこれらの走査ラインを介して信号が外部に読み出される。垂直走査回路153による制御により、光電変換部211a,211bから、光電変換信号の和を読み出したり、光電変換部211a,211bぞれぞれの一対の信号を取得可能に読み出したりすることができる。
FIG. 2B is a diagram showing a configuration example of a readout circuit of the
なお、本実施形態の撮像素子は上述の画素内の読み出し方法に加え、以下の2種類の読み出しモードを有する。第1の読み出しモードは全画素読み出しモードと称するもので、高精細静止画を撮像するためのモードである。この場合は、全画素の信号が読み出される。 The image sensor of the present embodiment has the following two types of readout modes in addition to the above-mentioned in-pixel readout method. The first readout mode is called an all-pixel readout mode, which is a mode for capturing a high-definition still image. In this case, the signals of all pixels are read out.
第2の読み出しモードは間引き読み出しモードと称するもので、動画記録、もしくはプレビュー画像の表示のみを行うためのモードである。この場合に必要な画素数は全画素よりも少ないため、画素群はX方向及びY方向ともに所定比率で間引いた画素のみ読み出す。また、高速に読み出す必要がある場合にも、同様に間引き読み出しモードを用いる。X方向に間引く際には、信号の加算を行ってS/Nの改善を図り、Y方向に間引く際には、間引かれる行の信号出力を無視する。位相差AFも、通常、第2の読み出しモードで読み出された信号に基づいて行われる。 The second read mode is called a thinning read mode, which is a mode for recording a moving image or displaying only a preview image. Since the number of pixels required in this case is smaller than that of all pixels, only the pixels thinned out at a predetermined ratio in both the X direction and the Y direction are read out as the pixel group. Also, when it is necessary to read at high speed, the thinning read mode is used in the same manner. When thinning out in the X direction, signals are added to improve S / N, and when thinning out in the Y direction, the signal output of the thinned line is ignored. Phase-difference AF is also usually performed based on the signal read in the second read mode.
図3は、本実施形態の撮像装置において、撮影光学系の射出瞳面と、像高ゼロすなわち像面中央近辺に配置された撮像素子122の光電変換部211a,211bの共役関係を説明する図である。撮像素子122内の光電変換部211a,211bと撮影光学系の射出瞳面は、オンチップマイクロレンズ211iによって共役関係となるように設計される。一般的に、撮影光学系の射出瞳は、光量調節用の虹彩絞りが置かれる面とほぼ一致するが、本実施形態の撮影光学系は変倍機能を有するズームレンズを含み、光学タイプによっては、変倍操作を行うと射出瞳の像面からの距離や大きさが変化する。図3(a)では、レンズユニット100の焦点距離が、広角端と望遠端の中央にある状態を示している。この状態における射出瞳距離Zepを標準値として、オンチップマイクロレンズ211iの形状や、像高(X,Y座標)に応じた偏心パラメータの最適設計がなされる。
FIG. 3 is a diagram illustrating a conjugate relationship between the exit pupil surface of the photographing optical system and the
図3(a)において、101は第1レンズ群、101bは第1レンズ群を保持する鏡筒部材、104はフォーカスレンズ、104bはフォーカスレンズ104を保持する鏡筒部材である。102は絞り兼用シャッタで、102aは絞り開放時の開口径を規定する開口板、102bは絞り込み時の開口径を調節するための絞り羽根である。なお、撮影光学系を通過する光束の制限部材として作用する101b、102a、102b、及び104bは、像面から観察した場合の光学的な虚像を示している。また、絞り兼用シャッタ102の近傍における合成開口をレンズの射出瞳と定義し、前述したように像面からの距離をZepとしている。
In FIG. 3A, 101 is a first lens group, 101b is a lens barrel member that holds the first lens group, 104 is a focus lens, and 104b is a lens barrel member that holds the
画素211は像面中央近傍に配置されており、本実施形態では、中央画素と呼ぶ。中央画素211は、最下層より、光電変換部211a,211b、配線層211e〜211g、カラーフィルタ211h、及びオンチップマイクロレンズ211iの各部材で構成される。そして2つの光電変換部211a,211bはオンチップマイクロレンズ211iによって撮影光学系の射出瞳面に投影される。換言すれば、撮影光学系の射出瞳が、オンチップマイクロレンズ211iを介して、光電変換部の表面に投影される。
The
図3(b)は、撮影光学系の射出瞳面上における、光電変換部211a,211bの投影像を示したもので、光電変換部211a,211bに対する投影像は各々EP1a,EP1bとなる。また本実施形態では、撮像素子122は、2つの光電変換部211a,211bのいずれか一方の出力と、両方の和の出力を得ることができる画素を有している。両方の和の出力は、撮影光学系のほぼ全瞳領域である投影像EP1a,EP1bの両方の領域を通過した光束を光電変換したものであるので、図3(b)でのTLと投影像EP1a,EP1bが重複している面積に相当する光束に対応する値が出力される。
FIG. 3B shows the projected images of the
位相差AFを行う場合、カメラMPU125は撮像素子122から上述した2種類の出力を読み出すように撮像素子駆動回路123を制御する。そして、カメラMPU125は画像処理回路124に対して焦点検出領域の情報を与え、焦点検出領域内に含まれる画素の出力から、AF用A像及びAF用B像のデータを生成して撮像面位相差焦点検出部129に供給するよう命令する。画像処理回路124はこの命令に従ってAF用A像及びAF用B像のデータを生成して撮像面位相差焦点検出部129に出力する。
When performing phase-difference AF, the
なお、ここでは一例として水平方向に射出瞳を2分割する構成を説明したが、撮像素子122の一部の画素については垂直方向に射出瞳を2分割する構成としてもよい。また、水平および垂直の両方向に射出瞳を分割する構成としてもよい。垂直方向に射出瞳を分割する画素を設けることにより、水平だけでなく垂直方向の被写体のコントラストに対応した位相差AFが可能となる。
Although the configuration in which the exit pupil is divided into two in the horizontal direction has been described here as an example, a configuration in which the exit pupil is divided into two in the vertical direction may be used for some pixels of the
(焦点検出領域の説明)
図4は、撮影範囲内における焦点検出領域の例を示す図である。上述の通り、位相差AFは焦点検出領域に含まれる画素から得られた信号に基づいて行われる。図4において、点線で示す長方形は撮像素子122の撮影範囲内の焦点検出領域219を示す。図4の例では、afH(横)×afV(縦)[pix]の画素を含む。図4では、顔検出を行って焦点検出領域を設定した例を示したが、主被写体220を含むように焦点検出領域を設定としても良いし、ユーザーが事前に設定した焦点検出領域でも構わない。数、位置及び大きさは図示したものに限定されない。
(Explanation of focus detection area)
FIG. 4 is a diagram showing an example of a focus detection region within the photographing range. As described above, the phase difference AF is performed based on the signal obtained from the pixels included in the focus detection region. In FIG. 4, the rectangle shown by the dotted line indicates the
(焦点検出処理の流れの説明)
次に、図5を参照して、本実施形態のデジタルカメラにおける自動焦点検出(AF)動作について説明する。以下のAF処理動作は、他の主体が明記されている場合を除き、カメラMPU125が主体となって実行される。また、カメラMPU125がレンズMPU117にコマンド等を送信することによってレンズユニット100の駆動や制御を行う場合、説明を簡潔にするために動作主体をカメラMPU125として記載する場合がある。
(Explanation of the flow of focus detection processing)
Next, the automatic focus detection (AF) operation in the digital camera of the present embodiment will be described with reference to FIG. The following AF processing operations are mainly executed by the
まず、S1においてカメラMPU125は焦点検出領域を設定する。ここで設定される焦点検出領域219は、図4に示すように、主被写体220によって決められるものでも良いし、予め設定された焦点検出領域でも良い。ここでは、焦点検出領域に対して、焦点検出領域219を代表する座標(x、y)を設定する。この時の代表座標(x、y)は例えば、焦点検出領域219に対する重心位置であっても良い。
First, in S1, the
次に、S2では焦点検出用データの読み出しを行う。前述した方法で、S1で設定した焦点検出領域219内の画素からの読み出した信号を用いることで、AF用A像、AF用B像の信号を生成する。
Next, in S2, the focus detection data is read out. By using the signals read from the pixels in the
次に、カメラMPUは、S3において、S2で得られたAF用A像、AF用B像の相対的な像ずれ量を相関演算により検出することで、プレディクション量[bit]である像ずれ量P[bit]を検出する。ここで図6を用いて、相関演算の方法の一例を説明する。S2で、焦点検出画素から図6(a)のようなAF用A像(以下、A像)、AF用B像(以下、B像)信号が読み出されたとする。カメラMPU125は、まず、ノイズの低減のため、A像、B像に対してデジタルフィルタ処理を行う。図6(a)のフィルタ処理後の波形が図6(b)である。そして、カメラMPU125は、図6(b)〜図6(e)のように、A像、B像いずれかもしくは両方をビットシフトしながらその時の相関量CORを計算する。この時の相関量CORとは、A像、B像を重ねた時の面積でも良いし、A像の面積―B像の面積でも良いし、相関度を表す計算値であればどの値でも良い。
Next, in S3, the camera MPU detects the relative image shift amount of the AF A image and the AF B image obtained in S2 by the correlation calculation, so that the image shift is a prediction amount [bit]. The quantity P [bit] is detected. Here, an example of the method of correlation calculation will be described with reference to FIG. It is assumed that in S2, the AF A image (hereinafter, A image) and AF B image (hereinafter, B image) signals as shown in FIG. 6A are read from the focus detection pixels. The
図7は、図6に図示したA像、B像を相関演算した時の、シフト量[bit]と相関量COR(ここではA像の面積とB像面積の差分)の関係を図示したものである。A像とB像が一致した時、A像とB像の重なりが大きくなるため、最も相関が高く、相関量CORは小さくなる。ここでは、相関量CORが極小値をとる時のシフト量[bit]が像ずれ量Pとなるので、内挿補間演算等により、像ずれ量P=2.6[bit]と計算される。 FIG. 7 illustrates the relationship between the shift amount [bit] and the correlation amount COR (here, the difference between the area of the A image and the area of the B image) when the A image and the B image shown in FIG. 6 are correlated. Is. When the A image and the B image match, the overlap between the A image and the B image becomes large, so that the correlation is the highest and the correlation amount COR becomes small. Here, since the shift amount [bit] when the correlation amount COR takes the minimum value is the image shift amount P, the image shift amount P = 2.6 [bit] is calculated by interpolation interpolation calculation or the like.
次に、S4では、像ずれ量Pに乗じて、デフォーカス量DEFを求めるための値である変換係数Kを取得する。なお、変換係数Kの算出方法については、詳細に後述する。 Next, in S4, the conversion coefficient K, which is a value for obtaining the defocus amount DEF, is obtained by multiplying the image shift amount P. The calculation method of the conversion coefficient K will be described in detail later.
次に、カメラMPUは、S5において、以下の計算式(1)により、デフォーカス量DEF[mm]の計算を行う。
DEF=P×K …(1)
Next, the camera MPU calculates the defocus amount DEF [mm] in S5 by the following calculation formula (1).
DEF = P × K… (1)
次に、S6では、カメラMPU125が、S5で得られたデフォーカス量DEFに基づいて、以下の式(2)によりフォーカスレンズ104の駆動量M[lensmm]を計算し、フォーカスレンズ104を駆動させる。
M=DEF/FS …(2)
Next, in S6, the
M = DEF / FS ... (2)
FSはデフォーカス量DEF[mm]をレンズ駆動量[lensmm]に変換する係数であり、レンズMPU117から取得される値とする。カメラMPU125は、レンズ駆動量Mの分、光軸方向にフォーカスレンズ104を駆動させることで、ユーザーの意図にあった焦点画像を得る。
次に、図5(b)及び図8を参照して、本第1の実施形態における変換係数Kの計算方法について詳細に説明する。S11では、まず、変換係数Kの計算に用いる撮像装置の状態(計算ステート)の取得を行う。計算ステートとしては、図5(a)でAF検出を行った際の、撮影光学系のズーム位置、F値、フォーカスレンズ位置、S1で設定された焦点検出領域219の座標(x,y)、S3で検出された像ずれ量Pを記憶、またはレンズMPU117から取得しておく。
FS is a coefficient for converting the defocus amount DEF [mm] into the lens drive amount [lensmm], and is a value obtained from the
Next, the calculation method of the conversion coefficient K in the first embodiment will be described in detail with reference to FIGS. 5 (b) and 8. In S11, first, the state (calculation state) of the image pickup apparatus used for calculating the conversion coefficient K is acquired. The calculation states include the zoom position of the photographing optical system, the F value, the focus lens position, and the coordinates (x, y) of the
次に、S12では、カメラMPU125がS11で取得した計算ステートに応じた収差情報をレンズMPU117から取得する。ここで、変換係数Kを算出する際に、収差情報が必要な理由を説明する。
Next, in S12, the aberration information corresponding to the calculation state acquired by the
まず、従来の変換係数Kの求め方を図8を参照して説明する。図8のZ方向軸は、撮影光学系の光軸方向を示し、Z=0は撮像素子面を示す。Zepは前述した射出瞳距離を示す。Z=Zep上のA像、B像の焦点検出光束の光量分布である瞳強度分布PI_A、瞳強度分布PI_Bは、図2に示すようなマトリクス上に配置された光電変換部211a,211bそれぞれから出力された焦点検出用信号を射出瞳面上に投影した投影像である。図8のPI_A、PI_Bは一次元の瞳強度分布を示したものである。PI_ABはPI_AとPI_Bの強度分布をx座標毎に足し合わせた値で、出力画素(A+B像)の光束の光量分布である瞳強度分布を表している。言い換えると、瞳強度分布PI_ABは、瞳強度分布PI_Aと瞳強度分布PI_Bに瞳分割されている。
First, a conventional method of obtaining the conversion coefficient K will be described with reference to FIG. The Z-direction axis in FIG. 8 indicates the optical axis direction of the photographing optical system, and Z = 0 indicates the image sensor surface. Zep indicates the exit pupil distance described above. The pupil intensity distribution PI_A and the pupil intensity distribution PI_B, which are the light intensity distributions of the focal detection light fluxes of the A image and the B image on Z = Zep, are taken from the
この時のPI_A、PI_Bの重心間隔を基線長BLとすると、射出瞳距離Zepと基線長BLとの比で、A像、B像の単位横ずれ量[bit]に対する光軸方向の変化量[mm]を求めることができる。従って、変換係数Kは以下の式(3)で表すことができる。
変換係数K[mm/bit]=Zep/BL …(3)
Assuming that the distance between the center of gravity of PI_A and PI_B at this time is the baseline length BL, the amount of change [mm] in the optical axis direction with respect to the unit lateral displacement amount [bit] of the A image and the B image in the ratio of the exit pupil distance Zep and the baseline length BL ] Can be obtained. Therefore, the conversion coefficient K can be expressed by the following equation (3).
Conversion coefficient K [mm / bit] = Zep / BL ... (3)
上式(3)において、各Z方向の位置において検出されると想定されているA像、B像は、瞳強度分布PI_A、PI_Bの相似形状である。例えば、図9に示すように、Z=Z5位置における瞳分離像は、P_A(Z5)、P_B(Z5)であり、Z=Z−5位置における瞳分離像は、P_A(Z−5)、P_B(Z−5)である。Z=0の撮像素子面では、P_A(0)、P_B(0)のように、パルス形状となって光束が一点に収束し、瞳分離像A、Bが完全に一致するが、それ以外のZ方向の位置においては、瞳分離像は、瞳強度分布の相似形状となる。従って、式(3)で計算される変換係数Kにより、X方向のA像、B像の像ずれ量Pが光軸方向のデフォーカス量DEFに変換される。 In the above equation (3), the A image and the B image which are assumed to be detected at the positions in each Z direction have similar shapes of the pupil intensity distributions PI_A and PI_B. For example, as shown in FIG. 9, the pupil separation images at the Z = Z5 position are P_A (Z5) and P_B (Z5), and the pupil separation images at the Z = Z-5 position are P_A (Z-5), It is P_B (Z-5). On the image sensor surface with Z = 0, like P_A (0) and P_B (0), the luminous flux becomes a pulse shape and the luminous flux converges at one point, and the pupil separation images A and B completely match, but other than that. At the position in the Z direction, the pupil separation image has a similar shape to the pupil intensity distribution. Therefore, the conversion coefficient K calculated by the equation (3) converts the image shift amount P of the A image and the B image in the X direction into the defocus amount DEF in the optical axis direction.
しかし、各Z方向の位置(例えば、図9中、Z=Z5、0、Z−5)において、焦点検出画素で検出されるA像、B像は、撮影光学系を通って受光されるので、実際には撮影光学系の収差を含めた特性が、焦点検出画素において受光される。各Z方向の位置(図9中、Z=Z5、0、Z−5)における撮影光学系の収差情報を図10に示す。図10では、収差情報の例として、撮影光学系の線像強度分布を示した。 However, at each position in the Z direction (for example, Z = Z5, 0, Z-5 in FIG. 9), the A image and the B image detected by the focus detection pixels are received through the photographing optical system. Actually, the characteristics including the aberration of the photographing optical system are received by the focus detection pixel. The aberration information of the photographing optical system at each position in the Z direction (Z = Z5, 0, Z-5 in FIG. 9) is shown in FIG. In FIG. 10, the line image intensity distribution of the photographing optical system is shown as an example of the aberration information.
図10(a)の線像強度分布LSF_ABは、瞳分離されていない状態(A+B像)での線像強度分布を示しており、図10(b)の線像強度分布LSF_A、LSF_Bは、瞳分割された状態のA像、B像の線像強度分布を示している。また、実際に焦点検出画素において受光されるA像、B像は、各Z方向の位置(図10中、Z=Z5、0、Z−5)における線像強度分布LSF_A、LSF_Bと被写体信号が畳み込まれた信号である。被写体信号は、デフォーカス量に応じて変化しないので、A像、B像の単位横ずれ量[bit]に対する光軸方向の変化量[mm]である変換係数K[mm/bit]は、撮影光学系の収差情報が含まれた線像強度分布によって決定されるべき値である。 The line image intensity distribution LSF_AB in FIG. 10 (a) shows the line image intensity distribution in the state where the pupils are not separated (A + B image), and the line image intensity distributions LSF_A and LSF_B in FIG. 10 (b) are pupils. The line image intensity distribution of the A image and the B image in the divided state is shown. Further, the A image and the B image actually received by the focus detection pixel have the line image intensity distributions LSF_A and LSF_B at the positions in each Z direction (Z = Z5, 0, Z-5 in FIG. 10) and the subject signal. It is a convoluted signal. Since the subject signal does not change according to the amount of defocus, the conversion coefficient K [mm / bit], which is the amount of change [mm] in the optical axis direction with respect to the unit lateral displacement amount [bit] of the A image and the B image, is the photographing optics. It is a value to be determined by the line image intensity distribution including the aberration information of the system.
図9の例で示されるように、瞳分離像はZ方向の位置の符号(図9中、Z=Z5、Z−5)によってはP_A像とP_B像が入れ替わるだけで、変換係数Kは変化しない、すなわち、対称形状であった。これに対し、図10の例で示されるように、線像強度分布はZ方向の位置の符号(図10中、Z=Z5、Z−5)によって形状が異なるため、この符号によっても異なる変換係数を取得しなければならない。つまり、Z=Z5とZ=Z−5の絶対値は5で同一であるが、正であるZ=Z5と負であるZ=Z−5とでは、線像強度分布形状が異なる。 As shown in the example of FIG. 9, the conversion coefficient K of the pupil separation image changes only by exchanging the P_A image and the P_B image depending on the sign of the position in the Z direction (Z = Z5, Z-5 in FIG. 9). No, that is, it had a symmetrical shape. On the other hand, as shown in the example of FIG. 10, since the shape of the line image intensity distribution differs depending on the code of the position in the Z direction (Z = Z5, Z-5 in FIG. 10), the conversion also differs depending on this code. You have to get the coefficient. That is, the absolute values of Z = Z5 and Z = Z-5 are the same at 5, but the line image intensity distribution shape is different between the positive Z = Z5 and the negative Z = Z-5.
また、撮影光学系の収差が大きければ大きいほど、線像強度分布の値はZ方向の位置及び符号によって非対称形状になる。よって、本実施形態では、S12において、S11で取得された計算ステートにおける収差情報である図10(b)の線像強度分布を取得する。収差情報を取得するZ方向の位置、点数は任意であるが、S3で計算され得る像ずれ量Pを網羅するプレディクション量、デフォーカス範囲の収差情報を取得することが望ましい。但し、計算量が多くなることを鑑みて、例えば、像ずれ量Pの符号に応じて、収差情報の取得範囲を変更するなどしても良い。また、収差情報は線像強度分布の形状を表現する関数として表現し、カメラROMに記憶されているものでも良いし、また形状を表す代表的なパラメータ(半値幅やA像とB像の重心間隔)で表現されても良い。 Further, the larger the aberration of the photographing optical system, the more the value of the line image intensity distribution becomes an asymmetrical shape depending on the position and the sign in the Z direction. Therefore, in the present embodiment, in S12, the line image intensity distribution of FIG. 10B, which is the aberration information in the calculated state acquired in S11, is acquired. The position and the number of points in the Z direction for acquiring the aberration information are arbitrary, but it is desirable to acquire the aberration information in the prediction amount and the defocus range that covers the image shift amount P that can be calculated in S3. However, in view of the large amount of calculation, for example, the acquisition range of the aberration information may be changed according to the sign of the image shift amount P. Further, the aberration information is expressed as a function expressing the shape of the line image intensity distribution and may be stored in the camera ROM, or a typical parameter representing the shape (half width or the center of gravity of the A image and the B image). Interval) may be expressed.
次に、S13では、S12で取得されたA像、B像の線像強度分布LSF_A、LSF_Bに対して、収差情報の変換を行う。ここでは、デジタルフィルタ処理と、相関演算を行う。ここでのデジタルフィルタ処理は、S3の相関演算時に用いられたデジタルフィルタと同等のものをかける。これは、光学収差によって変化する線像強度分布の周波数変動を、デジタルフィルタ帯域に合わせて正しく検出して変換係数Kを計算するためである。図10(b)の線像強度分布に対して、フィルタ処理を行うと、図11のようにd_LSF_A、d_LSF_Bが得られる。 Next, in S13, aberration information is converted for the line image intensity distributions LSF_A and LSF_B of the A image and the B image acquired in S12. Here, digital filter processing and correlation calculation are performed. The digital filter processing here applies the same digital filter as that used at the time of the correlation calculation in S3. This is because the frequency fluctuation of the line image intensity distribution that changes due to optical aberration is correctly detected according to the digital filter band, and the conversion coefficient K is calculated. When the line image intensity distribution of FIG. 10B is filtered, d_LSF_A and d_LSF_B are obtained as shown in FIG.
さらに、それぞれのZ方向の位置(Z=Z5、0、Z−5)において、得られた収差情報(線像強度分布)のデジタルフィルタ後の波形に前述した方法で相関演算処理を施すことで、Z方向の位置毎の相関量LSF_Pを計算する。その結果を示したものが図12である。図12は、横軸に計算されたプレディクション量Pred[bit]、縦軸にデフォーカス量def[mm]をプロットした時のカーブ(以下、「プレディクションカーブ」と呼ぶ。)を示す図である。点線で示したグラフCuv1は、撮影光学系に収差がない場合(線像強度分布を図9に示した瞳分離像をA像、B像とした場合)のプレディクションカーブを示している。実線で示したグラフCuv2は、撮影光学系に収差がある場合(S12で得られた線像強度分布をA像、B像とした場合)のプレディクションカーブを示している。ここでは、例えば、Z方向の位置Z=Z5(def=5mm)において相関量LSF_P(5)=3、Z方向の位置Z=Z−5(def=−5mm)において相関量LSF_P(5)=−3.5であった場合のプレディクションカーブCuv2を図示している。 Further, at each position in the Z direction (Z = Z5, 0, Z-5), the waveform of the obtained aberration information (line image intensity distribution) after the digital filter is subjected to the correlation calculation processing by the method described above. , The correlation amount LSF_P for each position in the Z direction is calculated. The result is shown in FIG. FIG. 12 is a diagram showing a curve (hereinafter, referred to as “prediction curve”) when the calculated prediction amount Pred [bit] is plotted on the horizontal axis and the defocus amount def [mm] is plotted on the vertical axis. is there. The graph Cuv1 shown by the dotted line shows the prediction curve when there is no aberration in the photographing optical system (when the pupil separation image shown in FIG. 9 is the A image and the B image). The graph Cuv2 shown by the solid line shows the prediction curve when there is an aberration in the photographing optical system (when the line image intensity distribution obtained in S12 is an A image and a B image). Here, for example, the correlation amount LSF_P (5) = 3 at the position Z = Z5 (def = 5 mm) in the Z direction, and the correlation amount LSF_P (5) = 3 at the position Z = Z-5 (def = -5 mm) in the Z direction. The prediction curve Cuv2 when it is −3.5 is shown in the figure.
前述したように、撮影光学系の収差により、Z方向の位置の符号によってもプレディクションカーブの傾きは変化し(def=5mmとdef=−5mmでは、Predが異なる)、また、Z方向の位置によってもプレディクションカーブの傾きは異なる。図12に示すプレディクションカーブCuv2は、撮影光学系、撮影光学系のズーム位置、F値、フォーカスレンズ位置、デジタルフィルタ帯域によっても形状が異なるため、S11で取得された計算ステート、使用したデジタルフィルタごとに計算を行う。ここでは、収差情報である線像強度分布を、デフォーカス量±7mmの範囲を1mm刻みで取得し、プレディクションカーブを計算したとする。すると、図12のような黒丸のプロット点が得られ、補間計算、フィッティングによりプレディクションカーブCuv2を求めることができる。 As described above, due to the aberration of the photographing optical system, the slope of the prediction curve changes depending on the sign of the position in the Z direction (the Pred differs between def = 5 mm and def = -5 mm), and the position in the Z direction. The slope of the prediction curve also differs depending on the type. Since the shape of the prediction curve Cuv2 shown in FIG. 12 differs depending on the photographing optical system, the zoom position of the photographing optical system, the F value, the focus lens position, and the digital filter band, the calculation state acquired in S11 and the digital filter used are used. Calculate for each. Here, it is assumed that the line image intensity distribution, which is the aberration information, is acquired in the range of the defocus amount ± 7 mm in 1 mm increments, and the prediction curve is calculated. Then, the plot points of the black circles as shown in FIG. 12 are obtained, and the prediction curve Cuv2 can be obtained by interpolation calculation and fitting.
また、収差情報として、予め、線像強度分布をフィルタ処理した図12のようなプレディクションカーブの状態で保持しても良い。その場合には、デジタルフィルタの帯域によって変化するプレディクションカーブを複数保持し、デジタルフィルタの検出帯域に合わせたプレディクションカーブをカメラMPU125が選択する。
Further, as the aberration information, the line image intensity distribution may be held in the state of the prediction curve as shown in FIG. 12 which has been filtered in advance. In that case, a plurality of prediction curves that change depending on the band of the digital filter are held, and the
また、一般的に、デフォーカス量が大きくなると、プレディクションカーブCuv2はプレディクションカーブCuv1に漸近していく。よって、収差情報である線像強度分布の取得点数は、デフォーカス範囲が大きくなるごとに粗くなる、などとしても良い。また、S11で取得される計算ステートにおいて、一般的に、像高が高い(つまり、中央像高から離れれば離れる)ほど、撮影光学系の収差は大きくなるので、像高に応じて収差情報である線像強度分布の取得点数を増やす、などとしても良い。また、S11で取得される計算ステートにおいて、一般的に、F値が小さい場合には、撮影光学系の収差は大きくなるので、F値に応じて収差情報である線像強度分布の取得点数を増やす、などとしても良い。 Further, in general, as the defocus amount increases, the prediction curve Cuv2 gradually approaches the prediction curve Cuv1. Therefore, the number of acquisition points of the line image intensity distribution, which is aberration information, may become coarser as the defocus range increases. Further, in the calculation state acquired in S11, in general, the higher the image height (that is, the farther away from the central image height), the larger the aberration of the photographing optical system. It is also possible to increase the number of acquisition points of a certain line image intensity distribution. Further, in the calculation state acquired in S11, generally, when the F value is small, the aberration of the photographing optical system becomes large, so the number of acquisition points of the line image intensity distribution which is the aberration information is determined according to the F value. You can increase it.
次に、S14では変換係数Kを計算する。ここでは、S3で得られた像ずれ量Pに対応する変換係数Kを、S13で得られたプレディクションカーブから計算する。今、S3で得られた相関量がP=2.6[bit]であったので、図12のPred[bit]=2.6[bit]に相当するデフォーカス量def[mm]を計算する。補間計算方法は、プレディクションカーブCuv2のフィッティング関数から求めても良いし、近傍2点の補間による(図12ではdef=+4,+5の2点から補間)方法でも良い。ここでは、図12に示すようにPred[bit]=2.6[bit]に相当するデフォーカス量def[mm]=4.2[mm]として取得されたとする。すると、変換係数Kは
K[mm/bit]=4.2/2.6≒1.6 …(4)
Next, in S14, the conversion coefficient K is calculated. Here, the conversion coefficient K corresponding to the image shift amount P obtained in S3 is calculated from the prediction curve obtained in S13. Now, since the correlation amount obtained in S3 is P = 2.6 [bit], the defocus amount def [mm] corresponding to Pred [bit] = 2.6 [bit] in FIG. 12 is calculated. .. The interpolation calculation method may be obtained from the fitting function of the prediction curve Cuv2, or may be a method of interpolation of two neighboring points (interpolation from two points of def = + 4, + 5 in FIG. 12). Here, it is assumed that the defocus amount def [mm] = 4.2 [mm] corresponding to Pred [bit] = 2.6 [bit] is acquired as shown in FIG. Then, the conversion coefficient K is K [mm / bit] = 4.2 / 2.6≈1.6 ... (4)
として求めることができる。そして、図13に示すように、図12のプレディクションカーブに基づいて予め各Pred[bit]における変換係数Kの値を算出して記憶し、処理を終了する。そして、S4では、S3で検出された像ずれ量Pから対応する変換係数を選択する。なお、上述した変換係数Kの算出を、AFを行う都度、行うようにしても良い。その場合、プレディクションカーブから像ずれ量Pに対応するデフォーカス量が直接得られるので、上記式(4)及び式(3)を行わないようにすることができる。
上記の通り本第1の実施形態によれば、撮影光学系の収差情報によって変換係数を変更することを可能としたため、よりユーザーの意図にあった焦点検出の補正が可能である。
Can be obtained as. Then, as shown in FIG. 13, the value of the conversion coefficient K in each Pred [bit] is calculated and stored in advance based on the prediction curve of FIG. 12, and the process is completed. Then, in S4, the corresponding conversion coefficient is selected from the image shift amount P detected in S3. The conversion coefficient K described above may be calculated each time AF is performed. In that case, since the defocus amount corresponding to the image shift amount P can be directly obtained from the prediction curve, it is possible to avoid performing the above equations (4) and (3).
As described above, according to the first embodiment, since it is possible to change the conversion coefficient according to the aberration information of the photographing optical system, it is possible to correct the focus detection more according to the user's intention.
また、上述の説明では、補正値の計算を主にカメラMPU125で行ったが、本発明はこれに限られるものではなく。例えば、レンズMPU117で補正値の計算を行ってもよい。その場合には、カメラMPU125からレンズMPU117に対して収差情報を送信し、レンズMPU117内で、変換係数Kの算出を行う。その場合には、カメラMPU125から送信された合焦位置に対して、レンズMPU117が補正を施して、レンズ駆動を行えばよい。
Further, in the above description, the calculation of the correction value is mainly performed by the
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第2の実施形態は、変換係数Kの計算方法を収差の大小によって切り替える点が、第1の実施形態と異なる。なお、変換係数Kの計算方法を除く、撮像装置の構成や動作は第1の実施形態で説明したものと同様であるため、適宜説明を省略する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. The second embodiment is different from the first embodiment in that the calculation method of the conversion coefficient K is switched depending on the magnitude of the aberration. Since the configuration and operation of the image pickup apparatus are the same as those described in the first embodiment except for the calculation method of the conversion coefficient K, the description thereof will be omitted as appropriate.
第2の実施形態における変換係数Kの算出方法について、図14を用いて説明する。なお、図14において、第1の実施形態で説明した図5(b)における処理と同様の処理を行う工程には、図5(b)と同じ参照数字を付している。 The method of calculating the conversion coefficient K in the second embodiment will be described with reference to FIG. In FIG. 14, the same reference numbers as those in FIG. 5 (b) are attached to the steps of performing the same process as the process in FIG. 5 (b) described in the first embodiment.
S11では、前述した方法で、計算ステートの取得を行う。次に、S21では、S11で取得した変換係数Kを求める計算ステートが収差の大きいレンズステートであるか否かを判定する。レンズ交換式のカメラにおいては、全てのレンズ及び計算ステートにおいて、第1の実施形態で前述した変換係数Kの演算を施すと、カメラの演算負荷、記憶容量の増大を招いてしまう。そのため、変換係数Kの演算をするか否かを、レンズIDや、S11で取得した計算ステートによって切り替えることが考えられる。 In S11, the calculation state is acquired by the method described above. Next, in S21, it is determined whether or not the calculation state for obtaining the conversion coefficient K acquired in S11 is a lens state having a large aberration. In an interchangeable lens type camera, if the above-mentioned calculation of the conversion coefficient K in the first embodiment is performed in all the lenses and the calculation state, the calculation load and the storage capacity of the camera will increase. Therefore, it is conceivable to switch whether or not to calculate the conversion coefficient K depending on the lens ID and the calculation state acquired in S11.
収差の大小の判定フラグは、予めレンズ情報に付与され、レンズMPU117からカメラMPU125に送信されるものでも良いし、S11で取得されるステート毎に判定フラグが用意されても良い。また、撮影光学系の収差によって引き起こされる、最良像面とAF検出結果のずれ量(=ベストピント補正量(以下、BP補正量))の有無によって切り替えても良い。なお、BP補正量の発生方法、補正方法については特開2009−128843号公報などに開示されるように公知であるため、ここでの詳細な説明は省略する。さらに、収差には複数種別があり、例えば、球面収差、非点収差、色収差、コマ収差等があるが、収差要因ごとにレンズが大小の判別フラグを持ち、例えば、最も線像強度分布の形状に影響のある収差要因でS21の判別を行うなどとしても良い。
The determination flag of the magnitude of the aberration may be added to the lens information in advance and transmitted from the
BP補正も同様に、レンズ交換式のカメラにおいて、全てのレンズにおいて、BP補正を施すと、カメラの演算負荷、記憶容量の増大を招くため、BP補正をするか否かをレンズID、S11で取得した計算ステートによって切り替えることが考えられる。また、一般的には、BP補正値の大きいレンズに対しては、BP補正を施すことが多い。BP補正値は、主に撮影光学系の収差によって引き起こされるため、BP補正を施すレンズは撮影光学系の収差が大きいケースが多い。ここでは、前述した変換係数Kの算出処理の演算負荷を低減するため、収差の小さい(すなわち、撮影光学系の収差が少ない)レンズ、計算ステートに対しては、予め用意された変換係数Kを適用する。 Similarly, in an interchangeable lens camera, if BP correction is applied to all lenses, the calculation load and storage capacity of the camera will increase. Therefore, whether or not to perform BP correction is determined by the lens ID and S11. It is conceivable to switch depending on the acquired calculation state. Further, in general, a lens having a large BP correction value is often subjected to BP correction. Since the BP correction value is mainly caused by the aberration of the photographing optical system, the lens to which the BP correction is applied often has a large aberration of the photographing optical system. Here, in order to reduce the calculation load of the calculation process of the conversion coefficient K described above, a conversion coefficient K prepared in advance is used for the lens having a small aberration (that is, the aberration of the photographing optical system is small) and the calculation state. Apply.
このように、S21において収差の大小判定を行い、収差が大きいレンズ、計算ステートであればS12に進み、S12からS14において第1の実施形態と同様の処理を行う。一方、S21で収差が大きいレンズ、計算ステートでなければ、S22に進む。 In this way, the magnitude of the aberration is determined in S21, and if the lens has a large aberration or the calculation state, the process proceeds to S12, and the same processing as in the first embodiment is performed in S12 to S14. On the other hand, if the lens is not in the calculation state and the lens has a large aberration in S21, the process proceeds to S22.
S22では、瞳分離像から求めた変換係数Kを取得する。撮影光学系の収差が少ない場合、図9で示したように、光電変換部211a,211bから出力されると想定されているA像、B像は、瞳強度分布PI_A、PI_Bの相似形状である。よって、S22において、変換係数Kは、
変換係数K[mm/bit]=Zep/BL …(3)
In S22, the conversion coefficient K obtained from the pupil separation image is acquired. When the aberration of the photographing optical system is small, as shown in FIG. 9, the A image and the B image which are supposed to be output from the
Conversion coefficient K [mm / bit] = Zep / BL ... (3)
で求めることができる。S22では、変換係数Kを式(3)で求めた値として記憶し、処理を終了する。
上記の通り本第2の実施形態によれば、撮影光学系の収差の大小によって、簡易的に撮影光学系の収差の大小を判定し、変換係数を変更することを可能としたため、カメラMPU125の演算負荷を低減することができる。
Can be obtained at. In S22, the conversion coefficient K is stored as the value obtained by the equation (3), and the process ends.
As described above, according to the second embodiment, the magnitude of the aberration of the photographing optical system can be easily determined based on the magnitude of the aberration of the photographing optical system, and the conversion coefficient can be changed. The calculation load can be reduced.
<他の実施形態>
なお、本発明は、複数の機器から構成されるシステムに適用しても、一つの機器からなる装置に適用してもよい。
<Other Embodiments>
The present invention may be applied to a system composed of a plurality of devices or a device composed of one device.
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:レンズユニット、104:フォーカスレンズ、113:フォーカスアクチュエータ、117:レンズMPU、118:レンズメモリ、120:カメラ本体、122:撮像素子、125:カメラMPU、129:撮像面位相差検出部 100: Lens unit, 104: Focus lens, 113: Focus actuator, 117: Lens MPU, 118: Lens memory, 120: Camera body, 122: Imaging element, 125: Camera MPU, 129: Imaging surface phase difference detector
Claims (15)
前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換手段と、
前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、を有し、
前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする焦点検出装置。 Based on the correlation amount of a pair of pupil-divided signals obtained from an imaging element that has a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts light incident through the photographing optical system. A detection means for detecting a signed image shift amount indicating the defocus direction in the optical axis direction, and
The image shift amount with the code, the conversion factor, conversion means for converting the defocus amount of the optical axis direction,
It has a calculation means for calculating the conversion coefficient corresponding to each signed image shift amount based on the aberration information of the photographing optical system.
The conversion means is a focus detection device that uses the conversion coefficient corresponding to the signed image shift amount detected by the detection means for the conversion.
前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する変換係数を前記記憶手段から読み出して、前記変換に用いることを特徴とする請求項1に記載の焦点検出装置。 The calculation means calculates the conversion coefficient for a plurality of different signed image shift amounts, stores the calculated conversion coefficient in the storage means, and stores the calculated conversion coefficient in the storage means.
The focus detection device according to claim 1, wherein the conversion means reads out a conversion coefficient corresponding to the signed image shift amount detected by the detection means from the storage means and uses it for the conversion. ..
前記変換手段は、該算出された変換係数を前記変換に用いることを特徴とする請求項1に記載の焦点検出装置。 The calculation means calculates a conversion coefficient according to the signed image shift amount detected by the detection means.
The focus detection device according to claim 1, wherein the conversion means uses the calculated conversion coefficient for the conversion.
前記撮像素子から、瞳分割された一対の信号を取得可能に読み出す読み出し手段と、
請求項1乃至9のいずれか1項に記載の焦点検出装置と
を有することを特徴とする撮像装置。 An image pickup element that has a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts the light incident through the photographing optical system.
A reading means for retrievably reading a pair of pupil-divided signals from the image sensor.
An imaging device comprising the focus detection device according to any one of claims 1 to 9.
前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、
前記変換されたデフォーカス量に基づいてレンズを駆動することにより、焦点調節を行う合焦手段と、を有し、
前記変換手段は、前記検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とするレンズユニット。 The image shift amount with a code indicating the defocus direction of the detected direction of the optical axis based on the correlation of a pair of signals based on the light having passed through different pupil regions of the photographing optical system, the conversion coefficient, the optical axis direction Conversion means to convert to the amount of defocus of
A calculation means for calculating the conversion coefficient corresponding to each signed image shift amount based on the aberration information of the photographing optical system, and
It has a focusing means for adjusting the focus by driving the lens based on the converted defocus amount.
The conversion means is a lens unit characterized in that the conversion coefficient corresponding to the detected signed image shift amount is used for the conversion.
前記撮像装置が、
複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、撮影光学系を介して入射する光を光電変換する撮像素子と、
前記撮像素子から、瞳分割された一対の信号を取得可能に読み出す読み出し手段と、
前記一対の信号の相関量に基づいて、光軸方向のデフォーカス方向を示す符号付きの像ずれ量を検出する検出手段と、を有し、
レンズユニットが、
前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換手段と、
前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出手段と、
前記変換されたデフォーカス量に基づいてレンズを駆動することにより、焦点調節を行う合焦手段と、を有し、
前記変換手段は、前記検出手段により検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする撮像システム。 An imaging system that includes an imaging device and a lens unit.
The image pickup device
An image pickup element that has a plurality of photoelectric conversion units for each of the plurality of microlenses and photoelectrically converts the light incident through the photographing optical system.
A reading means for retrievably reading a pair of pupil-divided signals from the image sensor.
It has a detecting means for detecting a signed image shift amount indicating a defocus direction in the optical axis direction based on a correlation amount of the pair of signals.
The lens unit
The image shift amount with the code, the conversion factor, conversion means for converting the defocus amount of the optical axis direction,
A calculation means for calculating the conversion coefficient corresponding to each signed image shift amount based on the aberration information of the photographing optical system, and
It has a focusing means for adjusting the focus by driving the lens based on the converted defocus amount.
The conversion means is an imaging system characterized in that the conversion coefficient corresponding to the signed image shift amount detected by the detection means is used for the conversion.
検出手段が、前記一対の信号の相関量に基づいて、光軸方向のデフォーカス方向を示す符号付きの像ずれ量を検出する検出工程と、
変換手段が、前記符号付きの像ずれ量を、変換係数により、前記光軸方向のデフォーカス量に変換する変換工程と、
算出手段が、前記撮影光学系の収差情報に基づいて、符号付きの像ずれ量それぞれに対応する前記変換係数を算出する算出工程と、を有し、
前記変換工程では、前記検出工程で検出された前記符号付きの像ずれ量に対応する前記変換係数を前記変換に用いることを特徴とする焦点検出方法。 The readout means includes a plurality of photoelectric conversion units for each of the plurality of microlenses, and reads out a pair of pupil-divided signals from an image sensor that photoelectrically converts the light incident through the photographing optical system. Process and
A detection step in which the detection means detects a signed image shift amount indicating a defocus direction in the optical axis direction based on the correlation amount of the pair of signals.
Conversion means, a conversion step of converting the image shift amount with the code, the conversion factor, the defocus amount of the optical axis direction,
The calculation means includes a calculation step of calculating the conversion coefficient corresponding to each of the signed image shift amounts based on the aberration information of the photographing optical system.
In the conversion step, the focus detection method is characterized in that the conversion coefficient corresponding to the signed image shift amount detected in the detection step is used for the conversion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016205469A JP6854619B2 (en) | 2016-10-19 | 2016-10-19 | Focus detection device and method, imaging device, lens unit and imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016205469A JP6854619B2 (en) | 2016-10-19 | 2016-10-19 | Focus detection device and method, imaging device, lens unit and imaging system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018066864A JP2018066864A (en) | 2018-04-26 |
JP2018066864A5 JP2018066864A5 (en) | 2019-11-21 |
JP6854619B2 true JP6854619B2 (en) | 2021-04-07 |
Family
ID=62086085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016205469A Active JP6854619B2 (en) | 2016-10-19 | 2016-10-19 | Focus detection device and method, imaging device, lens unit and imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6854619B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020003686A (en) * | 2018-06-29 | 2020-01-09 | キヤノン株式会社 | Focus detection device, imaging apparatus, and interchangeable lens device |
JP7206668B2 (en) * | 2018-07-20 | 2023-01-18 | 株式会社ニコン | camera body and interchangeable lens |
JP2020060470A (en) * | 2018-10-11 | 2020-04-16 | キヤノン株式会社 | Aberration estimation method, aberration estimation device, program, and storage medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6116151B2 (en) * | 2012-07-31 | 2017-04-19 | キヤノン株式会社 | Distance detector |
JP5942697B2 (en) * | 2012-08-21 | 2016-06-29 | 株式会社ニコン | Focus detection apparatus and imaging apparatus |
JP6362060B2 (en) * | 2013-07-01 | 2018-07-25 | キヤノン株式会社 | Imaging apparatus, control method thereof, and program |
-
2016
- 2016-10-19 JP JP2016205469A patent/JP6854619B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018066864A (en) | 2018-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102053305B1 (en) | Imaging optical system | |
JP6478457B2 (en) | Focus adjustment device and focus adjustment method | |
EP3018516B1 (en) | Image capturing apparatus and method for controlling image capturing apparatus | |
JP6429546B2 (en) | Imaging apparatus, control method, program, and storage medium | |
TWI548272B (en) | Image capture apparatus and method for controlling image capture apparatus | |
JP6682310B2 (en) | Focus detection apparatus and method, and imaging apparatus | |
JP6298362B2 (en) | Imaging apparatus, control method therefor, and imaging system | |
JP6843604B2 (en) | Information processing device and information processing method | |
JP6464118B2 (en) | Focus detection apparatus and method, imaging apparatus, and lens unit | |
JP6854619B2 (en) | Focus detection device and method, imaging device, lens unit and imaging system | |
JP6890937B2 (en) | Focus detector, image pickup device, and focus detection method | |
JP6484004B2 (en) | Imaging apparatus and control method thereof, imaging optical system and control method thereof | |
JP7037271B2 (en) | Focus detectors and focus detectors, imaging devices, programs and storage media | |
JP6744933B2 (en) | Lens part and its control method | |
JP6685769B2 (en) | Information processing device, imaging device, and information processing method | |
JP2019200348A (en) | Imaging device and control method for imaging device | |
JP6686191B2 (en) | Focus detection device, imaging device, and focus detection method | |
JP6686239B1 (en) | Lens unit, transmitter, and receiver | |
JP6548626B2 (en) | Image pickup apparatus, control method for image pickup apparatus, and focus control program | |
JP6415054B2 (en) | Imaging apparatus and imaging method | |
JP2020003686A (en) | Focus detection device, imaging apparatus, and interchangeable lens device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191010 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191010 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201124 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6854619 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |