JP5737356B2 - Focus adjustment device and camera - Google Patents

Focus adjustment device and camera Download PDF

Info

Publication number
JP5737356B2
JP5737356B2 JP2013207283A JP2013207283A JP5737356B2 JP 5737356 B2 JP5737356 B2 JP 5737356B2 JP 2013207283 A JP2013207283 A JP 2013207283A JP 2013207283 A JP2013207283 A JP 2013207283A JP 5737356 B2 JP5737356 B2 JP 5737356B2
Authority
JP
Japan
Prior art keywords
signal
focus detection
image
detection sensor
exit pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013207283A
Other languages
Japanese (ja)
Other versions
JP2014032414A5 (en
JP2014032414A (en
Inventor
渡邉 利巳
利巳 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013207283A priority Critical patent/JP5737356B2/en
Publication of JP2014032414A publication Critical patent/JP2014032414A/en
Publication of JP2014032414A5 publication Critical patent/JP2014032414A5/en
Application granted granted Critical
Publication of JP5737356B2 publication Critical patent/JP5737356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、焦点調節装置及びカメラに関する The present invention relates to a focus adjustment device and a camera.

マイクロレンズを用いた瞳分割方式で焦点検出を行う撮像装置では、光電変換部が受光すべき焦点検出光束に光学系の口径食が発生し、瞳分割によりえられる一対の画像出力が不均一になることがある。この一対の画像出力が不均一になると相関演算により算出される位相差の精度が低下し、正確な焦点検出が困難になる。
そこで、特許文献1には、均一輝度面を同光学系で撮像した場合の一対の画像出力を基準データとして予め用意しておき、撮像した一対の画像出力を基準データに基づいて補正を行い、補正した一対の画像出力を用いて焦点位置の検出を行う撮像装置が提案されている。
In an imaging device that performs focus detection using a pupil division method using a microlens, the vignetting of the optical system occurs in the focus detection light beam that the photoelectric conversion unit should receive, and the pair of image outputs obtained by pupil division is uneven. May be. If the pair of image outputs are non-uniform, the accuracy of the phase difference calculated by the correlation calculation is lowered, and accurate focus detection becomes difficult.
Therefore, in Patent Document 1, a pair of image outputs when a uniform luminance surface is imaged with the same optical system is prepared in advance as reference data, and the pair of image outputs captured is corrected based on the reference data. An imaging apparatus that detects a focal position using a pair of corrected image outputs has been proposed.

特開2002−131623号公報JP 2002-131623 A

しかしながら、撮像レンズの射出瞳位置、瞳形状、収差、及び撮影時の絞りと、マイクロレンズの形状、及び収差との影響により撮影時の光学系の状態に応じて基準データが異なるので、撮影時の状態ごとに基準データを複数用意する必要がある。例えば、レンズ交換方式の撮像装置の場合、取り付けるレンズに応じて予め基準データを用意する必要がある。また、対応する基準データがないレンズを用いて撮影した場合には、正確な焦点検出を行うことが困難になるという問題がある。   However, because the reference data differs depending on the state of the optical system at the time of shooting due to the influence of the exit pupil position, pupil shape, aberration, and aperture at the time of shooting, and the shape and aberration of the microlens, It is necessary to prepare a plurality of reference data for each state. For example, in the case of an imaging apparatus of a lens exchange type, it is necessary to prepare reference data in advance according to the lens to be attached. In addition, when photographing is performed using a lens that does not have corresponding reference data, there is a problem that it is difficult to perform accurate focus detection.

本発明は、上記問題を解決すべくなされたもので、その目的は、予め基準データを用意せずとも焦点検出の精度を向上させる焦点調節装置及びカメラを提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a focus adjustment device and a camera that improve the accuracy of focus detection without preparing reference data in advance.

[1]上記問題を解決するために、本発明は、第1射出瞳領域からの光束を受光する第1焦点検出センサと、第2射出瞳領域からの光束を受光する第2焦点検出センサと、前記第1焦点検出センサ及び前記第2焦点検出センサの近傍に備えられ射出瞳からの光束を受光する撮像センサとを有する撮像素子と、前記第1焦点検出センサが出力する第1信号に対応する第1像前記撮像センサが出力する第3信号対応する第3像とのズレ、及び、前記第2焦点検出センサが出力する第2信号に対応する第2像と前記第3像とのズレを演算する演算部と、前記演算部により演算された前記第1像と前記第3像とのズレ、前記第3信号及び前記第1信号を用いて第1補正信号を生成し、前記演算部により演算された前記第2像と前記第3像とのズレ、前記第3信号及び前記第2信号を用いて第2補正信号を生成する補正信号生成部と、前記第1補正信号と前記第2補正信号とを用いて、デフォーカス量を演算するデフォーカス演算部とを備えることを特徴とする焦点調節装置である。
[2]また、本発明は、第1射出瞳領域からの光束を受光し第1信号を出力する第1焦点検出センサと、第2射出瞳領域からの光束を受光し第2信号を出力する第2焦点検出センサと、前記第1焦点検出センサ及び前記第2焦点検出センサの近傍に備えられ射出瞳からの光束を受光し第3信号を出力する撮像センサとを有する撮像素子と、前記第1信号と前記第3信号とのズレ、及び、前記第2信号と前記第3信号とのズレを演算する演算部と、前記演算部により演算された前記第1信号と前記第3信号とのズレ、前記第3信号及び前記第1信号を用いて得られた第1補正信号と、前記演算部により演算された前記第2信号と前記第3信号とのズレ、前記第3信号及び前記第2信号を用いて得られた第2補正信号とを用いて、デフォーカス量を演算するデフォーカス演算部とを備えることを特徴とする焦点調節装置である。
]また、本発明は、上記に記載の焦点調節装置を含むことを特徴とするカメラである。
[1] In order to solve the above problem, the present invention provides a first focus detection sensor that receives a light beam from the first exit pupil region, and a second focus detection sensor that receives a light beam from the second exit pupil region. Corresponding to a first signal output from the first focus detection sensor and an image sensor having an image sensor provided near the first focus detection sensor and the second focus detection sensor and receiving a light beam from an exit pupil. the first image and the deviation between the third image corresponding to the third signal by the imaging sensor outputs, and a second image corresponding to the second signal, wherein the second focus detection sensor outputs a third image that of the arithmetic unit you calculating the deviation, the before and Ki演 calculated the first image that is calculated by the unit third image and the deviation, the first correction signal using the third signal and the first signal The deviation between the second image and the third image generated and calculated by the calculation unit Using a correction signal generator for generating a second correction signal using the third signal and the second signal, the first correction signal and the second correction signal, defocus calculation for calculating a defocus amount And a focus adjustment device.
[2] The present invention also receives a light beam from the first exit pupil region and outputs a first signal, and receives a light beam from the second exit pupil region and outputs a second signal. An image sensor comprising: a second focus detection sensor; and an image sensor provided in the vicinity of the first focus detection sensor and the second focus detection sensor for receiving a light beam from an exit pupil and outputting a third signal; A calculation unit that calculates a shift between one signal and the third signal and a shift between the second signal and the third signal; and the first signal and the third signal calculated by the calculation unit Deviation, the third signal and the first correction signal obtained using the first signal, the deviation between the second signal and the third signal calculated by the calculation unit, the third signal and the first signal The defocus amount using the second correction signal obtained by using the two signals A focusing device, characterized in that it comprises a defocus calculation unit that calculates.
[ 3 ] Further, the present invention is a camera characterized by including the focus adjustment device described above.

この発明によれば、予め基準データを用意せずとも焦点検出の制度を向上させることができる。   According to the present invention, it is possible to improve the focus detection system without preparing reference data in advance.

同実施形態における撮像装置201の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the imaging device 201 in the embodiment. 同実施形態における撮像装置201の焦点検出位置の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the focus detection position of the imaging device 201 in the embodiment. 同実施形態における撮像素子212の構成例を示す概略図である。FIG. 2 is a schematic diagram illustrating a configuration example of an image sensor 212 in the same embodiment. 同実施形態における撮像センサ310の一構成例の断面図である。It is sectional drawing of the example of 1 structure of the image sensor 310 in the embodiment. 同実施形態における焦点検出センサ311の一構成例の断面図である。It is sectional drawing of one structural example of the focus detection sensor 311 in the embodiment. 同実施形態における撮像センサ310と射出瞳の関係を示す図である。It is a figure which shows the relationship between the imaging sensor 310 in the same embodiment, and an exit pupil. 同実施形態における焦点検出センサ311と射出瞳の関係を示す図である。It is a figure which shows the relationship between the focus detection sensor 311 and the exit pupil in the embodiment. 同実施形態における撮像素子212の撮像センサ310が受光する光束内の光線分布を示す図である。It is a figure which shows the light ray distribution in the light beam which the image sensor 310 of the image sensor 212 in the embodiment light-receives. 同実施形態における撮像素子212の焦点検出センサ311が受光する光束内の光線分布を示す図である。It is a figure which shows the light ray distribution in the light beam which the focus detection sensor 311 of the image pick-up element 212 in the embodiment light-receives. 同実施形態における一様輝度の被写体を撮像した際の焦点検出センサ311の出力例を示す図である。It is a figure which shows the example of an output of the focus detection sensor 311 at the time of imaging the object of uniform brightness | luminance in the same embodiment. 同実施形態における撮像素子212における撮像センサ310と焦点検出センサ311との配置の一例を示す図である。It is a figure showing an example of arrangement of image sensor 310 and focus detection sensor 311 in image sensor 212 in the embodiment. 同実施形態における撮像センサ310及び焦点検出センサ311それぞれの分光感度特性を示すグラフである。4 is a graph showing spectral sensitivity characteristics of an imaging sensor 310 and a focus detection sensor 311 in the embodiment. 同実施形態におけるケラレが発生していない状態における撮像センサ310による基準信号と、焦点検出センサ311による一対の第1信号及び第2信号との一例を示す図である。5 is a diagram illustrating an example of a reference signal from the imaging sensor 310 and a pair of first signal and second signal from the focus detection sensor 311 in a state where no vignetting occurs in the embodiment. FIG. 同実施形態におけるケラレが発生している状態における基準信号、第1信号及び第2信号の一例を示す図である。It is a figure which shows an example of the reference signal in the state in which the vignetting has generate | occur | produced in the same embodiment, the 1st signal, and the 2nd signal. 図14に示した基準信号と第1信号との出力比を算出する領域を示した図である。It is the figure which showed the area | region which calculates the output ratio of the reference signal shown in FIG. 14, and a 1st signal. 図15に示した基準信号1401と第1信号1402とそれぞれの出力比、及び基準信号1401と第2信号1403との出力比を示す図である。FIG. 16 is a diagram illustrating an output ratio between the reference signal 1401 and the first signal 1402 illustrated in FIG. 15 and an output ratio between the reference signal 1401 and the second signal 1403; 同実施形態における撮像装置201の焦点検出処理を示すフローチャートである。4 is a flowchart showing focus detection processing of the imaging apparatus 201 in the embodiment. 変形例における撮像素子212上の焦点検出センサ311の配置を示す図である。It is a figure which shows arrangement | positioning of the focus detection sensor 311 on the image pick-up element 212 in a modification.

以下、本発明の一実施形態による撮像装置を図面を参照して説明する。
図1は、同実施形態における撮像装置201の構成を示す概略ブロック図である。本実施形態では、レンズ交換式の撮像装置の場合について説明する。図示するように、撮像装置201には、交換レンズ202がマウント部204を介してカメラボディ203に取り付けられている。
Hereinafter, an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic block diagram showing the configuration of the imaging apparatus 201 in the same embodiment. In the present embodiment, the case of an image pickup apparatus with interchangeable lenses will be described. As shown in the figure, an imaging lens 201 has an interchangeable lens 202 attached to a camera body 203 via a mount unit 204.

交換レンズ202は、レンズ209と、ズーミング用レンズ208と、フォーカシング用レンズ210と、絞り211と、レンズ駆動制御部206とを備えている。レンズ駆動制御部206は、マウント部204の電気接点213を介してカメラボディ203から送信されるレンズ駆動信号に応じて、ズーミング用レンズ208、フォーカシング用レンズ210及び絞り211を駆動する。また、駆動制御部206は、レンズ駆動信号に含まれるフォーカシング用レンズ210の駆動量を示す情報に基づいてフォーカシング用レンズ210を合焦点に移動させる。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, a diaphragm 211, and a lens drive control unit 206. The lens drive control unit 206 drives the zooming lens 208, the focusing lens 210, and the diaphragm 211 in accordance with a lens drive signal transmitted from the camera body 203 via the electrical contact 213 of the mount unit 204. Further, the drive control unit 206 moves the focusing lens 210 to a focal point based on information indicating the driving amount of the focusing lens 210 included in the lens driving signal.

カメラボディ203は、撮像素子212と、ボディ制御部214と、表示装置駆動部215と、表示装置216と、接眼レンズ217と、画像情報メモリ218とを備えている。
撮像素子212は、交換レンズ202を介して入射する被写体からの光束が結像する予定結像面に配置され、結像した像の光量に応じた電気信号を出力する光電変換を行う。また、撮像素子212には、マイクロレンズ方式の撮像センサがマトリックス状に配置されると共に、複数の焦点検出位置に対応した領域にマイクロレンズ方式の焦点検出センサが配置されている。
The camera body 203 includes an imaging device 212, a body control unit 214, a display device driving unit 215, a display device 216, an eyepiece lens 217, and an image information memory 218.
The imaging element 212 is arranged on a planned imaging plane on which a light beam from a subject incident through the interchangeable lens 202 is imaged, and performs photoelectric conversion that outputs an electrical signal corresponding to the amount of light of the imaged image. In addition, in the imaging device 212, microlens imaging sensors are arranged in a matrix, and microlens focus detection sensors are arranged in regions corresponding to a plurality of focus detection positions.

ボディ制御部214は、撮像装置201全体の制御を行うと共に、撮像素子212から光電変換された信号を読み出し、読み出した信号に基づいて交換レンズ202の焦点調節状態(デフォーカス量)を算出し、検出したデフォーカス量に応じたレンズ駆動信号をマウント部204の電気接点213を介してレンズ駆動制御部206に送信して、レンズ駆動制御部206にオートフォーカス制御を行わせる。このレンズ駆動信号は、フォーカシング用レンズ210を合焦点に移動させるための駆動量を示す情報が含まれている。また、フォーカシング用レンズ210を合焦点に移動させることにより、交換レンズ202を介して入射する被写体からの光束が撮像素子212において結像する。
また、ボディ制御部214は、撮像素子212から光電変換された信号を読み出し、読み出した信号に基づく画像データを表示装置駆動部215に出力すると共に、当該画像データを画像情報メモリ218に記憶させる。
The body control unit 214 controls the entire imaging apparatus 201, reads a signal photoelectrically converted from the imaging element 212, calculates a focus adjustment state (defocus amount) of the interchangeable lens 202 based on the read signal, A lens drive signal corresponding to the detected defocus amount is transmitted to the lens drive control unit 206 via the electrical contact 213 of the mount unit 204 to cause the lens drive control unit 206 to perform autofocus control. The lens drive signal includes information indicating a drive amount for moving the focusing lens 210 to a focal point. Further, by moving the focusing lens 210 to the in-focus point, the light flux from the subject incident through the interchangeable lens 202 forms an image on the image sensor 212.
In addition, the body control unit 214 reads out the photoelectrically converted signal from the image sensor 212, outputs image data based on the read signal to the display device driving unit 215, and stores the image data in the image information memory 218.

また、ボディ制御部214は、画像データ生成部241と、ズレ量算出部242と、信号補正部243と、AF(Auto Focus;自動焦点)制御部244とを有している。
画像データ生成部241は、撮像素子212が有する撮像センサから読み出す信号から基準信号(第3信号)を生成すると共に、撮像素子212が有する焦点検出センサから読み出す信号から焦点検出に用いる第1信号及び第2信号を出力する。また、画像データ生成部241は、撮像素子212の撮像センサの信号に基づく画像データを表示装置駆動部215に出力すると共に、当該画像データを画像情報メモリ218に記憶させる。
The body control unit 214 includes an image data generation unit 241, a deviation amount calculation unit 242, a signal correction unit 243, and an AF (Auto Focus) control unit 244.
The image data generation unit 241 generates a reference signal (third signal) from the signal read from the image sensor included in the image sensor 212, and uses the first signal used for focus detection from the signal read from the focus detection sensor included in the image sensor 212, and The second signal is output. Further, the image data generation unit 241 outputs image data based on the signal from the image sensor of the image sensor 212 to the display device drive unit 215 and stores the image data in the image information memory 218.

ズレ量算出部242は、第1信号が示す像と、基準信号が示す像との相対的なズレ量(位相差)を示す像ズレ量s1(第1像ズレ量)を相関演算により算出する。また、ズレ量算出部242は、第1信号と同様に、第2信号の像ズレ量s2(第2像ズレ量)を算出し、算出した像ズレ量s2を用いて第2信号を補正した第2ズレ補正画像データを算出する。この像ズレ量s1及び像ズレ量s2の算出は、具体的には、2つの像を画素単位で相対的に移動させながら、2つの像の相関値を求め、相関値が最も高くなる移動量をズレ量とする。このとき、ズレ量算出部242は、像全体を画素単位で移動させるのではなく、像を予め定められた領域に分割し、分割した領域ごとに相関値を算出し、演算量を削減させる。   The deviation amount calculation unit 242 calculates an image deviation amount s1 (first image deviation amount) indicating a relative deviation amount (phase difference) between the image indicated by the first signal and the image indicated by the reference signal by correlation calculation. . Further, similarly to the first signal, the shift amount calculation unit 242 calculates an image shift amount s2 (second image shift amount) of the second signal, and corrects the second signal using the calculated image shift amount s2. Second misalignment corrected image data is calculated. The calculation of the image displacement amount s1 and the image displacement amount s2 is specifically performed by obtaining the correlation value between the two images while relatively moving the two images in units of pixels, and the movement amount at which the correlation value becomes the highest. Is the amount of deviation. At this time, the shift amount calculation unit 242 does not move the entire image in units of pixels, but divides the image into predetermined regions, calculates a correlation value for each divided region, and reduces the calculation amount.

信号補正部243は、ズレ量算出部242が算出した像ズレ量s1と、第1信号と、基準信号とを用いて、第1信号に生じているケラレを補正する第1補正値を算出する。そして、信号補正部243は、算出した第1補正値により第1信号を補正した第1補正信号を算出する。
また、信号補正部243は、像ズレ量s2と、第2信号と、基準信号とを用いて、第2信号に生じているケラレを補正する第2補正値を算出する。そして、信号補正部243は、算出した第2補正値により第2信号を補正し第2補正値を算出する。
The signal correction unit 243 uses the image shift amount s1 calculated by the shift amount calculation unit 242, the first signal, and the reference signal to calculate a first correction value that corrects vignetting occurring in the first signal. . Then, the signal correction unit 243 calculates a first correction signal obtained by correcting the first signal with the calculated first correction value.
In addition, the signal correction unit 243 calculates a second correction value that corrects vignetting generated in the second signal, using the image shift amount s2, the second signal, and the reference signal. Then, the signal correction unit 243 corrects the second signal with the calculated second correction value to calculate a second correction value.

ここで、ケラレとは、本明細書において、交換レンズ202の射出瞳の位置、形状、及びレンズ収差と、撮像素子212に設けられているマイクロレンズの形状、レンズ収差及び投影特性などにより、焦点検出センサの光電変換素子が受光する光束に口径食により光量が減少することをいう。そして、ケラレの補正とは、ケラレにより光電変換素子が出力する信号レベルの低下を第1補正値及び第2補正値により補正して基準信号の信号レベルに近づけることでケラレの影響を低減させることである。   Here, the vignetting is a focal point in this specification based on the position, shape, and lens aberration of the exit pupil of the interchangeable lens 202, the shape of the microlens provided in the image sensor 212, the lens aberration, the projection characteristics, and the like. It means that the amount of light decreases due to vignetting in the light beam received by the photoelectric conversion element of the detection sensor. The vignetting correction is to reduce the influence of the vignetting by correcting the decrease in the signal level output from the photoelectric conversion element by the vignetting by the first correction value and the second correction value and bringing it close to the signal level of the reference signal. It is.

AF制御部244は、第1補正信号が示す像と、第2補正信号が示す像との像ズレ量s3を算出し、算出した像ズレ量s3に予め定められた係数を乗じてデフォーカス量を算出する。また、AF制御部244は、算出したデフォーカス量に基づいてレンズ駆動量を算出し、算出したレンズ駆動量を示す情報を含むレンズ駆動信号をレンズ駆動制御部206に送信する。
ここで、デフォーカス量を算出する際に用いる係数は、シミュレーション、実測により予め算出された像ズレ量s3とデフォーカス量との相関を示す値である。
The AF control unit 244 calculates an image shift amount s3 between the image indicated by the first correction signal and the image indicated by the second correction signal, and multiplies the calculated image shift amount s3 by a predetermined coefficient to determine the defocus amount. Is calculated. Further, the AF control unit 244 calculates a lens drive amount based on the calculated defocus amount, and transmits a lens drive signal including information indicating the calculated lens drive amount to the lens drive control unit 206.
Here, the coefficient used when calculating the defocus amount is a value indicating the correlation between the image shift amount s3 and the defocus amount, which are calculated in advance by simulation and actual measurement.

表示装置駆動部215は、ボディ制御部21から入力された画像データを電気的ビューファインダの表示装置216に表示させて、被写体像などを接眼レンズ217を介して出力する。撮影者は、接眼レンズ217を通して表示装置216に表示される被写体を視認する。   The display device driving unit 215 displays the image data input from the body control unit 21 on the display device 216 of the electric viewfinder, and outputs a subject image or the like via the eyepiece 217. The photographer visually recognizes the subject displayed on the display device 216 through the eyepiece lens 217.

図2は、同実施形態における撮像装置201の焦点検出位置の配置例を示す図である。図示するように、撮像装置201は、撮影画面300に5つの焦点検出位置を有している。撮像装置201は、撮影画面300の中央に焦点検出位置301を有し、上下周辺部に焦点検出位置302、303を有し、左右周辺部に焦点検出位置304、305を有している。   FIG. 2 is a diagram illustrating an arrangement example of focus detection positions of the imaging apparatus 201 in the embodiment. As illustrated, the imaging apparatus 201 has five focus detection positions on the shooting screen 300. The imaging apparatus 201 has a focus detection position 301 in the center of the shooting screen 300, focus detection positions 302 and 303 in the upper and lower peripheral portions, and focus detection positions 304 and 305 in the left and right peripheral portions.

図3は、同実施形態における撮像素子212の構成例を示す概略図である。撮像素子212には、撮像センサ310がマトリックス状に配置され、図2において示した焦点検出位置301〜305には、焦点検出センサ311が列状に配置されている。撮像センサ310は、マイクロレンズ10と光電変換素子11とを備えている。焦点検出センサ311は、マイクロレンズ10と一対の光電変換素子12、13とを備えている。
撮像センサ310は、例えば、撮像装置201が撮像する画像の各画素と対応する。なお、焦点検出センサ311が配置されている画素には、近傍の撮像センサ310から読み出す信号に基づいて補間された値が用いられる。
FIG. 3 is a schematic diagram illustrating a configuration example of the image sensor 212 in the embodiment. In the imaging element 212, imaging sensors 310 are arranged in a matrix, and focus detection sensors 311 are arranged in rows at the focus detection positions 301 to 305 shown in FIG. The image sensor 310 includes a microlens 10 and a photoelectric conversion element 11. The focus detection sensor 311 includes a microlens 10 and a pair of photoelectric conversion elements 12 and 13.
The imaging sensor 310 corresponds to each pixel of an image captured by the imaging device 201, for example. Note that a value interpolated based on a signal read from a nearby imaging sensor 310 is used for a pixel in which the focus detection sensor 311 is disposed.

図4は、同実施形態における撮像センサ310の一構成例の断面図である。撮像センサ310において、マイクロレンズ10は、撮像用の光電変換素子11の前方(被写体側)に配置されている。
図5は、同実施形態における焦点検出センサ311の一構成例の断面図である。焦点検出センサ311において、マイクロレンズ10は、焦点検出用の光電変換素子12、13の前方に配置されている。
FIG. 4 is a cross-sectional view of a configuration example of the image sensor 310 in the embodiment. In the imaging sensor 310, the microlens 10 is disposed in front of the photoelectric conversion element 11 for imaging (subject side).
FIG. 5 is a cross-sectional view of a configuration example of the focus detection sensor 311 in the same embodiment. In the focus detection sensor 311, the microlens 10 is disposed in front of the photoelectric conversion elements 12 and 13 for focus detection.

図6は、同実施形態における撮像センサ310と射出瞳の関係を示す図である。交換レンズ202の光軸91上に配置され、マイクロレンズ50(10)及び光電変換素子51(11)を有する撮像センサ310と、光軸91から外れて配置され、マイクロレンズ60(10)及び光電変換素子61(11)を有する撮像センサ310とを模式的に例示して説明する。   FIG. 6 is a diagram illustrating a relationship between the imaging sensor 310 and the exit pupil in the embodiment. An imaging sensor 310 disposed on the optical axis 91 of the interchangeable lens 202 and having the microlens 50 (10) and the photoelectric conversion element 51 (11), and disposed outside the optical axis 91, and disposed on the microlens 60 (10) and the photoelectric sensor. The image sensor 310 having the conversion element 61 (11) will be schematically illustrated and described.

仮想の射出瞳90は、マイクロレンズ(50、60)の前方d4の距離に設定されている。この距離d4は、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換素子51、61(11)との間の距離などに応じて定められる距離である。
領域94は、マイクロレンズ50が光電変換素子51を投影方向57に仮想の射出瞳90上に投影した領域であり、且つ、マイクロレンズ60が光電変換素子61を投影方向67に仮想の射出瞳90上に投影した領域である。なお、投影方向57と光軸91の方向とは、同じ方向である。
The virtual exit pupil 90 is set at a distance d4 in front of the microlenses (50, 60). This distance d4 is a distance determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion elements 51 and 61 (11), and the like.
The region 94 is a region in which the microlens 50 projects the photoelectric conversion element 51 on the virtual exit pupil 90 in the projection direction 57, and the microlens 60 projects the photoelectric conversion element 61 in the projection direction 67 on the virtual exit pupil 90. This is the area projected above. The projection direction 57 and the direction of the optical axis 91 are the same direction.

光電変換素子51は、仮想の射出瞳90上の領域94を通過し、マイクロレンズ50に向かう撮像光束71によりマイクロレンズ50上に結像する像の強度(光量)に応じた信号を出力する。同様に、光電変換素子61は、仮想の射出瞳90上の領域94を通過し、マイクロレンズ60に向かう撮像光束81によりマイクロレンズ60上に結像する像の強度に応じた信号を出力する。ここで、像の強度とは、光電変換素子に入射する光束の光量であり、光電変換素子51、61は、入射する光量の増加に伴って出力する信号のレベルを高くする。   The photoelectric conversion element 51 passes a region 94 on the virtual exit pupil 90 and outputs a signal corresponding to the intensity (light quantity) of the image formed on the microlens 50 by the imaging light flux 71 directed to the microlens 50. Similarly, the photoelectric conversion element 61 outputs a signal corresponding to the intensity of an image formed on the microlens 60 by the imaging light flux 81 that passes through the region 94 on the virtual exit pupil 90 and travels toward the microlens 60. Here, the intensity of the image is the light amount of the light beam incident on the photoelectric conversion element, and the photoelectric conversion elements 51 and 61 increase the level of the output signal as the incident light amount increases.

また、光軸91上から外れた位置に配置される撮像センサ310それぞれのマイクロレンズ60の投影方向67は、撮像センサ310の光電変換素子61を仮想の射出瞳90上に投影した領域が、光電変換素子51を投影した領域94と一致するように決定される。   The projection direction 67 of each microlens 60 of the image sensor 310 arranged at a position off the optical axis 91 indicates that the region where the photoelectric conversion element 61 of the image sensor 310 is projected onto the virtual exit pupil 90 is photoelectric. It is determined so as to coincide with the region 94 onto which the conversion element 51 is projected.

図7は、同実施形態における焦点検出センサ311と射出瞳の関係を示す図である。交換レンズ202の光軸91上に配置され、マイクロレンズ50(10)及び一対の光電変換素子52、53(12、13)を有する焦点検出センサ311と、光軸91外に配置され、マイクロレンズ60(10)及び一対の光電変換素子62、63(12、13)を有する焦点検出センサ311とを模式的に例示して説明する。なお、焦点検出センサ311の配列方向は、一対の光電変換素子52、53、62、63の並び方向と同じ方向である。
仮想の射出瞳90は、図6の場合と同様に、マイクロレンズ(50、60)の前方d4の距離に設定されている。
FIG. 7 is a diagram showing the relationship between the focus detection sensor 311 and the exit pupil in the same embodiment. A focus detection sensor 311 that is arranged on the optical axis 91 of the interchangeable lens 202 and has a microlens 50 (10) and a pair of photoelectric conversion elements 52 and 53 (12, 13), and a microlens that is arranged outside the optical axis 91. A focus detection sensor 311 having 60 (10) and a pair of photoelectric conversion elements 62 and 63 (12, 13) will be schematically illustrated and described. Note that the arrangement direction of the focus detection sensors 311 is the same as the arrangement direction of the pair of photoelectric conversion elements 52, 53, 62, and 63.
The virtual exit pupil 90 is set to a distance d4 in front of the microlenses (50, 60) as in the case of FIG.

領域92は、マイクロレンズ50が光電変換素子52を投影方向57に仮想の射出瞳90上に投影した領域であり、且つ、マイクロレンズ60が光電変換素子62を投影方向67に仮想の射出瞳90上に投影した領域である。
領域93は、マイクロレンズ50が光電変換素子53を投影方向57に仮想の射出瞳90上に投影した領域であり、且つ、マイクロレンズ60が光電変換素子63を投影方向67に仮想の射出瞳90上に投影した領域である。
The region 92 is a region in which the microlens 50 projects the photoelectric conversion element 52 on the virtual exit pupil 90 in the projection direction 57, and the microlens 60 projects the photoelectric conversion element 62 in the projection direction 67 on the virtual exit pupil 90. This is the area projected above.
The region 93 is a region in which the microlens 50 projects the photoelectric conversion element 53 on the virtual exit pupil 90 in the projection direction 57, and the microlens 60 projects the photoelectric conversion element 63 in the projection direction 67 on the virtual exit pupil 90. This is the area projected above.

光電変換素子52は、仮想の射出瞳90上の領域92を通過し、マイクロレンズ50に向かう焦点検出光束72によりマイクロレンズ50上に結像する像の強度に応じた信号を出力する。光電変換素子53は、仮想の射出瞳90上の領域93を通過し、マイクロレンズ50に向かう焦点検出光束73によりマイクロレンズ50上に結像する像の強度に応じた信号を出力する。
光電変換素子62は、仮想の射出瞳90上の領域92を通過し、マイクロレンズ60に向かう焦点検出光束82によりマイクロレンズ60上に結像する像の強度に応じた信号を出力する。光電変換素子63は、仮想の射出瞳90上の領域93を通過し、マイクロレンズ60に向かう焦点検出光束83によりマイクロレンズ60上に結像する像の強度に応じた信号を出力する。
The photoelectric conversion element 52 passes a region 92 on the virtual exit pupil 90 and outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 72 toward the microlens 50. The photoelectric conversion element 53 passes a region 93 on the virtual exit pupil 90 and outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 73 toward the microlens 50.
The photoelectric conversion element 62 passes a region 92 on the virtual exit pupil 90 and outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 82 toward the microlens 60. The photoelectric conversion element 63 outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 83 that passes through the region 93 on the virtual exit pupil 90 and travels toward the microlens 60.

また、光軸91上から外れた位置に配置される焦点検出センサ311それぞれのマイクロレンズ60の投影方向67は、光電変換素子62を仮想の射出瞳90上に投影した領域が、光電変換素子52を投影した領域92と一致し、且つ、光電変換素子62を仮想の射出瞳90上に投影した領域が、光電変換素子53を投影した領域93と一致するように決定される。   In addition, the projection direction 67 of each microlens 60 of the focus detection sensor 311 arranged at a position off the optical axis 91 is that the region where the photoelectric conversion element 62 is projected onto the virtual exit pupil 90 is the photoelectric conversion element 52. And the area where the photoelectric conversion element 62 is projected onto the virtual exit pupil 90 is determined to coincide with the area 93 where the photoelectric conversion element 53 is projected.

撮像素子212において焦点検出センサ311を焦点検出位置301〜305に列を成して配置するようにしている。そして、画像データ生成部241は、焦点検出センサ311がマイクロレンズを通じて射出瞳上の異なる領域(92、93)からの一対の光束を受光して出力する信号を読み出して、焦点検出に用いる一対の信号を出力する。具体的には、画像データ生成部241は、焦点検出位置301〜305いずれかに並べられた焦点検出センサ311の光電変換素子12から読み出した信号を順に並べた第1信号と、光電変換素子13から読み出した信号を順に並べた第2信号とを出力する。   In the image sensor 212, focus detection sensors 311 are arranged in rows at focus detection positions 301 to 305. Then, the image data generation unit 241 reads out signals output by the focus detection sensor 311 receiving and outputting a pair of light beams from different regions (92, 93) on the exit pupil through the microlens, and a pair of signals used for focus detection. Output a signal. Specifically, the image data generation unit 241 includes a first signal obtained by sequentially arranging signals read from the photoelectric conversion elements 12 of the focus detection sensors 311 arranged at any of the focus detection positions 301 to 305, and the photoelectric conversion element 13. And a second signal in which the signals read from are sequentially arranged.

この第1信号は、仮想の射出瞳90上の領域92を通過する焦点検出光束が焦点検出センサ311の列上に結像する像の強度の分布を示す。また、第2信号は、仮想の射出瞳90上の領域93を通過する焦点検出光束が焦点検出センサ311の列上に結像する像の強度の分布を示す。   This first signal indicates the intensity distribution of an image formed by the focus detection light beam passing through the region 92 on the virtual exit pupil 90 on the column of the focus detection sensors 311. The second signal indicates the intensity distribution of an image formed by the focus detection light beam passing through the region 93 on the virtual exit pupil 90 on the column of the focus detection sensors 311.

図8は、同実施形態における撮像素子212の撮像センサ310が受光する光束内の光線分布を示す図である。また、この図8は、仮想の射出瞳面における光学系の射出瞳47と、撮像センサ310の光電変換素子11を投影した領域33との関係を示している。なお、光学系の射出瞳47は、仮想の射出瞳面に一致している場合について説明する。光学系の光軸から外れて位置する撮像センサ310には、射出瞳47が光軸に対する角度に応じて円形から楕円形に変形して映される。領域33は、撮像センサ310の光電変換素子11をマイクロレンズ10を介して仮想の射出瞳面に投影したものである。   FIG. 8 is a diagram showing a light distribution in a light beam received by the image sensor 310 of the image sensor 212 in the embodiment. FIG. 8 shows the relationship between the exit pupil 47 of the optical system on the virtual exit pupil plane and the region 33 on which the photoelectric conversion element 11 of the image sensor 310 is projected. The case where the exit pupil 47 of the optical system coincides with the virtual exit pupil plane will be described. On the imaging sensor 310 located off the optical axis of the optical system, the exit pupil 47 is projected from a circle to an ellipse according to the angle with respect to the optical axis. The region 33 is obtained by projecting the photoelectric conversion element 11 of the image sensor 310 onto a virtual exit pupil plane via the microlens 10.

領域33における光量の分布は、一様でなく、マイクロレンズ10の回折や収差により中心から周辺部に向かって光量が減少する。図8では、領域33における光量を濃淡により示してあり、中心部の光量が最も多く、周辺部に向かって光量が減少する。
なお、撮像センサ310の光電変換素子11を投影した領域33と、光学系の射出瞳47とがほぼ一致するようにマイクロレンズ10と光電変換素子11との位置が調節されている。
The distribution of the amount of light in the region 33 is not uniform, and the amount of light decreases from the center toward the periphery due to diffraction and aberration of the microlens 10. In FIG. 8, the amount of light in the region 33 is shown by shading, the amount of light at the center is the largest, and the amount of light decreases toward the periphery.
Note that the positions of the microlens 10 and the photoelectric conversion element 11 are adjusted so that the region 33 on which the photoelectric conversion element 11 of the image sensor 310 is projected and the exit pupil 47 of the optical system substantially coincide.

図9は、同実施形態における撮像素子212の焦点検出センサ311が受光する光束内の光線分布を示す図である。また、この図9は、仮想の射出瞳面における光学系の射出瞳48と、焦点検出センサ311の光電変換素子12、13を投影した領域28、29との関係を示している。光学系の光軸から外れて位置する焦点検出センサ311において、光学系の絞りの射出瞳以外に、レンズ外形に対応する射出瞳が焦点検出センサ311に入射する光束を規制(遮光)する要因となり得る。   FIG. 9 is a diagram illustrating a light distribution in a light beam received by the focus detection sensor 311 of the image sensor 212 in the embodiment. FIG. 9 shows the relationship between the exit pupil 48 of the optical system on the virtual exit pupil plane and the regions 28 and 29 where the photoelectric conversion elements 12 and 13 of the focus detection sensor 311 are projected. In the focus detection sensor 311 located off the optical axis of the optical system, in addition to the exit pupil of the optical system aperture, the exit pupil corresponding to the outer shape of the lens restricts (shields) the light beam incident on the focus detection sensor 311. obtain.

光学系の光軸から外れて位置する焦点検出センサ311には、射出瞳48が、光軸に対する角度に応じて変形し、更に、レンズの外形等による口径食により変形して映される。また、一対の光電変換素子12、13をマイクロレンズにより仮想の射出瞳面に投影した投影領域28、29は、マイクロレンズの回折や収差によりその領域内において一様の光線分布とならず、中心から周辺部に向かって光量が減少する。   On the focus detection sensor 311 located off the optical axis of the optical system, the exit pupil 48 is deformed according to the angle with respect to the optical axis, and further deformed and projected by vignetting due to the outer shape of the lens. Further, the projection regions 28 and 29 obtained by projecting the pair of photoelectric conversion elements 12 and 13 onto the virtual exit pupil plane by the microlens do not have a uniform light distribution in the region due to the diffraction and aberration of the microlens, and the center. The amount of light decreases from the edge toward the periphery.

また、図9では、投影領域28、29における光量を濃淡により示してあり、中心部の光量が最も多く、周辺部に向かって減少する。なお、焦点検出センサ311の光電変換素子12、13は、投影領域28、29と、光学系の射出瞳48との重なりが大きくなるように、光電変換素子12、13の位置及びマイクロレンズ10の位置が調節されている。また、焦点検出センサ311において、光電変換素子12、13は、撮像センサ310の光電変換素子11に比べ、面積が小さいためにケラレの影響を受けやすいので、出力レベルが低下しやすい。   In FIG. 9, the light amounts in the projection areas 28 and 29 are shown by shading, and the light amount in the central part is the largest and decreases toward the peripheral part. Note that the photoelectric conversion elements 12 and 13 of the focus detection sensor 311 have the positions of the photoelectric conversion elements 12 and 13 and the microlens 10 so that the overlap between the projection areas 28 and 29 and the exit pupil 48 of the optical system becomes large. The position is adjusted. In the focus detection sensor 311, the photoelectric conversion elements 12 and 13 are smaller in area than the photoelectric conversion element 11 of the image sensor 310, and thus are easily affected by vignetting.

図10は、同実施形態における一様輝度の被写体を撮像した際の焦点検出センサ311の出力例を示す図である。横軸は焦点検出センサの位置を示し、縦軸は光電変換素子の出力レベルを示している。符号1601で示す出力例は、ケラレが生じていない場合の焦点検出センサ311列の出力を示している。一方、符号1602で示す出力例は、ケラレが生じている場合の焦点検出センサ311列の出力を示している。ここで、焦点検出センサ311の出力レベルは、図9において示した射出瞳48と、光電変換素子を仮想の射出瞳面に投影した領域28、29との重なる割合に正比例し、光学系の光軸から離れるほど低下する。   FIG. 10 is a diagram illustrating an output example of the focus detection sensor 311 when a subject with uniform brightness is imaged in the embodiment. The horizontal axis indicates the position of the focus detection sensor, and the vertical axis indicates the output level of the photoelectric conversion element. The output example indicated by reference numeral 1601 indicates the output of the focus detection sensor 311 row when vignetting does not occur. On the other hand, the output example indicated by reference numeral 1602 indicates the output of the focus detection sensor 311 row when vignetting occurs. Here, the output level of the focus detection sensor 311 is directly proportional to the overlapping ratio between the exit pupil 48 shown in FIG. 9 and the regions 28 and 29 where the photoelectric conversion elements are projected on the virtual exit pupil plane, and the light of the optical system. Decreases with distance from the axis.

図11は、同実施形態における撮像素子212における撮像センサ310と焦点検出センサ311との配置の一例を示す図である。R、G、及びBそれぞれは、赤色フィルタ(R)、緑色フィルタ(G)、及び青色フィルタ(B)が設けられた撮像センサ310の配置を示している。撮像素子212には、R、G、及びBの色フィルタが設けられた撮像センサ310がベイヤー配列を成している。Aは、焦点検出センサ311の配置を示している。
ライン1007は、焦点検出用の焦点検出センサ311の列を示している。ライン1005、1006は、ライン1007の近傍に配置された撮像センサ310の列を示している。ここで、ライン1007の近傍に配置された撮像センサ310は、ライン1007に含まれる焦点検出センサ311に対応する基準信号を算出する際に基となる信号が読み出されるものである。この撮像センサ310は、対応する焦点検出センサ311に最も近いものでもよいし、シミュレーションや計測などの結果に基づいて予め定めておいてもよい。
FIG. 11 is a diagram illustrating an example of the arrangement of the image sensor 310 and the focus detection sensor 311 in the image sensor 212 in the embodiment. R, G, and B respectively indicate the arrangement of the imaging sensor 310 provided with a red filter (R), a green filter (G), and a blue filter (B). In the image sensor 212, an image sensor 310 provided with R, G, and B color filters forms a Bayer array. A shows the arrangement of the focus detection sensors 311.
A line 1007 indicates a row of focus detection sensors 311 for focus detection. Lines 1005 and 1006 indicate columns of the image sensor 310 arranged in the vicinity of the line 1007. Here, the image sensor 310 disposed in the vicinity of the line 1007 is a signal from which a signal serving as a base is read when calculating a reference signal corresponding to the focus detection sensor 311 included in the line 1007. The imaging sensor 310 may be the closest to the corresponding focus detection sensor 311 or may be determined in advance based on the result of simulation or measurement.

このライン1005、1006の撮像センサ310それぞれの信号は、焦点検出の際に用いる基準信号(第3信号)の基になる。このように、ライン1005とライン1006と2つのラインを用いることにより、R、G、及びBそれぞれ色フィルタを有する撮像センサ310の信号を用いて基準信号を生成する。例えば、ライン1007の焦点検出センサ311に対して、それぞれの焦点検出センサ311に最も近いR、G、及びBの撮像センサ310が出力する信号を加算して、焦点検出センサ311に対応する基準信号を算出する。   The signals of the image sensors 310 on the lines 1005 and 1006 are the basis of a reference signal (third signal) used for focus detection. In this way, by using the two lines, the line 1005 and the line 1006, the reference signal is generated using the signals of the imaging sensor 310 having the R, G, and B color filters. For example, a reference signal corresponding to the focus detection sensor 311 is added to the focus detection sensor 311 of the line 1007 by adding signals output from the R, G, and B imaging sensors 310 closest to the focus detection sensors 311. Is calculated.

なお、ベイヤー配列の色フィルタの場合における基準信号の算出を示したが、色フィルタ構成や配列はこれに限定されることなく、例えば、補色フィルタ(G:緑色、Y:黄色、Mg:マゼンダ、Cy:シアン)を用いてもよい。この場合、それぞれの色フィルタが設けられた撮像センサ310が検出する波長に応じて組み合わせを予め定めておき、組み合わされた撮像センサ310の出力を用いて基準信号を算出する。   Although the calculation of the reference signal in the case of the Bayer color filter is shown, the color filter configuration and arrangement are not limited to this. For example, a complementary color filter (G: green, Y: yellow, Mg: magenta, Cy: cyan) may be used. In this case, a combination is determined in advance according to the wavelength detected by the image sensor 310 provided with each color filter, and a reference signal is calculated using the output of the combined image sensor 310.

図12は、同実施形態における撮像センサ310及び焦点検出センサ311それぞれの分光感度特性を示すグラフである。図12(a)は、R、G、及びBのフィルタが設けられた撮像センサ310の分光感度を示している。図12(b)は、焦点検出センサ311の分光感度を示している。焦点検出センサ311は、受光する光量の減少を避けるために撮像センサ310のように色フィルタは設けられておらず、分光感度が撮像センサ310の分光感度特性を合成した特性を有している。
なお、撮像センサ310が出力する信号を用いて基準信号を生成するとき、撮像センサ310に設けられている色フィルタによる光量の減少分を図12に示す分光感度特性に応じて補正する。
FIG. 12 is a graph showing the spectral sensitivity characteristics of the image sensor 310 and the focus detection sensor 311 in the embodiment. FIG. 12A shows the spectral sensitivity of the image sensor 310 provided with R, G, and B filters. FIG. 12B shows the spectral sensitivity of the focus detection sensor 311. The focus detection sensor 311 is not provided with a color filter like the image sensor 310 in order to avoid a decrease in the amount of light received, and has a spectral sensitivity that is a combination of the spectral sensitivity characteristics of the image sensor 310.
Note that when the reference signal is generated using the signal output from the image sensor 310, the amount of light reduction by the color filter provided in the image sensor 310 is corrected according to the spectral sensitivity characteristic shown in FIG.

図13は、同実施形態におけるケラレが発生していない状態における撮像センサ310による基準信号と、焦点検出センサ311による一対の第1信号及び第2信号との一例を示す図である。
画像データ生成部241は、ライン1005、1006の撮像センサ310の光電変換素子11から読み出す信号に基づいて基準信号1701を出力し、ライン1007の焦点検出センサ311の光電変換素子12から読み出す信号に基づいて第1信号1702を出力し、ライン1007の焦点検出センサ311の光電変換素子13から読み出す信号に基づいて第2信号1703を出力する。
FIG. 13 is a diagram illustrating an example of a reference signal from the imaging sensor 310 and a pair of first signal and second signal from the focus detection sensor 311 in a state where no vignetting occurs in the embodiment.
The image data generation unit 241 outputs a reference signal 1701 based on a signal read from the photoelectric conversion element 11 of the imaging sensor 310 on the lines 1005 and 1006, and based on a signal read from the photoelectric conversion element 12 of the focus detection sensor 311 on the line 1007. The first signal 1702 is output, and the second signal 1703 is output based on the signal read from the photoelectric conversion element 13 of the focus detection sensor 311 on the line 1007.

第1信号1702と、第2信号1703とは、予定結像面において合焦しているとき基準信号1701と一致する。焦点検出におけるデフォーカス量は、基準信号1701と第2信号1703とのズレ量s1と、基準信号1701と第1信号1702とのズレ量s2との和で表される。
このとき、光電変換素子12は、投影領域28(図9)を通過する光束を受光し、光電変換素子13は、投影領域29(図9)を通過した光束を受光している。
The first signal 1702 and the second signal 1703 coincide with the reference signal 1701 when focused on the planned imaging plane. The defocus amount in focus detection is represented by the sum of a deviation amount s1 between the reference signal 1701 and the second signal 1703 and a deviation amount s2 between the reference signal 1701 and the first signal 1702.
At this time, the photoelectric conversion element 12 receives a light beam that passes through the projection area 28 (FIG. 9), and the photoelectric conversion element 13 receives a light beam that passes through the projection area 29 (FIG. 9).

図14は、同実施形態におけるケラレが発生している状態における基準信号、第1信号及び第2信号の一例を示す図である。横軸は撮像センサ310及び焦点検出センサ311に対応する画素を示し、縦軸は光電変換素子の出力レベルを示している。符号1401で示されるグラフは基準信号であり、符号1402で示されるグラフは第1信号であり、符号1403で示されるグラフは第2信号である。第1信号1402及び第2信号1403は、中央(光学系の光軸)から遠ざかるとケラレの影響により出力レベルが低下する。   FIG. 14 is a diagram illustrating an example of the reference signal, the first signal, and the second signal in a state where vignetting occurs in the embodiment. The horizontal axis indicates pixels corresponding to the imaging sensor 310 and the focus detection sensor 311, and the vertical axis indicates the output level of the photoelectric conversion element. A graph indicated by reference numeral 1401 is a reference signal, a graph indicated by reference numeral 1402 is a first signal, and a graph indicated by reference numeral 1403 is a second signal. When the first signal 1402 and the second signal 1403 are moved away from the center (optical axis of the optical system), the output level decreases due to the influence of vignetting.

図15は、図14に示した基準信号と第1信号との出力比を算出する領域を示した図である。ズレ量算出部242は、基準信号1401と第1信号1402との相関演算を行うことにより、基準信号1401の領域Asに対して相関値が最も高い第1信号1402の領域A1を検出すると共にその像ズレ量s1を算出する。
このとき、信号補正部243は、領域Asにおける基準信号1401の出力平均値Esと、領域A1における第1信号1402の出力平均値E1とを算出する。
FIG. 15 is a diagram showing a region for calculating the output ratio between the reference signal and the first signal shown in FIG. The deviation amount calculation unit 242 performs a correlation operation between the reference signal 1401 and the first signal 1402 to detect the area A1 of the first signal 1402 having the highest correlation value with respect to the area As of the reference signal 1401 and An image shift amount s1 is calculated.
At this time, the signal correction unit 243 calculates the output average value Es of the reference signal 1401 in the region As and the output average value E1 of the first signal 1402 in the region A1.

基準信号の出力平均値Esと、第1信号の出力平均値E1とは、それぞれ以下の式(1)〜(2)により算出される。また、出力平均値Es、E1の比である出力比V1は、式(3)で表される。   The output average value Es of the reference signal and the output average value E1 of the first signal are calculated by the following equations (1) to (2), respectively. Further, an output ratio V1 that is a ratio of the output average values Es and E1 is expressed by Expression (3).

Figure 0005737356
Figure 0005737356

ここで、As及びA1は、相関演算処理により検出された領域に含まれる画素の集合を示し、jは、画素の位置を示し、画素位置jは、出力平均値を算出する対象の領域As、A1に含まれる。ds[i]は、画素位置iの基準信号の出力レベルを示し、d1[i]は、画素位置iの第1信号の出力レベルを示し、nは、相関演算処理により検出された領域に含まれる画素数を示している。s1は、相関演算処理により算出された基準信号と第1信号とのズレ量を示している。   Here, As and A1 indicate a set of pixels included in the area detected by the correlation calculation process, j indicates the position of the pixel, and the pixel position j indicates the area As for which the output average value is calculated, Included in A1. ds [i] indicates the output level of the reference signal at the pixel position i, d1 [i] indicates the output level of the first signal at the pixel position i, and n is included in the region detected by the correlation calculation process The number of pixels to be displayed is shown. s1 indicates the amount of deviation between the reference signal and the first signal calculated by the correlation calculation process.

また、ズレ量算出部242は、第2信号に対して、第1信号と同様に、基準信号との相関演算処理により相関値の高い領域を検出すると共にズレ量を算出する。また、信号補正部243は、ズレ量算出部242が基準信号と第2信号との検出した領域と、ズレ量とに基づいて基準信号及び第2信号の出力平均値Es、E2を算出し、算出した出力平均値Es、E2の比である出力比V2を算出する。   Further, the deviation amount calculation unit 242 detects a region having a high correlation value and calculates a deviation amount with respect to the second signal by the correlation calculation process with the reference signal, similarly to the first signal. In addition, the signal correction unit 243 calculates the output average values Es and E2 of the reference signal and the second signal based on the region detected by the deviation amount calculation unit 242 between the reference signal and the second signal and the deviation amount. An output ratio V2 that is a ratio of the calculated output average values Es and E2 is calculated.

なお、図15では、基準信号と第1信号との相関値が高い領域の組み合わせを1つ示したが、実際の処理においては、複数の領域の組み合わせが検出され、それぞれ領域の組み合わせごとに出力平均値及び出力比を算出する。また、基準信号と第2信号とにおいても、複数の領域の組み合わせが検出され、それぞれの領域の組み合わせごとに出力平均値及び出力比を算出する。
また、信号補正部243は、第1信号及び第2信号の全ての領域に渡って出力比を算出せずに、少なくとも3つの領域において出力比を算出し、算出した出力比を用いてスプライン補間、ラグランジュ補間、最小二乗近似などにより他の領域の出力比を補完してもよい。
In FIG. 15, one combination of regions having a high correlation value between the reference signal and the first signal is shown. However, in actual processing, combinations of a plurality of regions are detected and output for each combination of regions. The average value and output ratio are calculated. In addition, a combination of a plurality of areas is also detected in the reference signal and the second signal, and an output average value and an output ratio are calculated for each area combination.
Further, the signal correction unit 243 calculates the output ratio in at least three regions without calculating the output ratio over all the regions of the first signal and the second signal, and uses the calculated output ratio to perform spline interpolation. The output ratio of other regions may be complemented by Lagrange interpolation, least square approximation, or the like.

図16は、図15に示した基準信号1401と第1信号1402とそれぞれの出力比、及び基準信号1401と第2信号1403との出力比を示す図である。なお、信号補正部243は、出力比V1、V2の逆数が示す補正値を用いて第1信号及び第2信号それぞれが示す像の強度を補正した第1分布補正信号及び第2分布補正信号を算出する。具体的には、焦点検出センサ311においてケラレにより低下した出力レベルを、補正値を乗じて基準信号と同様の出力レベルに補正する。   FIG. 16 is a diagram illustrating output ratios of the reference signal 1401 and the first signal 1402 illustrated in FIG. 15 and output ratios of the reference signal 1401 and the second signal 1403. The signal correction unit 243 outputs the first distribution correction signal and the second distribution correction signal obtained by correcting the image intensities indicated by the first signal and the second signal using the correction values indicated by the reciprocals of the output ratios V1 and V2. calculate. Specifically, the output level reduced by the vignetting in the focus detection sensor 311 is corrected to the same output level as that of the reference signal by multiplying the correction value.

図17は、同実施形態における撮像装置201の焦点検出処理を示すフローチャートである。
まず、撮像装置201に電源が供給されることにより焦点検出処理が開始され(ステップS100)、画像データ生成部241がライン1007に含まれる焦点検出センサ311が有する光電変換素子12、13の信号を読み出して第1信号及び第2信号を出力し(ステップS101)、ライン1005、1006に含まれる撮像センサ310の光電変換素子11から信号を読み出して(ステップS102)、ケラレの少ない基準信号を算出する(ステップS103)。
FIG. 17 is a flowchart showing a focus detection process of the imaging apparatus 201 in the embodiment.
First, focus detection processing is started by supplying power to the imaging apparatus 201 (step S100), and the image data generation unit 241 receives signals of the photoelectric conversion elements 12 and 13 included in the focus detection sensor 311 included in the line 1007. Read and output the first signal and the second signal (step S101), read the signal from the photoelectric conversion element 11 of the image sensor 310 included in the lines 1005 and 1006 (step S102), and calculate a reference signal with less vignetting. (Step S103).

ズレ量算出部242は、画像データ生成部241が出力した第1信号が示す像の強度と、基準信号が示す像の強度とのズレを示す像ズレ量s1と、領域As、A1の組み合わせを相関演算処理により算出する(ステップS104)。信号補正部243は、ズレ量算出部242が算出した像ズレ量s1及び領域As、A1の組み合わせを用いて、式(1)〜(3)により出力平均値Es、E1及び出力比V1を算出する(ステップS105)。   The deviation amount calculation unit 242 includes a combination of the image deviation amount s1 indicating the deviation between the intensity of the image indicated by the first signal output from the image data generation unit 241 and the intensity of the image indicated by the reference signal, and the regions As and A1. Calculation is performed by correlation calculation processing (step S104). The signal correction unit 243 calculates the output average values Es and E1 and the output ratio V1 using the combinations of the image shift amount s1 and the regions As and A1 calculated by the shift amount calculation unit 242 according to the equations (1) to (3). (Step S105).

また、ズレ量算出部242は、画像データ生成部241が出力した第2信号が示す像の強度と、基準信号が示す像の強度とのズレを示す像ズレ量s2と、領域As、A2の組み合わせを相関演算処理により算出する(ステップS106)。信号補正部243は、ズレ量算出部242が算出した像ズレ量s2及び領域As、A2の組み合わせを用いて、第1信号と同様に、出力平均値Es、E2及び出力比V2を算出する(ステップS107)。
信号補正部243は、算出した出力比V1を用いて第1信号が示す像の強度を補正した第1補正信号を算出すると共に、算出した出力比V2を用いて第2信号が示す像の強度を補正した第2補正信号を算出する。
The deviation amount calculation unit 242 also includes an image deviation amount s2 indicating a deviation between the intensity of the image indicated by the second signal output from the image data generation unit 241 and the intensity of the image indicated by the reference signal, and the regions As and A2. The combination is calculated by correlation calculation processing (step S106). The signal correction unit 243 uses the combination of the image shift amount s2 and the regions As and A2 calculated by the shift amount calculation unit 242 to calculate the output average values Es and E2 and the output ratio V2 as in the first signal ( Step S107).
The signal correction unit 243 calculates a first correction signal in which the intensity of the image indicated by the first signal is corrected using the calculated output ratio V1, and the intensity of the image indicated by the second signal using the calculated output ratio V2. A second correction signal obtained by correcting the above is calculated.

AF制御部244は、第1補正信号が示す像と、第2補正信号が示す像とのズレ量s3を公知の相関演算処理により算出し(ステップS108)、算出した像ズレ量s3に応じたデフォーカス量を算出し(ステップS109)、算出したデフォーカス量に応じたフォーカシング用レンズ210のレンズ駆動量を算出し(ステップS110)、算出したレンズ駆動量を含む制御信号をレンズ駆動制御部206に送信する。
レンズ駆動制御部206は、受信した制御信号に含まれるレンズ駆動量に応じてフォーカシング用レンズ210を駆動して(ステップS111)、被写体を撮像素子212のマイクロレンズ10上に合焦させる。
以降、撮像装置201は、ステップS101〜S111までの動作を繰り返して行う。
The AF control unit 244 calculates a deviation amount s3 between the image indicated by the first correction signal and the image indicated by the second correction signal by a known correlation calculation process (step S108), and according to the calculated image deviation amount s3. A defocus amount is calculated (step S109), a lens drive amount of the focusing lens 210 corresponding to the calculated defocus amount is calculated (step S110), and a control signal including the calculated lens drive amount is sent to the lens drive control unit 206. Send to.
The lens drive control unit 206 drives the focusing lens 210 in accordance with the lens drive amount included in the received control signal (step S111), and focuses the subject on the microlens 10 of the image sensor 212.
Thereafter, the imaging apparatus 201 repeats the operations from steps S101 to S111.

上述のように、本実施形態における撮像装置201は、焦点検出センサ311の近傍に配置されている撮像センサ310の出力に基づいて基準信号を算出するようにし、基準信号を用いて焦点検出センサ311から出力される第1信号及び第2信号を補正する補正値を算出するようにした。これにより、光学系及びマイクロレンズによる口径食(ケラレ)による光量の減少に伴う信号レベルの低下を補正に用いる補正データを予め用意せずとも、第1信号及び第2信号の信号レベルの低下を補正することができる。そして、ケラレの影響が低減された、第1補正信号と第2補正信号との像ズレ量(位相差)を検出することによりデフォーカス量の算出及び焦点検出の精度を向上させることができる。また、交換レンズ202を通過した光束によりケラレの補正を行うようにしたので、予め補正データが用意されていない交換レンズを撮像装置201に取り付けてもデフォーカス量の算出及び焦点検出を行うことができ、交換レンズの選択の幅を広げることができる。   As described above, the imaging apparatus 201 according to the present embodiment calculates the reference signal based on the output of the imaging sensor 310 arranged in the vicinity of the focus detection sensor 311, and uses the reference signal to detect the focus detection sensor 311. The correction value for correcting the first signal and the second signal output from is calculated. Thereby, the signal level of the first signal and the second signal can be reduced without preparing correction data for correcting the decrease in the signal level accompanying the decrease in the light amount due to vignetting (vignetting) by the optical system and the microlens. It can be corrected. Then, by detecting the image shift amount (phase difference) between the first correction signal and the second correction signal in which the influence of vignetting is reduced, the accuracy of calculation of the defocus amount and focus detection can be improved. Further, since the vignetting is corrected by the light flux that has passed through the interchangeable lens 202, the defocus amount can be calculated and the focus can be detected even if an interchangeable lens for which correction data is not prepared in advance is attached to the imaging apparatus 201. This can widen the range of selection of interchangeable lenses.

また、撮像装置201は、焦点検出センサ311の光電変換素子12、13の出力レベルがケラレにより低下しても、基準信号と同様の出力レベルに補正するようにしたので、出力レベルが補正された第1補正信号及び第2補正信号からケラレによる信号強度の変化を低減することができ、相関演算による第1補正信号と第2補正信号との像ズレ量の算出精度を向上させることができる。   Further, the image pickup apparatus 201 corrects the output level to the same output level as the reference signal even when the output level of the photoelectric conversion elements 12 and 13 of the focus detection sensor 311 decreases due to vignetting, so the output level is corrected. A change in signal intensity due to vignetting can be reduced from the first correction signal and the second correction signal, and the calculation accuracy of the image shift amount between the first correction signal and the second correction signal by the correlation calculation can be improved.

また、撮像装置201において、信号補正部243は、出力比V1、V2を算出する際に、出力の平均値を用いて算出するようにしたので、焦点検出センサ311の出力がノイズなどにより局所的に出力が変動した場合、ノイズによる補正値への影響を低減することができ、第1信号及び第2信号に対するケラレの補正を安定して行いデフォーカス量の算出及び焦点検出の精度を向上させることができる。   In the imaging apparatus 201, the signal correction unit 243 calculates the output ratios V1 and V2 by using the average value of the outputs, so that the output of the focus detection sensor 311 is localized due to noise or the like. If the output fluctuates, the influence of noise on the correction value can be reduced, and the correction of vignetting for the first signal and the second signal can be stably performed to improve the calculation of the defocus amount and the accuracy of focus detection. be able to.

<一実施形態の変形例>
図18は、一実施形態の変形例における撮像素子212上の焦点検出センサ311の配置を示す図である。焦点検出センサ311は、符号A1で示されるライン1101と、符号A2で示されるライン1102とに配置されている。ライン1101に配置された焦点検出センサ311は、図9に示した投影領域28を通過する光束を検出する。一方、ライン1102に配置された焦点検出センサ311は、投影領域29(図9)を通過する光束を検出する。この場合、画像データ生成部241は、ライン1101に含まれる焦点検出センサ311の出力を読み出して第1信号を出力し、ライン1102に含まれる焦点検出センサ311の出力を読み出して第2信号を出力する。
<Modification of one embodiment>
FIG. 18 is a diagram illustrating an arrangement of the focus detection sensors 311 on the image sensor 212 in a modification of the embodiment. The focus detection sensor 311 is disposed on a line 1101 indicated by reference numeral A1 and a line 1102 indicated by reference numeral A2. The focus detection sensor 311 arranged on the line 1101 detects a light beam that passes through the projection region 28 shown in FIG. On the other hand, the focus detection sensor 311 arranged on the line 1102 detects the light beam passing through the projection region 29 (FIG. 9). In this case, the image data generation unit 241 reads the output of the focus detection sensor 311 included in the line 1101 and outputs the first signal, reads the output of the focus detection sensor 311 included in the line 1102 and outputs the second signal. To do.

これにより、焦点検出センサ311は、一対の光束のいずれか一方を受光すればよいので、2つの光電変換素子を有する必要がなく、第1実施形態に比べ光電変換素子を大きくすることができる。そして、第1信号及び第2信号と基準信号との出力レベルの差を少なくすることができ、ズレ量算出部242が算出する像ズレ量などの誤差を低下させることができる。その結果、撮像装置201は、デフォーカス量の算出及び焦点検出の精度を向上させることができる。   As a result, the focus detection sensor 311 only needs to receive one of the pair of light beams, so there is no need to have two photoelectric conversion elements, and the photoelectric conversion element can be made larger than in the first embodiment. Then, the difference in output level between the first signal and the second signal and the reference signal can be reduced, and errors such as an image shift amount calculated by the shift amount calculation unit 242 can be reduced. As a result, the imaging apparatus 201 can improve the accuracy of defocus amount calculation and focus detection.

なお、上述の一実施形態及びその変形例において、AF制御部244は、ステップS109において、デフォーカス量を算出する際に、像ズレ量s3とデフォーカス量とが対応付けられたルックアップテーブルを設け、当該ルックアップテーブルを用いてデフォーカス量を算出するようにしてもよい。また、このルックアップテーブルは、取り付けられる交換レンズ202ごとに設けてもよい。これにより、AF制御部244の計算量を削減することができ、焦点検出及び合焦までに要する時間を短縮することができる。   In the above-described embodiment and its modification, the AF control unit 244 calculates a look-up table in which the image shift amount s3 and the defocus amount are associated with each other when calculating the defocus amount in step S109. A defocus amount may be calculated using the lookup table. Further, this lookup table may be provided for each interchangeable lens 202 to be attached. Thereby, the calculation amount of the AF control unit 244 can be reduced, and the time required for focus detection and focusing can be shortened.

また、図17において示した焦点検出処理において、ステップS104〜S105と、ステップS106〜S107との順序を入れ替えて処理してもよい。また、ステップS104〜S105と、ステップS106〜S107との処理を並列に処理するようにしてもよい。これにより、ズレ量算出部242及び信号補正部243が処理に要する時間を削減することができ、焦点検出及び合焦までに要する時間を短縮することができる。   Moreover, in the focus detection process shown in FIG. 17, the order of steps S104 to S105 and steps S106 to S107 may be changed. Moreover, you may make it process the process of step S104-S105 and step S106-S107 in parallel. Thereby, the time required for processing by the deviation amount calculation unit 242 and the signal correction unit 243 can be reduced, and the time required for focus detection and focusing can be reduced.

また、AF制御部244は、ステップS104及びS106でズレ量算出部242が算出した像ズレ量s1、s2に基づいて像ズレ量s3を算出するようにしてもよい。第1補正信号と第2補正信号との像ズレ量s3は、像ズレ量s1、s2の和に近い値であるので、像ズレ量s1、s2の和の近傍に対して相関演算を行うことで、相関演算処理に要する時間を削減することができ、焦点検出及び合焦までに要する時間を短縮することができる。   The AF control unit 244 may calculate the image shift amount s3 based on the image shift amounts s1 and s2 calculated by the shift amount calculation unit 242 in steps S104 and S106. Since the image shift amount s3 between the first correction signal and the second correction signal is a value close to the sum of the image shift amounts s1 and s2, the correlation calculation is performed on the vicinity of the sum of the image shift amounts s1 and s2. Thus, the time required for the correlation calculation processing can be reduced, and the time required for focus detection and focusing can be reduced.

また、信号補正部243は、ズレ量算出部242が算出した領域ごとに出力平均値及び出力比を算出する構成としたが、出力平均値を求めずに画素ごとに出力平均を算出してもよい。それにより、信号補正部243計算量を削減することができ、デフォーカス量の算出及び焦点検出に要する時間を短縮することができる。   In addition, the signal correction unit 243 is configured to calculate the output average value and the output ratio for each region calculated by the deviation amount calculation unit 242, but even if the output average is calculated for each pixel without obtaining the output average value. Good. Thereby, the calculation amount of the signal correction unit 243 can be reduced, and the time required for calculating the defocus amount and detecting the focus can be reduced.

また、信号補正部243は、基準信号と第1信号との出力比と、基準信号と第2信号との出力比とを算出する構成としたが、ケラレによる出力レベルの低下が光学系の光軸に対して対称であると近似を行い、2つの出力比のうちいずれか一方を算出し、第1信号及び第2信号に対する補正に用いてもよい。これにより、信号補正部243が出力平均値及び出力比の算出に要する時間を削減することができ、焦点検出及び合焦までに要する時間を短縮することができる。   Further, the signal correction unit 243 is configured to calculate the output ratio between the reference signal and the first signal and the output ratio between the reference signal and the second signal. Approximation may be performed to be symmetric with respect to the axis, and one of the two output ratios may be calculated and used for correction of the first signal and the second signal. Thereby, the time required for the signal correction unit 243 to calculate the output average value and the output ratio can be reduced, and the time required for focus detection and focusing can be reduced.

上述のボディ制御部214は内部に、コンピュータシステムを有していてもよい。その場合、上述した焦点検出処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われることになる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   The body control unit 214 described above may have a computer system inside. In this case, the focus detection process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing this program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

10、50、60…マイクロレンズ、12、13、52、53、62、63…光電変換素子、92、93…領域、201…撮像装置、212…撮像素子、242…ズレ量算出部、243…信号補正部、244…AF制御部、310…撮像センサ、311…焦点検出センサ   DESCRIPTION OF SYMBOLS 10, 50, 60 ... Micro lens, 12, 13, 52, 53, 62, 63 ... Photoelectric conversion element, 92, 93 ... Area, 201 ... Imaging device, 212 ... Imaging element, 242 ... Deviation amount calculation part, 243 ... Signal correction unit, 244, AF control unit, 310, imaging sensor, 311, focus detection sensor

Claims (3)

第1射出瞳領域からの光束を受光する第1焦点検出センサと、第2射出瞳領域からの光束を受光する第2焦点検出センサと、前記第1焦点検出センサ及び前記第2焦点検出センサの近傍に備えられ射出瞳からの光束を受光する撮像センサとを有する撮像素子と、
前記第1焦点検出センサが出力する第1信号に対応する第1像前記撮像センサが出力する第3信号対応する第3像とのズレ、及び、前記第2焦点検出センサが出力する第2信号に対応する第2像と前記第3像とのズレを演算する演算部と、
記演算部により演算された前記第1像と前記第3像とのズレ、前記第3信号及び前記第1信号を用いて第1補正信号を生成し、前記演算部により演算された前記第2像と前記第3像とのズレ、前記第3信号及び前記第2信号を用いて第2補正信号を生成する補正信号生成部と、
前記第1補正信号と前記第2補正信号とを用いて、デフォーカス量を演算するデフォーカス演算部とを備えることを特徴とする焦点調節装置。
A first focus detection sensor that receives a light beam from the first exit pupil region; a second focus detection sensor that receives a light beam from the second exit pupil region; and the first focus detection sensor and the second focus detection sensor. An imaging device having an imaging sensor provided in the vicinity and receiving a light beam from an exit pupil;
Deviation between the third image corresponding to the third signal, wherein the image sensor and the first image is output corresponding to the first signal by the first focus detection sensor outputs, and the second focus detection sensor outputs a computation unit and a second image corresponding to the second signal you calculating the deviation between the third image,
Wherein the front displacement between the first image computed by Ki演 calculation unit and the third image to generate a first correction signal using the third signal and the first signal, computed by the computing unit A correction signal generating unit configured to generate a second correction signal using a deviation between the second image and the third image, the third signal, and the second signal;
A focus adjustment apparatus comprising: a defocus calculation unit that calculates a defocus amount using the first correction signal and the second correction signal .
第1射出瞳領域からの光束を受光し第1信号を出力する第1焦点検出センサと、第2射出瞳領域からの光束を受光し第2信号を出力する第2焦点検出センサと、前記第1焦点検出センサ及び前記第2焦点検出センサの近傍に備えられ射出瞳からの光束を受光し第3信号を出力する撮像センサとを有する撮像素子と
前記第1信号と前記第3信号とのズレ、及び、前記第2信号と前記第3信号とのズレを演算する演算部と、
前記演算部により演算された前記第1信号と前記第3信号とのズレ、前記第3信号及び前記第1信号を用いて得られた第1補正信号と、前記演算部により演算された前記第2信号と前記第3信号とのズレ、前記第3信号及び前記第2信号を用いて得られた第2補正信号とを用いて、デフォーカス量を演算するデフォーカス演算部とを備えることを特徴とする焦点調節装置。
A first focus detection sensor that receives a light beam from the first exit pupil region and outputs a first signal; a second focus detection sensor that receives a light beam from the second exit pupil region and outputs a second signal; An imaging device having an imaging sensor provided near the first focus detection sensor and the second focus detection sensor and receiving a light beam from an exit pupil and outputting a third signal ;
A calculation unit that calculates a shift between the first signal and the third signal and a shift between the second signal and the third signal;
Deviation between the first signal and the third signal calculated by the calculation unit, the first correction signal obtained using the third signal and the first signal, and the first correction signal calculated by the calculation unit A defocus operation unit that calculates a defocus amount using a deviation between two signals and the third signal, and a second correction signal obtained by using the third signal and the second signal. Focus adjustment device characterized.
請求項1又は請求項の何れか1項に記載された焦点調節装置を含むことを特徴とするカメラ。 Camera, characterized in that it comprises a focusing device according to any one of claims 1 or claim 2.
JP2013207283A 2013-10-02 2013-10-02 Focus adjustment device and camera Active JP5737356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013207283A JP5737356B2 (en) 2013-10-02 2013-10-02 Focus adjustment device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013207283A JP5737356B2 (en) 2013-10-02 2013-10-02 Focus adjustment device and camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009268788A Division JP5381646B2 (en) 2009-11-26 2009-11-26 Imaging device

Publications (3)

Publication Number Publication Date
JP2014032414A JP2014032414A (en) 2014-02-20
JP2014032414A5 JP2014032414A5 (en) 2014-04-03
JP5737356B2 true JP5737356B2 (en) 2015-06-17

Family

ID=50282230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013207283A Active JP5737356B2 (en) 2013-10-02 2013-10-02 Focus adjustment device and camera

Country Status (1)

Country Link
JP (1) JP5737356B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002014277A (en) * 2000-06-29 2002-01-18 Canon Inc Focus detecting device, image pickup device, focus detecting method, and medium presenting processing program
JP2004191629A (en) * 2002-12-11 2004-07-08 Canon Inc Focus detector
JP4984491B2 (en) * 2005-10-31 2012-07-25 株式会社ニコン Focus detection apparatus and optical system
JP5374862B2 (en) * 2007-11-16 2013-12-25 株式会社ニコン Focus detection apparatus and imaging apparatus
JP4544320B2 (en) * 2008-03-13 2010-09-15 ブラザー工業株式会社 COMMUNICATION DEVICE, COMMUNICATION PROGRAM, AND COMMUNICATION SYSTEM

Also Published As

Publication number Publication date
JP2014032414A (en) 2014-02-20

Similar Documents

Publication Publication Date Title
JP5901246B2 (en) Imaging device
JP4952060B2 (en) Imaging device
CN107249097B (en) Image pickup apparatus and control method thereof
CN102713713B (en) Focus adjusting apparatus and focus adjusting method
JP5917207B2 (en) Focus adjustment device
JP5629832B2 (en) Imaging device and method for calculating sensitivity ratio of phase difference pixel
JP2008052009A (en) Focus detection device, focus detection method and imaging apparatus
JP2017107204A (en) Information processing apparatus and information processing method
JP2013190734A (en) Focus detection device and imaging device
JP5381646B2 (en) Imaging device
JP2013054120A (en) Focus detection device and focus adjustment device
JP5850648B2 (en) Imaging device
JP2015194736A (en) Imaging device and method for controlling the same
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP5866760B2 (en) Imaging device
JP6890937B2 (en) Focus detector, image pickup device, and focus detection method
JP5600941B2 (en) Focus detection apparatus and imaging apparatus
JP5737356B2 (en) Focus adjustment device and camera
JP2012118154A (en) Imaging device
JP5610005B2 (en) Imaging device
KR20170015158A (en) Control apparatus, image pickup apparatus, and control method
JP2017219791A (en) Control device, imaging device, control method, program, and storage medium
JP2018018032A (en) Focus detection device, focus detection method, imaging device, program, and storage medium
JP7019442B2 (en) Image pickup device and its control method
JP5949893B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150406

R150 Certificate of patent or registration of utility model

Ref document number: 5737356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250