JP2012226247A - Focus detector and imaging apparatus - Google Patents

Focus detector and imaging apparatus Download PDF

Info

Publication number
JP2012226247A
JP2012226247A JP2011095938A JP2011095938A JP2012226247A JP 2012226247 A JP2012226247 A JP 2012226247A JP 2011095938 A JP2011095938 A JP 2011095938A JP 2011095938 A JP2011095938 A JP 2011095938A JP 2012226247 A JP2012226247 A JP 2012226247A
Authority
JP
Japan
Prior art keywords
focus
optical system
lens
detection
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011095938A
Other languages
Japanese (ja)
Inventor
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011095938A priority Critical patent/JP2012226247A/en
Publication of JP2012226247A publication Critical patent/JP2012226247A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a focus detector enabling excellent detection of a focus state of an optical system.SOLUTION: A focus detector comprises: phase difference detection means 21 that detects a focus state of an optical system through detecting a lag amount of an image by light from different areas of a pupil of the optical system; contrast detection means 21 that obtains picture signal by imaging the image by the optical system, calculates an evaluation value related to contrast of the image by the optical system referring to the picture signal to detect the focus state of the optical system; and control means 21 that makes the contrast detection means 21 detect the focus state of the optical system when a plurality of focus states corresponding to a focal position are detected by the phase difference detection means 21.

Description

本発明は、焦点検出装置および撮像装置に関する。   The present invention relates to a focus detection apparatus and an imaging apparatus.

従来より、位相差検出方式により、一対の像のズレ量を検出することにより、光学系の焦点状態を検出する焦点検出装置が知られている。このような焦点検出装置として、合焦位置に対応する焦点状態が複数検出された場合に、合焦位置に対応する各焦点状態において一対の像の相関量を算出し、算出した相関量を比較することで、光学系の焦点状態を検出する技術が知られている(たとえば、特許文献1)。   2. Description of the Related Art Conventionally, a focus detection device that detects a focus state of an optical system by detecting a shift amount of a pair of images by a phase difference detection method is known. As such a focus detection device, when a plurality of focus states corresponding to the focus position are detected, a correlation amount of a pair of images is calculated in each focus state corresponding to the focus position, and the calculated correlation amounts are compared. Thus, a technique for detecting the focus state of the optical system is known (for example, Patent Document 1).

特開2003−232982号公報Japanese Patent Laid-Open No. 2003-232982

しかしながら、上記特許文献1では、合焦位置に対応する複数の焦点状態で得られた相関量の差が所定値以下である場合には、合焦位置に対応する複数の焦点状態の中から、実際の合焦位置に対応する焦点状態を検出することができず、光学系の焦点状態を適切に検出できないという問題があった。   However, in Patent Document 1, when the difference in correlation amount obtained in a plurality of focus states corresponding to the in-focus position is equal to or less than a predetermined value, from among the plurality of focus states corresponding to the in-focus position, There is a problem that the focus state corresponding to the actual in-focus position cannot be detected, and the focus state of the optical system cannot be detected appropriately.

本発明が解決しようとする課題は、光学系の焦点状態を良好に検出することが可能な焦点検出装置を提供することである。   The problem to be solved by the present invention is to provide a focus detection device that can detect the focus state of an optical system satisfactorily.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In the following description, reference numerals corresponding to the drawings showing the embodiment of the present invention are given and described. However, the reference numerals are only for facilitating the understanding of the invention and are not intended to limit the invention. .

[1]本発明に係る焦点検出装置は、光学系の瞳の異なる領域からの光による像のズレ量を検出することで、前記光学系の焦点状態を検出する位相差検出手段(21)と、前記光学系による像を撮像して画像信号を取得し、前記画像信号に基づいて、前記光学系による像のコントラストに関する評価値を算出することで、前記光学系の焦点状態を検出するコントラスト検出手段(21)と、前記位相差検出手段により、合焦位置に対応する焦点状態が複数検出された場合に、前記コントラスト検出手段により、前記光学系の焦点状態の検出を行わせる制御手段(21)と、を備えることを特徴とする。   [1] A focus detection apparatus according to the present invention includes a phase difference detection means (21) for detecting a focus state of the optical system by detecting an image shift amount due to light from different regions of the pupil of the optical system. Contrast detection for detecting a focus state of the optical system by acquiring an image signal by capturing an image by the optical system and calculating an evaluation value related to a contrast of the image by the optical system based on the image signal Control means (21) for causing the contrast detection means to detect the focus state of the optical system when a plurality of focus states corresponding to the in-focus position are detected by the means (21) and the phase difference detection means. ).

[2]上記焦点検出装置に係る発明において、前記コントラスト検出手段(21)は、前記位相差検出手段(21)による焦点状態の検出結果に基づいて、前記光学系の焦点状態を検出する範囲を設定するように構成することができる。   [2] In the invention related to the focus detection apparatus, the contrast detection means (21) determines a range in which the focus state of the optical system is detected based on a focus state detection result by the phase difference detection means (21). Can be configured to set.

[3]上記焦点検出装置に係る発明において、前記コントラスト検出手段(21)は、前記位相差検出手段(21)により検出された合焦位置に対応する複数の焦点状態に、前記評価値のピークが存在するか否かが検出できる範囲を、前記光学系の焦点状態を検出する範囲として設定するように構成することができる。   [3] In the invention related to the focus detection apparatus, the contrast detection means (21) may cause the peak of the evaluation value to be in a plurality of focus states corresponding to the focus positions detected by the phase difference detection means (21). A range in which it is possible to detect whether or not the optical system is present can be set as a range in which the focus state of the optical system is detected.

[4]上記焦点検出装置に係る発明において、前記コントラスト検出手段(21)は、焦点状態を変化させる速度と、前記画像信号の取得間隔に基づいて、前記光学系の焦点状態を検出する範囲を設定するように構成することができる。   [4] In the invention related to the focus detection device, the contrast detection means (21) determines a range in which the focus state of the optical system is detected based on the speed at which the focus state is changed and the acquisition interval of the image signal. Can be configured to set.

[5]上記焦点検出装置に係る発明において、前記コントラスト検出手段(21)は、前記位相差検出手段(21)により検出された合焦位置に対応する複数の焦点状態のそれぞれについて、各前記焦点状態を含む範囲において、前記評価値を3点以上算出することができる範囲を、前記光学系の焦点状態を検出する範囲として設定するように構成することができる。   [5] In the invention relating to the focus detection device, the contrast detection means (21) may provide the focus for each of a plurality of focus states corresponding to the in-focus positions detected by the phase difference detection means (21). In the range including the state, a range in which three or more evaluation values can be calculated can be set as a range for detecting the focus state of the optical system.

[6]上記焦点検出装置に係る発明において、前記位相差検出手段(21)により、合焦位置に対応する焦点状態が複数検出された場合に、複数の前記焦点状態における像の高周波成分を検出し、前記高周波成分の検出結果に基づいて、前記光学系の焦点状態を検出する高周波成分検出手段(21)をさらに備え、前記制御手段(21)は、前記位相差検出手段により、合焦位置に対応する焦点状態が複数検出された場合に、前記コントラスト検出手段(21)と、前記高周波成分検出手段とを切り替えて、前記コントラスト検出手段または前記高周波成分検出手段に、前記光学系の焦点状態の検出を行わせるように構成することができる。   [6] In the invention related to the focus detection device, when the phase difference detection means (21) detects a plurality of focus states corresponding to the in-focus position, the high-frequency component of the image in the plurality of focus states is detected. And a high-frequency component detection means (21) for detecting a focus state of the optical system based on the detection result of the high-frequency component, and the control means (21) is configured to detect the in-focus position by the phase difference detection means. When a plurality of focus states corresponding to the above are detected, the contrast detection unit (21) and the high-frequency component detection unit are switched, and the focus state of the optical system is switched to the contrast detection unit or the high-frequency component detection unit. It is possible to configure so that the detection is performed.

[7]本発明に係る撮像装置は、上記焦点検出装置を備えることを特徴とする。   [7] An imaging device according to the present invention includes the focus detection device.

本発明によれば、光学系の焦点状態を良好に検出することができる。   According to the present invention, the focus state of the optical system can be detected satisfactorily.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面における焦点検出位置を示す正面図である。FIG. 2 is a front view showing a focus detection position on the imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is an enlarged front view showing one of the imaging pixels 221. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is an enlarged cross-sectional view showing one of the imaging pixels 221. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged cross-sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged cross-sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、本実施形態に係るカメラの動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the camera according to the present embodiment. 図10(A)は、焦点検出画素222aから出力された受光信号の強度の一例を示す図であり、図10(B)は、焦点検出画素222bから出力された受光信号の強度の一例を示す図である。FIG. 10A is a diagram illustrating an example of the intensity of the light reception signal output from the focus detection pixel 222a, and FIG. 10B illustrates an example of the intensity of the light reception signal output from the focus detection pixel 222b. FIG. 図11は、図10(A),(B)に示す一対の受光信号の間の相関量と、シフト量との関係を示す図である。FIG. 11 is a diagram illustrating the relationship between the correlation amount between the pair of light reception signals shown in FIGS. 10A and 10B and the shift amount. 図12は、図11に示す場面例において取得された焦点評価値とフォーカスレンズ位置との関係を示す図である。FIG. 12 is a diagram illustrating a relationship between the focus evaluation value and the focus lens position acquired in the example of the scene illustrated in FIG.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, by rotating the rotating cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves straight along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by rotating the rotary cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the focus lens drive motor 36 as the drive source is the lens. The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by a transmission composed of a plurality of gears, for example, and when the drive shaft of the focus lens drive motor 36 is driven to rotate in any one direction, it is transmitted to the rotary cylinder at a predetermined gear ratio. Then, when the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves linearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is rotated in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the direction of the optical axis L1 correlates with the rotation angle of the rotating cylinder.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus calculated based on this information. The driving position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by a manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。なお、撮像素子22の撮像面の前方には、赤外光をカットするための赤外線カットフィルタ、および画像の折り返しノイズを防止するための光学的ローパスフィルタが配置されている。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The image sensor 22 is composed of a device such as a CCD or CMOS, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. As the memory 24, any of a removable card type memory and a built-in type memory can be used. An infrared cut filter for cutting infrared light and an optical low-pass filter for preventing image aliasing noise are disposed in front of the imaging surface of the image sensor 22. Details of the structure of the image sensor 22 will be described later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image picked up by the image pickup device 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal driving circuit 25 that drives the electronic viewfinder (EVF) 26, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on the read image information. Thereby, the user can observe the current captured image through the eyepiece lens 27. Note that, instead of or in addition to the observation optical system using the optical axis L2, a liquid crystal display may be provided on the back surface of the camera body 2, and a photographed image may be displayed on the liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Is output to the liquid crystal driving circuit 25 and the memory 24 of the electronic viewfinder 26. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographic optical system by the phase detection method and the focus state of the photographic optical system by the contrast detection method based on the pixel data read from the image sensor 22. I do. A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタンや撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button or an input switch for a photographer to set various operation modes of the camera 1, and can switch between an auto focus mode and a manual focus mode. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the image sensor 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, the imaging element 22 of the present embodiment includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmit a green wavelength region. A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as shown in the cross-sectional view of FIG. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system by the micro lens 2211, and receives the imaging light beam.

また、撮像素子22の撮像面の中心、ならびに中心から左右対称位置の3箇所には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a,22b,22cが設けられている。そして、図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列(22a,22c,22c)に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, focus detection pixel rows 22a, 22b, and 22c in which focus detection pixels 222a and 222b are arranged in place of the above-described imaging pixels 221 at the center of the image pickup surface of the image pickup element 22 and three positions that are symmetrical from the center. Is provided. As shown in FIG. 3, one focus detection pixel column includes a plurality of focus detection pixels 222 a and 222 b that are alternately arranged adjacent to each other in a horizontal row (22 a, 22 c, 22 c). Yes. In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.

なお、図2に示す焦点検出画素列22a〜22cの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所にすることもでき、また、四箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列22a〜22cの中から、撮影者が操作部28を手動操作することにより所望の焦点検出画素列を、焦点検出位置として選択することもできる。   Note that the positions of the focus detection pixel rows 22a to 22c shown in FIG. 2 are not limited to the illustrated positions, and may be any one or two, or may be arranged at four or more positions. it can. In actual focus detection, the photographer manually operates the operation unit 28 from among a plurality of focus detection pixel rows 22a to 22c, and selects a desired focus detection pixel row as a focus detection position. You can also

図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出画素列22a〜22cを構成する。   FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 5A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 5B, and a semiconductor of the image sensor 22 as shown in a cross-sectional view of FIG. 7B. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. Then, as shown in FIG. 3, these focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row, thereby forming focus detection pixel rows 22a to 22c shown in FIG.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive light beams that pass through a predetermined region (for example, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.

また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 5A and 5B have a semicircular shape, the shapes of the photoelectric conversion units 2222a and 2222b are not limited thereto. Other shapes such as an elliptical shape, a rectangular shape, and a polygonal shape can also be used.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 and adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. 8 illustrates only the focus detection pixels 222a and 222b that are located in the vicinity of the photographing optical axis L1, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 8 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.

ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341, 342.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   As shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2. Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.

すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. The signal corresponding to is output.

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   Further, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a straight line as shown in FIG. 3, and the outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b are converted into the distance measurement pupil 341, respectively. Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane) The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based thereon are executed by the camera control unit 21.

また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算して焦点電圧を検出することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算して焦点電圧を検出することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained, for example, by extracting a high-frequency component of an image output from the imaging pixel 221 of the image sensor 22 using a high-frequency transmission filter and integrating the extracted high-frequency components to detect a focus voltage. It can also be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating them to detect the focus voltage.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これら5つの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。なお、焦点評価値のピークを検出するために用いられる焦点評価値の数は、5つに限定されるものではなく、3つ以上であればよい。たとえば、3つの焦点評価値を取得した場合に、これら焦点評価値が、1回上昇した後、さらに、1回下降して推移した場合に、これら3つの焦点評価値を用いて、焦点評価値のピークを検出する構成としてもよい。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed in which the position of the focus lens 32 is determined as the in-focus position. Note that this in-focus position is obtained when, for example, when the focus evaluation value is calculated while driving the focus lens 32, the focus evaluation value rises twice and then moves down twice. It can be obtained by performing calculations such as interpolation using five focus evaluation values. Note that the number of focus evaluation values used for detecting the peak of the focus evaluation value is not limited to five, and may be three or more. For example, when three focus evaluation values are acquired, when these focus evaluation values rise once and then move down once, using these three focus evaluation values, the focus evaluation values are used. It is good also as a structure which detects the peak of.

次いで、本実施形態に係るカメラ1の動作例を説明する。図9は、本実施形態に係るカメラ1の動作を示すフローチャートである。なお、以下の動作は、たとえば、撮影者により、操作部28に備えられたシャッターレリーズボタンが半押しされることで開始される。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 9 is a flowchart showing the operation of the camera 1 according to this embodiment. The following operation is started, for example, when the photographer presses the shutter release button provided in the operation unit 28 halfway.

まず、ステップS101では、撮像素子22により、撮影光学系からの光束の受光が行われ、カメラ制御部21により、撮像素子22の3つの焦点検出画素列22a〜22cを構成する各焦点検出画素222a,222bから一対の像に対応した一対の受光信号が読み出される。   First, in step S101, the image sensor 22 receives a light beam from the photographing optical system, and the camera control unit 21 configures the focus detection pixels 222a constituting the three focus detection pixel rows 22a to 22c of the image sensor 22. , 222b, a pair of received light signals corresponding to the pair of images are read out.

ステップS102では、カメラ制御部21により、ステップS101で読み出された一対の受光信号に基づいて、像ズレ検出演算処理(相関演算処理)が行われ、像ズレ量が演算される。具体的には、カメラ制御部21は、配列方向n番目の画素から得られた一対の受光信号の強度をα(n)、β(n)とした場合に、一対の受光信号の相関量C(k)を、下記式(1)に示す相関演算により求める。
C(k)=Σ|a(n+k)−b(n)| …(1)
なお、上記式(1)において、Σ演算はnについての累積演算(相和演算)を示し、像ずらし量kに応じてa(n+k)、b(n)のデータが存在する範囲に限定される。また、像ずらし量kは整数であり、ラインセンサ161dに配列された画素列の画素間隔を単位としたシフト量である。なお、上記式(1)の演算結果においては、一対の受光信号の相関が高いシフト量において、相関量C(k)は極小(小さいほど相関度が高い)になる。
In step S102, the camera control unit 21 performs image shift detection calculation processing (correlation calculation processing) based on the pair of light reception signals read in step S101, and calculates the image shift amount. Specifically, the camera control unit 21 sets the correlation amount C between the pair of light reception signals when the intensities of the pair of light reception signals obtained from the nth pixel in the arrangement direction are α (n) and β (n). (K) is obtained by the correlation calculation shown in the following formula (1).
C (k) = Σ | a (n + k) −b (n) | (1)
In the above equation (1), the Σ operation indicates a cumulative operation (phase sum operation) for n, and is limited to a range in which data of a (n + k) and b (n) exist according to the image shift amount k. The The image shift amount k is an integer, and is a shift amount in units of the pixel interval of the pixel column arranged in the line sensor 161d. In the calculation result of the above formula (1), the correlation amount C (k) is minimal (the correlation degree is higher as the correlation is smaller) in the shift amount where the correlation between the pair of received light signals is high.

次いで、ステップS103では、カメラ制御部21により、ステップS102で算出された相関量に基づいて、相関量の極小値を算出する処理が行われる。本実施形態では、たとえば、以下の下記式(2)〜(5)に示す3点内挿の手法を用いて、連続的な相関量に対する極小値C(x)と、極小値C(x)を与えるシフト量xを算出することができる。なお、下記式に示すC(kj)は、上記式(1)で得られた相関量C(k)のうち、C(k−1)≧C(k)およびC(k+1)>C(k)の条件を満たす値である。
D={C(kj−1)−C(kj+1)}/2 …(2)
C(x)= C(kj)−|D| …(3)
x=kj+D/SLOP …(4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)} …(5)
Next, in step S103, the camera control unit 21 performs a process of calculating the minimum value of the correlation amount based on the correlation amount calculated in step S102. In the present embodiment, for example, the minimum value C (x) and the minimum value C (x) with respect to the continuous correlation amount are obtained by using the three-point interpolation method shown in the following formulas (2) to (5). Can be calculated. Note that C (kj) shown in the following equation is C (k−1) ≧ C (k) and C (k + 1)> C (k) among the correlation amounts C (k) obtained in the above equation (1). ) Satisfying the condition of
D = {C (kj−1) −C (kj + 1)} / 2 (2)
C (x) = C (kj) − | D | (3)
x = kj + D / SLOP (4)
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (5)

ステップS104では、カメラ制御部21により、ステップS103で相関量の極小値が検出されたか否かの判断が行われる。相関量の極小値が検出された場合はステップS105に進み、一方、相関量の極小値が検出されなかった場合はステップS113に進む。   In step S104, the camera control unit 21 determines whether or not the minimum value of the correlation amount is detected in step S103. When the minimum value of the correlation amount is detected, the process proceeds to step S105. On the other hand, when the minimum value of the correlation amount is not detected, the process proceeds to step S113.

ステップS105では、カメラ制御部21により、ステップS103で複数の極小値が検出されたか否かの判断が行われる。複数の極小値が検出された場合にはステップS109に進み、一方、相関量の極小値が1つだけ検出された場合には、ステップS106に進む。   In step S105, the camera control unit 21 determines whether or not a plurality of minimum values are detected in step S103. If a plurality of minimum values are detected, the process proceeds to step S109. On the other hand, if only one minimum value of the correlation amount is detected, the process proceeds to step S106.

ここで、図10(A)は、焦点検出画素222aから出力された受光信号の強度の一例を示す図であり、図10(B)は、焦点検出画素222bから出力された受光信号の強度の一例を示す図である。また、図11は、図10(A),(B)に示す一対の受光信号の間の相関量とシフト量との関係の一例を示す図である。たとえば、森や、高層ビル、あるいは柵などを、広角レンズを用いて撮影した場合に、図10(A),(B)に示すように、周期的なパターンを有する受光信号が得られる場合がある。そして、図10(A),(B)に示すような一対の受光信号について相関演算を行った場合、図11に示すように、相関量の極小値が複数得られる場合がある。たとえば、図11に示す例では、極小値a、極小値b、極小値cの3つの極小値が検出され、ステップS109に進むこととなる。   Here, FIG. 10A is a diagram illustrating an example of the intensity of the light reception signal output from the focus detection pixel 222a, and FIG. 10B illustrates the intensity of the light reception signal output from the focus detection pixel 222b. It is a figure which shows an example. FIG. 11 is a diagram showing an example of the relationship between the correlation amount and the shift amount between the pair of light reception signals shown in FIGS. 10 (A) and 10 (B). For example, when a forest, a high-rise building, or a fence is photographed using a wide-angle lens, a light reception signal having a periodic pattern may be obtained as shown in FIGS. is there. When correlation calculation is performed on a pair of received light signals as shown in FIGS. 10A and 10B, a plurality of minimum values of correlation may be obtained as shown in FIG. For example, in the example shown in FIG. 11, three minimum values of the minimum value a, the minimum value b, and the minimum value c are detected, and the process proceeds to step S109.

ステップS106では、カメラ制御部21により、ステップS103で検出された極小値C(x)を与えるシフト量xに基づいて、デフォーカス量の演算が行われ、続くステップS107で、算出されたデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の演算が行われる。これにより、算出されたレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出され、フォーカスレンズ駆動モータ36により、レンズ駆動量に基づくフォーカスレンズ32の駆動が行われる。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS108に進み、合焦表示が行なわれる。なお、ステップS108における合焦表示は、たとえば、電子ビューファインダ26により行われる。また、合焦表示を行なう際には、位相差検出方式により合焦動作が行われた旨をユーザに報知するための表示を併せて行なってもよい。   In step S106, the camera control unit 21 calculates the defocus amount based on the shift amount x that gives the minimum value C (x) detected in step S103, and in the subsequent step S107, the calculated defocus is calculated. Based on the amount, the lens driving amount necessary to drive the focus lens 32 to the in-focus position is calculated. Accordingly, the calculated lens driving amount is sent to the focus lens driving motor 36 via the lens control unit 37, and the focus lens driving motor 36 drives the focus lens 32 based on the lens driving amount. When the driving of the focus lens 32 to the in-focus position is completed, the process proceeds to step S108, and in-focus display is performed. The in-focus display in step S108 is performed by the electronic viewfinder 26, for example. Further, when performing the focus display, a display for notifying the user that the focus operation has been performed by the phase difference detection method may be performed together.

一方、ステップS105で、相関量の極小値が複数検出されたと判断された場合には、ステップS109に進む。ステップS109では、カメラ制御部21により、コントラスト検出方式により合焦位置を検出するためのサーチ範囲の設定が行われる。具体的には、カメラ制御部21は、以下に説明するように、フォーカスレンズ32のサーチ範囲を設定する。   On the other hand, if it is determined in step S105 that a plurality of minimum correlation values have been detected, the process proceeds to step S109. In step S109, the camera control unit 21 sets a search range for detecting a focus position by a contrast detection method. Specifically, the camera control unit 21 sets the search range of the focus lens 32 as described below.

すなわち、カメラ制御部21は、ステップS103で検出された複数の極小値に対応する各レンズ位置において、焦点評価値のピークが存在するか否かを検出できる範囲を、フォーカスレンズ32のサーチ範囲として設定する。ここで、図12は、焦点評価値とフォーカスレンズ位置との関係を示す図であり、図11に示す場面例において算出された焦点評価値を示している。また、図12においては、図11に示す極小値aに対応するフォーカスレンズ32のレンズ位置をレンズ位置a’として示し、図11に示す極小値bに対応するフォーカスレンズ32のレンズ位置をレンズ位置b’として示し、また、図11に示す極小値cに対応するフォーカスレンズ32のレンズ位置をレンズ位置c’として示している。以下においては、図12に示す例において、フォーカスレンズ32を駆動させながら焦点評価値を取得し、取得した焦点評価値が、1回上昇した後、さらに、1回下降して推移した場合に、これらの焦点評価値を用いて、内挿法により焦点評価値のピークを検出する場面について説明する。   That is, the range in which the camera control unit 21 can detect whether or not there is a peak of the focus evaluation value at each lens position corresponding to the plurality of minimum values detected in step S103 is set as the search range of the focus lens 32. Set. Here, FIG. 12 is a diagram showing the relationship between the focus evaluation value and the focus lens position, and shows the focus evaluation value calculated in the scene example shown in FIG. In FIG. 12, the lens position of the focus lens 32 corresponding to the minimum value a shown in FIG. 11 is shown as a lens position a ′, and the lens position of the focus lens 32 corresponding to the minimum value b shown in FIG. The lens position of the focus lens 32 corresponding to the minimum value c shown in FIG. 11 is shown as a lens position c ′. In the following, in the example shown in FIG. 12, when the focus evaluation value is acquired while the focus lens 32 is driven, and the acquired focus evaluation value rises once and further decreases once, A scene in which the peak of the focus evaluation value is detected by interpolation using these focus evaluation values will be described.

この場合、検出された複数の相関量の極小値のうち、シフト量が最も小さい極小値に対応するレンズ位置a’において焦点評価値のピークが存在するか否かを検出するためには、レンズ位置a’を含む範囲において焦点評価値を3点取得し、取得した焦点評価値を用いて、内挿演算を行えばよい。たとえば、図12に示す例では、P,P,Pの3点で焦点評価値を算出することで、レンズ位置a’において焦点評価値のピークが存在するか否かを検出することができる。また、同様に、検出された複数の相関量の極小値のうち、シフト量が最も大きい極小値に対応するレンズ位置c’において、焦点評価値のピークが存在するか否かを検出するためには、レンズ位置c’を含む範囲において焦点評価値を3点取得し、取得した焦点評価値を用いて、内挿演算を行えばよい。たとえば、図12に示す例では、P14,P15,P16の3点で焦点評価値を算出することで、レンズ位置c’において焦点評価値のピークが存在するか否かを検出することができる。そのため、カメラ制御部21は、図12に示す例においては、Pの位置をサーチ開始位置とし、P16の位置をサーチ終了位置とした、サーチ範囲を設定することで、検出した複数の極小値に対応する各レンズ位置a’,b’,c’において、焦点評価値のピークが存在するか否かを判断することができる。 In this case, in order to detect whether or not the peak of the focus evaluation value exists at the lens position a ′ corresponding to the minimum value with the smallest shift amount among the detected minimum values of the correlation amounts, the lens Three focus evaluation values may be acquired in a range including the position a ′, and interpolation may be performed using the acquired focus evaluation values. For example, in the example shown in FIG. 12, it is detected whether or not there is a peak of the focus evaluation value at the lens position a ′ by calculating focus evaluation values at three points P 4 , P 5 , and P 6. Can do. Similarly, in order to detect whether or not a peak of the focus evaluation value exists at the lens position c ′ corresponding to the minimum value having the largest shift amount among the detected minimum values of the correlation amounts. May acquire three focus evaluation values in a range including the lens position c ′, and perform an interpolation operation using the acquired focus evaluation values. For example, in the example shown in FIG. 12, it is detected whether or not there is a peak of the focus evaluation value at the lens position c ′ by calculating the focus evaluation value at three points P 14 , P 15 , and P 16. Can do. Therefore, the camera control unit 21, in the example shown in FIG. 12, a search start position the position of the P 4, and the search end position the position of the P 16, by setting the search range, the detected plurality of minima It can be determined whether or not a peak of the focus evaluation value exists at each lens position a ′, b ′, c ′ corresponding to the value.

このように、カメラ制御部21は、検出された複数の相関量の極小値に対応する各レンズ位置において、焦点評価値のピークが存在するか否かを検出することができる範囲を、サーチ範囲として設定する。ここで、本実施形態においては、フォーカスレンズ32を、所定のサーチ駆動速度で駆動させながら、フレームレートに応じた時間間隔で、焦点評価値を算出するため、カメラ制御部21は、フォーカスレンズ32のサーチ駆動速度と、フレームレートとに基づいて、サーチ開始位置およびサーチ終了位置を算出することができる。たとえば、カメラ制御部21は、フォーカスレンズ32のサーチ駆動速度と、フレームレートとに基づいて、焦点評価値の取得間隔を算出することで、算出した焦点評価値の取得間隔に基づいて、レンズ位置a’までに焦点評価値を1つ得ることができるレンズ位置(図12中のPの位置)を算出し、該レンズ位置を、サーチ範囲のサーチ開始位置として設定することができる。また同様に、カメラ制御部21は、フォーカスレンズ32のサーチ駆動速度と、フレームレートとに基づいて、焦点評価値の取得間隔を算出することで、算出した焦点評価値の取得間隔に基づいて、レンズ位置c’から焦点評価値を1つ得ることができるレンズ位置(図12中のP16の位置)を算出し、該レンズ位置を、サーチ範囲のサーチ終了位置として、サーチ範囲を設定することができる。 As described above, the camera control unit 21 determines a range in which it is possible to detect whether or not a peak of the focus evaluation value exists at each lens position corresponding to the detected minimum values of the correlation amounts. Set as. Here, in the present embodiment, the camera control unit 21 calculates the focus evaluation value at time intervals according to the frame rate while driving the focus lens 32 at a predetermined search drive speed. The search start position and search end position can be calculated based on the search drive speed and the frame rate. For example, the camera control unit 21 calculates the focus evaluation value acquisition interval based on the search driving speed of the focus lens 32 and the frame rate, and thereby calculates the lens position based on the calculated focus evaluation value acquisition interval. The lens position (position P 4 in FIG. 12) from which one focus evaluation value can be obtained by a ′ is calculated, and this lens position can be set as the search start position of the search range. Similarly, the camera control unit 21 calculates the focus evaluation value acquisition interval based on the search drive speed of the focus lens 32 and the frame rate, and thus based on the calculated focus evaluation value acquisition interval. the focus evaluation value from the lens position c 'calculates the lens position can be obtained by one (position of the P 16 in FIG. 12), the lens position, as the search end position of the search range, setting the search range Can do.

なお、上述した例では、3つの焦点評価値を用いて、焦点評価値のピークが存在するか否かを検出する構成を説明したが、たとえば、算出した焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの5つの焦点評価値を用いて焦点評価値のピークが存在するか否かを検出する場合には、算出した焦点評価値の取得間隔に基づいて、レンズ位置a’までに焦点評価値を2つ得ることができるレンズ位置(図12中のPの位置)を、サーチ範囲のサーチ開始位置として設定し、レンズ位置c’から焦点評価値を2つ得ることができるレンズ位置(図12中のP17の位置)を、サーチ範囲のサーチ終了位置として、サーチ範囲を設定することができる。 In the above-described example, the configuration in which the focus evaluation value peak is detected using three focus evaluation values has been described. For example, after the calculated focus evaluation value has increased twice. In addition, when it is lowered twice and the peak evaluation value is detected using these five focus evaluation values, the calculated focus evaluation value acquisition interval is used. based on, the lens position a 'lens position of the focus evaluation value can be obtained two before (the position of P 3 in FIG. 12), set as the search start position of the search range, the lens position c' focus voted The search range can be set with the lens position (position P 17 in FIG. 12) from which two values can be obtained as the search end position of the search range.

ステップS110では、カメラ制御部21により、ステップS109で設定されたフォーカスレンズ32のサーチ範囲において、フォーカスレンズ32を光軸L1に沿ってサーチ駆動させながら、フレームレートに応じた時間間隔で、撮像素子22の撮像画素221から画素出力の読み出しを行い、これに基づき、焦点評価値を算出し、これにより、異なるフォーカスレンズ位置における焦点評価値を取得することで、焦点評価値のピーク位置を、合焦位置として検出する、コントラスト検出方式による焦点検出を行う。たとえば、図12に示す例では、Pの位置からP16の位置までのサーチ範囲において、フォーカスレンズ32をサーチ駆動させて、焦点評価値のピークを求めることで、相関量の極小値aに対応するレンズ位置a’において、焦点評価値のピークが検出され、検出された焦点評価値のピークの位置が、合焦位置として検出される。 In step S110, the camera control unit 21 performs the search driving of the focus lens 32 along the optical axis L1 in the search range of the focus lens 32 set in step S109, and at the time interval corresponding to the frame rate, the image sensor. The pixel output is read from the 22 imaging pixels 221, and based on this, a focus evaluation value is calculated. By acquiring focus evaluation values at different focus lens positions, the peak position of the focus evaluation value can be adjusted. Focus detection is performed by a contrast detection method, which is detected as a focal position. For example, in the example shown in FIG. 12, in the search range from the position of P 4 to the position of P 16, the focus lens 32 by the search driving, by obtaining the peak of the focus evaluation value, the minimum value a correlation amount At the corresponding lens position a ′, the peak of the focus evaluation value is detected, and the detected position of the peak of the focus evaluation value is detected as the focus position.

そして、ステップS111では、ステップS110で検出された合焦位置に基づいて、フォーカスレンズ32を、合焦位置まで駆動させるレンズ駆動処理が行なわれる。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS112に進み、合焦表示が行なわれる。なお、ステップS112における合焦表示も、たとえば、電子ビューファインダ26により行われる。また、合焦表示を行なう際には、コントラスト検出方式により合焦動作が行われた旨をユーザに報知するための表示を併せて行なってもよい。   In step S111, a lens driving process for driving the focus lens 32 to the in-focus position is performed based on the in-focus position detected in step S110. When the driving of the focus lens 32 to the in-focus position is completed, the process proceeds to step S112, and in-focus display is performed. The in-focus display in step S112 is also performed by the electronic viewfinder 26, for example. Further, when performing the in-focus display, a display for notifying the user that the in-focus operation has been performed by the contrast detection method may be performed together.

なお、ステップS104において、相関量の極小値が検出されなかった場合には、ステップS113に進み、合焦不能表示が行なわれる。合焦不能表示は、たとえば、電子ビューファインダ26により行われる。   If the minimum value of the correlation amount is not detected in step S104, the process proceeds to step S113, and an in-focus state display is performed. The in-focus indication is performed by the electronic viewfinder 26, for example.

以上のように、本実施形態では、位相差検出方式による相関演算により、複数の相関量の極小値が検出された場合に、検出された極小値に対応する各レンズ位置において、焦点評価値のピークが存在するか否かを検出可能な範囲を、サーチ範囲として設定する。そして、設定したサーチ範囲において、コントラスト検出方式により焦点評価値を算出し、焦点評価値のピークを合焦位置として検出する。これにより、本実施形態では、たとえば、図11に示すように、相関量の極小値が複数検出された場合であっても、図12に示すように、複数の極小値に対応するレンズ位置の中から、合焦位置を適切に検出することができ、偽合焦を有効に防止することができる。また、本実施形態では、フォーカスレンズ32のサーチ範囲を、検出された極小値に対応する各レンズ位置において、焦点評価値のピークが存在するか否かを検出できる範囲に限定することで、焦点検出に要する時間を短縮することができる。   As described above, in the present embodiment, when the minimum values of a plurality of correlation amounts are detected by the correlation calculation by the phase difference detection method, the focus evaluation value of each lens position corresponding to the detected minimum value is calculated. A range in which it is possible to detect whether or not a peak exists is set as a search range. Then, in the set search range, the focus evaluation value is calculated by the contrast detection method, and the peak of the focus evaluation value is detected as the in-focus position. Thereby, in the present embodiment, for example, as shown in FIG. 11, even when a plurality of minimum values of the correlation amount are detected, as shown in FIG. 12, the lens positions corresponding to the plurality of minimum values are detected. From the inside, the in-focus position can be detected appropriately, and false in-focus can be effectively prevented. Further, in the present embodiment, the focus lens 32 is limited in the search range to a range in which it is possible to detect whether or not the peak of the focus evaluation value exists at each lens position corresponding to the detected minimum value. The time required for detection can be shortened.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

例えば、上述した実施形態では、複数の相関量の極小値が検出された場合に、検出された極小値に対応するレンズ位置において、焦点評価値のピークが存在するか否かを検出できる範囲を、サーチ範囲として設定し、設定したサーチ範囲において焦点評価値を取得することで、焦点評価値のピーク位置を合焦位置として検出する構成を例示したが、上述した構成と、以下に説明する構成とを切り替え可能な構成としてもよい。すなわち、複数の相関量の極小値が検出された場合に、検出された極小値に対応する各レンズ位置まで、フォーカスレンズ32を駆動させ、極小値に対応する各レンズ位置で得られた一対の受光信号から高周波成分を抽出する。そして、複数の極小値に対応するレンズ位置のうち、高周波成分が最も多く含む受光信号が得られたレンズ位置を、合焦位置として検出する構成を、上述した構成と切り替え可能な構成としてもよい。なお、これらの構成の切り替えは、たとえば、撮影者による操作部28の操作により、いずれかの構成を用いるモードが選択された場合に、行われるようにすることができる。   For example, in the above-described embodiment, when the minimum values of a plurality of correlation amounts are detected, the range in which it is possible to detect whether or not the peak of the focus evaluation value exists at the lens position corresponding to the detected minimum value is set. The configuration in which the peak position of the focus evaluation value is detected as the in-focus position by setting the search range and acquiring the focus evaluation value in the set search range is exemplified, but the configuration described above and the configuration described below It is good also as a structure which can be switched. That is, when minimum values of a plurality of correlation amounts are detected, the focus lens 32 is driven to each lens position corresponding to the detected minimum value, and a pair of points obtained at each lens position corresponding to the minimum value is obtained. A high frequency component is extracted from the received light signal. And the structure which detects the lens position from which the received light signal containing the most high frequency components among the lens positions corresponding to the plurality of minimum values is obtained as the in-focus position may be switched to the above-described structure. . Note that switching of these configurations can be performed, for example, when a mode using any configuration is selected by an operation of the operation unit 28 by the photographer.

なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 of the above-described embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a digital video camera, a single-lens reflex digital camera, a lens-integrated digital camera, and a camera for a mobile phone. May be.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
28…操作部
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel 222a, 222b ... Focus detection pixel 28 ... Operation part 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive motor 37 ... Lens Control unit

Claims (7)

光学系の瞳の異なる領域からの光による像のズレ量を検出することで、前記光学系の焦点状態を検出する位相差検出手段と、
前記光学系による像を撮像して画像信号を取得し、前記画像信号に基づいて、前記光学系による像のコントラストに関する評価値を算出することで、前記光学系の焦点状態を検出するコントラスト検出手段と、
前記位相差検出手段により、合焦位置に対応する焦点状態が複数検出された場合に、前記コントラスト検出手段により、前記光学系の焦点状態の検出を行わせる制御手段と、を備えることを特徴とする焦点検出装置。
A phase difference detection means for detecting a focus state of the optical system by detecting an image shift amount by light from different regions of the pupil of the optical system;
Contrast detection means for detecting an in-focus state of the optical system by acquiring an image signal by capturing an image by the optical system and calculating an evaluation value related to a contrast of the image by the optical system based on the image signal When,
Control means for causing the contrast detection means to detect the focus state of the optical system when a plurality of focus states corresponding to the in-focus position are detected by the phase difference detection means. Focus detection device.
請求項1に記載の焦点検出装置において、
前記コントラスト検出手段は、前記位相差検出手段による焦点状態の検出結果に基づいて、前記光学系の焦点状態を検出する範囲を設定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
The contrast detection unit sets a range for detecting a focus state of the optical system based on a detection result of a focus state by the phase difference detection unit.
請求項2に記載の焦点検出装置において、
前記コントラスト検出手段は、前記位相差検出手段により検出された合焦位置に対応する複数の焦点状態に、前記評価値のピークが存在するか否かが検出できる範囲を、前記光学系の焦点状態を検出する範囲として設定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 2,
The contrast detection unit has a range in which it is possible to detect whether or not there is a peak of the evaluation value in a plurality of focus states corresponding to the in-focus positions detected by the phase difference detection unit. Is set as a detection range.
請求項3に記載の焦点検出装置において、
前記コントラスト検出手段は、焦点状態を変化させる速度と、前記画像信号の取得間隔に基づいて、前記光学系の焦点状態を検出する範囲を設定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 3,
The focus detection device, wherein the contrast detection means sets a range for detecting the focus state of the optical system based on a speed at which the focus state is changed and an acquisition interval of the image signal.
請求項3または4に記載の焦点検出装置において、
前記コントラスト検出手段は、前記位相差検出手段により検出された合焦位置に対応する複数の焦点状態のそれぞれについて、各前記焦点状態を含む範囲において、前記評価値を3点以上算出することができる範囲を、前記光学系の焦点状態を検出する範囲として設定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 3 or 4,
The contrast detection unit can calculate three or more evaluation values for each of a plurality of focus states corresponding to the in-focus position detected by the phase difference detection unit in a range including each focus state. A focus detection apparatus characterized in that a range is set as a range for detecting a focus state of the optical system.
請求項1〜5のいずれかに記載の焦点検出装置において、
前記位相差検出手段により、合焦位置に対応する焦点状態が複数検出された場合に、複数の前記焦点状態における像の高周波成分を検出し、前記高周波成分の検出結果に基づいて、前記光学系の焦点状態を検出する高周波成分検出手段をさらに備え、
前記制御手段は、前記位相差検出手段により、合焦位置に対応する焦点状態が複数検出された場合に、前記コントラスト検出手段と、前記高周波成分検出手段とを切り替えて、前記コントラスト検出手段または前記高周波成分検出手段に、前記光学系の焦点状態の検出を行わせることを特徴とする焦点検出装置。
In the focus detection apparatus in any one of Claims 1-5,
When a plurality of focus states corresponding to the in-focus position are detected by the phase difference detection unit, a plurality of high-frequency components of the image in the focus state are detected, and the optical system is based on the detection result of the high-frequency components. A high-frequency component detection means for detecting the focus state of
The control means switches between the contrast detection means and the high-frequency component detection means when the phase difference detection means detects a plurality of focus states corresponding to the in-focus position. A focus detection apparatus, characterized by causing a high-frequency component detection means to detect a focus state of the optical system.
請求項1〜6のいずれかに記載の焦点検出装置を備える撮像装置。   An imaging device comprising the focus detection device according to claim 1.
JP2011095938A 2011-04-22 2011-04-22 Focus detector and imaging apparatus Pending JP2012226247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011095938A JP2012226247A (en) 2011-04-22 2011-04-22 Focus detector and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011095938A JP2012226247A (en) 2011-04-22 2011-04-22 Focus detector and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012226247A true JP2012226247A (en) 2012-11-15

Family

ID=47276452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011095938A Pending JP2012226247A (en) 2011-04-22 2011-04-22 Focus detector and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012226247A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075539A (en) * 2013-10-07 2015-04-20 株式会社ニコン Camera body and imaging apparatus
US9678303B2 (en) 2013-09-27 2017-06-13 Fujifilm Corporation Imaging device and focusing control method
JP2019144573A (en) * 2019-04-11 2019-08-29 株式会社ニコン Imaging device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63262611A (en) * 1987-04-21 1988-10-28 Olympus Optical Co Ltd Automatic focusing device
JPH07270674A (en) * 1994-03-29 1995-10-20 Canon Inc Focusing detecting device
JP2003270521A (en) * 2002-03-15 2003-09-25 Konica Corp Camera
JP2006235616A (en) * 2005-01-25 2006-09-07 Canon Inc Camera, control method therefor, program and storage medium
JP2007264299A (en) * 2006-03-28 2007-10-11 Olympus Imaging Corp Focus adjustment device
JP2008129174A (en) * 2006-11-17 2008-06-05 Sony Corp Imaging apparatus
JP2008197676A (en) * 2008-04-28 2008-08-28 Canon Inc Focusing device, imaging apparatus, and control method
JP2009063921A (en) * 2007-09-07 2009-03-26 Canon Inc Imaging apparatus
JP2010107664A (en) * 2008-10-29 2010-05-13 Fujifilm Corp Stereoscopic imaging apparatus and focusing control method
JP2011150179A (en) * 2010-01-22 2011-08-04 Canon Inc Automatic focusing apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63262611A (en) * 1987-04-21 1988-10-28 Olympus Optical Co Ltd Automatic focusing device
JPH07270674A (en) * 1994-03-29 1995-10-20 Canon Inc Focusing detecting device
JP2003270521A (en) * 2002-03-15 2003-09-25 Konica Corp Camera
JP2006235616A (en) * 2005-01-25 2006-09-07 Canon Inc Camera, control method therefor, program and storage medium
JP2007264299A (en) * 2006-03-28 2007-10-11 Olympus Imaging Corp Focus adjustment device
JP2008129174A (en) * 2006-11-17 2008-06-05 Sony Corp Imaging apparatus
JP2009063921A (en) * 2007-09-07 2009-03-26 Canon Inc Imaging apparatus
JP2008197676A (en) * 2008-04-28 2008-08-28 Canon Inc Focusing device, imaging apparatus, and control method
JP2010107664A (en) * 2008-10-29 2010-05-13 Fujifilm Corp Stereoscopic imaging apparatus and focusing control method
JP2011150179A (en) * 2010-01-22 2011-08-04 Canon Inc Automatic focusing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9678303B2 (en) 2013-09-27 2017-06-13 Fujifilm Corporation Imaging device and focusing control method
JP2015075539A (en) * 2013-10-07 2015-04-20 株式会社ニコン Camera body and imaging apparatus
JP2019144573A (en) * 2019-04-11 2019-08-29 株式会社ニコン Imaging device

Similar Documents

Publication Publication Date Title
WO2013015131A1 (en) Focus adjustment device and image capturing apparatus
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP5966267B2 (en) Focus adjustment device and imaging device
JP6477744B2 (en) interchangeable lens
JP5845660B2 (en) Focus detection apparatus and imaging apparatus
JP2013003486A (en) Focus detector and imaging apparatus
JP6047861B2 (en) Focus adjustment device and camera body
JP5477344B2 (en) Focus adjustment device and imaging device provided with the same
JP2012226247A (en) Focus detector and imaging apparatus
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP2017151458A (en) Imaging device
JP2014074855A (en) Focus adjustment device and imaging device
JP6127730B2 (en) Imaging device
JP2013015806A (en) Focus detector and imaging apparatus
JP5923900B2 (en) Focus detection apparatus and imaging apparatus
JP2013054261A (en) Focus detector and imaging device
JP5821934B2 (en) Focus detection device, camera body, and camera
JP2012247723A (en) Focus adjustment device and imaging apparatus
JP6035728B2 (en) Focus adjustment device and imaging device
JP2014074853A (en) Focus adjustment device and imaging device
JP5423734B2 (en) Lens barrel and imaging device
JP2013015561A (en) Imaging apparatus
JP2016028297A (en) Lens barrel and camera body
JP5862087B2 (en) Focus adjustment device and imaging device
JP5948769B2 (en) interchangeable lens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151208