JP2013015806A - Focus detector and imaging apparatus - Google Patents

Focus detector and imaging apparatus Download PDF

Info

Publication number
JP2013015806A
JP2013015806A JP2011200141A JP2011200141A JP2013015806A JP 2013015806 A JP2013015806 A JP 2013015806A JP 2011200141 A JP2011200141 A JP 2011200141A JP 2011200141 A JP2011200141 A JP 2011200141A JP 2013015806 A JP2013015806 A JP 2013015806A
Authority
JP
Japan
Prior art keywords
focus
focus detection
optical system
image
defocus amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011200141A
Other languages
Japanese (ja)
Other versions
JP5929060B2 (en
Inventor
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011200141A priority Critical patent/JP5929060B2/en
Publication of JP2013015806A publication Critical patent/JP2013015806A/en
Application granted granted Critical
Publication of JP5929060B2 publication Critical patent/JP5929060B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a focus detector capable of reducing time required for focus detection.SOLUTION: The focus detector includes: an imaging part 22 for picking up an image by an optical system and repeatedly outputting an image signal corresponding to the picked-up image at a predetermined frame rate; a pair of light-receiving sensors 22a-22j for receiving a pair of light fluxes via the optical system and repeatedly outputting a pair of light receiving signals at a cycle corresponding to the frame rate; a phase difference detection part 21 for detecting a focus state of the optical system by sequentially calculating an amount of a shift of an image plane by the optical system at multiple detection positions in the picked-up image on the basis of the pair of the light receiving signals; and a control part 21 for causing the phase difference detection part 21 to calculate a shift amount at focus detection positions where the shift amount calculation can be performed within a predetermined time determined according to the frame rate among the multiple focus detection positions and to perform focus detection on the basis of the shift amount calculated within the predetermined time under specific imaging conditions.

Description

本発明は、焦点検出装置および撮像装置に関する。   The present invention relates to a focus detection apparatus and an imaging apparatus.

従来より、複数の焦点検出位置において、光学系による像面のずれ量を検出することで、光学系の焦点状態を検出する焦点検出装置が知られている。このような焦点検出装置において、複数の焦点検出位置のうち被写界中央部の焦点検出位置において、焦点検出を行うために十分な露出が得られていない場合には、被写界中央部の焦点検出位置における露光を継続したまま、被写界周辺部の焦点検出位置における像面のずれ量の検出を、被写界中央部の焦点検出位置における像面のずれ量の検出よりも先に行う技術が知られている(たとえば、特許文献1参照)。   2. Description of the Related Art Conventionally, a focus detection device that detects a focus state of an optical system by detecting an image plane shift amount by the optical system at a plurality of focus detection positions is known. In such a focus detection device, if sufficient exposure for focus detection is not obtained at the focus detection position in the center of the object field among the plurality of focus detection positions, While detecting exposure at the focus detection position, the detection of the image plane shift amount at the focus detection position at the periphery of the object scene is performed before the detection of the image plane shift amount at the focus detection position at the center of the object scene. The technique to perform is known (for example, refer patent document 1).

特開2003−149543号公報JP 2003-149543 A

しかしながら、従来技術では、被写界周辺部の焦点検出位置における像面のずれ量を、被写界中央部の焦点検出位置における像面のずれ量の検出よりも先に行うことにより、被写界中央部の焦点検出位置における露光時間を延長しながらも、焦点検出に要する時間が増大してしまうことを防止することができるが、焦点検出に要する時間を短縮するものではなかった。   However, in the prior art, the image plane displacement amount at the focus detection position at the periphery of the object scene is detected before the image plane displacement amount is detected at the focus detection position at the center area of the object field. While it is possible to prevent the time required for focus detection from increasing while extending the exposure time at the focus detection position in the center of the field, the time required for focus detection has not been shortened.

本発明が解決しようとする課題は、焦点検出に要する時間を短縮することが可能な焦点検出装置を提供することである。   The problem to be solved by the present invention is to provide a focus detection device capable of reducing the time required for focus detection.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In the following description, reference numerals corresponding to the drawings showing the embodiment of the present invention are given and described. However, the reference numerals are only for facilitating the understanding of the invention and are not intended to limit the invention. .

[1]本発明に係る焦点検出装置は、光学系による像を撮像し、撮像した像に対応する画像信号を、所定のフレームレートで繰り返し出力する撮像部(22)と、前記光学系を介した一対の光束を受光し、前記フレームレートに応じた周期で、一対の受光信号を繰り返し出力する一対の受光センサ(22a〜22j)と、前記一対の受光信号に基づいて、撮影画面内の複数の焦点検出位置における、前記光学系による像面のずれ量を順次演算することで、前記光学系の焦点状態を検出する位相差検出部(21)と、所定の撮影条件下において、前記位相差検出部に、前記複数の焦点検出位置のうち、前記フレームレートに応じて決められる所定時間内において、前記ずれ量の演算が可能な焦点検出位置について、前記ずれ量の演算を行わせ、前記位相差検出部に、前記所定時間内において演算された前記ずれ量に基づいて、前記光学系の焦点状態を検出させる制御部(21)と、を備えることを特徴とする。   [1] A focus detection apparatus according to the present invention captures an image by an optical system, and repeatedly outputs an image signal corresponding to the captured image at a predetermined frame rate, and the optical system. A pair of light receiving sensors (22a to 22j) that receive the pair of luminous fluxes and repeatedly output the pair of light receiving signals at a period according to the frame rate, and a plurality of light receiving sensors based on the pair of light receiving signals. A phase difference detection unit (21) for detecting a focus state of the optical system by sequentially calculating a shift amount of an image plane by the optical system at a focus detection position of the optical system, and the phase difference under a predetermined photographing condition. In a predetermined time determined according to the frame rate among the plurality of focus detection positions, the detection unit is configured to calculate the shift amount for a focus detection position where the shift amount can be calculated. The serial phase difference detecting unit, based on the deviation amount calculated within the predetermined time, a control unit for detecting the focusing state of the optical system (21), characterized in that it comprises a.

[2]上記焦点検出装置に係る発明において、前記制御部(21)は、所定の撮影条件下において、前記位相差検出部(21)に、前記複数の焦点検出位置のうち、前記フレームレートに応じた数の前記焦点検出位置についてのみ、前記ずれ量の演算を行わせるように構成することができる。   [2] In the invention relating to the focus detection device, the control unit (21) may cause the phase difference detection unit (21) to set the frame rate among the plurality of focus detection positions under a predetermined shooting condition. The shift amount can be calculated only for the corresponding number of focus detection positions.

[3]上記焦点検出装置に係る発明において、前記所定の撮影条件は、シャッターレリーズボタンの全押し操作が行われたこと、連写撮影中であること、前記光学系の焦点状態が合焦状態とされた後も、焦点状態の検出を繰り返し行うモードとされていること、および、前記複数の焦点検出位置の中から焦点検出を行うための前記焦点検出位置が特定されていることのうち少なくとも1つであるように構成することができる。   [3] In the invention relating to the focus detection apparatus, the predetermined shooting conditions include that the shutter release button is fully pressed, continuous shooting is being performed, and the focus state of the optical system is in focus. The focus detection mode is a mode in which the detection of the focus state is repeated, and at least the focus detection position for performing focus detection among the plurality of focus detection positions is specified. It can be configured to be one.

[4]上記焦点検出装置に係る発明において、前記撮像部(22)により出力された前記画像信号に基づいて、前記光学系による像のコントラストに関する評価値を算出することで、前記光学系の焦点状態を検出するコントラスト検出部(21)をさらに備え、前記一対の受光センサ(22a〜22j)は、前記撮像部の受光面に備えられるように構成することができる。   [4] In the invention related to the focus detection device, the evaluation value related to the contrast of the image by the optical system is calculated based on the image signal output from the imaging unit (22), thereby the focus of the optical system. A contrast detection unit (21) for detecting a state may be further provided, and the pair of light receiving sensors (22a to 22j) may be configured to be provided on a light receiving surface of the imaging unit.

[5]本発明に係る撮像装置は、上記焦点検出装置を備えることを特徴とする。   [5] An imaging apparatus according to the present invention includes the focus detection apparatus.

本発明によれば、焦点検出に要する時間を短縮することができる。   According to the present invention, the time required for focus detection can be shortened.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面における焦点検出エリアを示す正面図である。FIG. 2 is a front view showing a focus detection area on the imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is an enlarged front view showing one of the imaging pixels 221. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is an enlarged cross-sectional view showing one of the imaging pixels 221. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged cross-sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged cross-sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、本実施形態に係るカメラの動作例を示すフローチャートである。FIG. 9 is a flowchart illustrating an operation example of the camera according to the present embodiment. 図10は、デフォーカス演算打ち切りフラグがオフの場合における、デフォーカス量の演算方法の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of a defocus amount calculation method when the defocus calculation abort flag is off. 図11は、デフォーカス演算打ち切りフラグがオンの場合における、デフォーカス量の演算方法の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of a defocus amount calculation method when the defocus calculation abort flag is on. 図12は、デフォーカス演算打ち切り判定処理を示すフローチャートである。FIG. 12 is a flowchart illustrating the defocus calculation abort determination process. 図13は、デフォーカス量の演算を打ち切るか否かを判定するための撮影条件を示すテーブルである。FIG. 13 is a table showing imaging conditions for determining whether or not to cancel the defocus amount calculation. 図14は、デフォーカス演算打ち切りフラグがオフの場合における、デフォーカス量の演算方法の他の例を説明するための図である。FIG. 14 is a diagram for explaining another example of a defocus amount calculation method when the defocus calculation abort flag is off.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, by rotating the rotating cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves straight along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by rotating the rotary cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the focus lens drive motor 36 as the drive source is the lens. The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by a transmission composed of a plurality of gears, for example, and when the drive shaft of the focus lens drive motor 36 is driven to rotate in any one direction, it is transmitted to the rotary cylinder at a predetermined gear ratio. Then, when the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves linearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is rotated in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the optical axis L1 direction correlates with the rotation angle of the rotating cylinder, and can be obtained by detecting the relative rotation angle of the rotating cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus calculated based on this information. The driving position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by a manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。なお、撮像素子22の撮像面の前方には、赤外光をカットするための赤外線カットフィルタ、および画像の折り返しノイズを防止するための光学的ローパスフィルタが配置されている。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The image sensor 22 is composed of a device such as a CMOS, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. As the memory 24, any of a removable card type memory and a built-in type memory can be used. An infrared cut filter for cutting infrared light and an optical low-pass filter for preventing image aliasing noise are disposed in front of the imaging surface of the image sensor 22. Details of the structure of the image sensor 22 will be described later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image picked up by the image pickup device 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal driving circuit 25 that drives the electronic viewfinder (EVF) 26, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on the read image information. Thereby, the user can observe the current captured image through the eyepiece lens 27. Note that, instead of or in addition to the observation optical system using the optical axis L2, a liquid crystal display may be provided on the back surface of the camera body 2, and a photographed image may be displayed on the liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Is output to the liquid crystal driving circuit 25 and the memory 24 of the electronic viewfinder 26. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographic optical system by the phase detection method and the focus state of the photographic optical system by the contrast detection method based on the pixel data read from the image sensor 22. I do. A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタンや撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換や、オートフォーカスモードの中でも、ワンショットモード/コンティニュアスモードの切換が行えるようになっている。ここで、ワンショットモードとは、一度調節したフォーカスレンズ32の位置を固定し、そのフォーカスレンズ位置で撮影するモードであるのに対し、コンティニュアスモードとは、フォーカスレンズ32の位置を固定することなく被写体に応じてフォーカスレンズ位置を調節するモードである。また、操作部28は、AFエリアモードの切換え、すなわち、シングルエリアAFモード/オートエリアAFモードの切換えも行えるようになっている。シングルAFモードとは、撮影者により選択された焦点検出エリアで焦点検出を行うモードであるのに対し、オートエリアAFモードとは、カメラ1により焦点検出エリアを選択してピントを合わせるモードである。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button or an input switch for the photographer to set various operation modes of the camera 1, and switches between the auto focus mode / manual focus mode and the one shot mode / continuity even in the auto focus mode. It is possible to switch between the numeric modes. Here, the one-shot mode is a mode in which the position of the focus lens 32 once adjusted is fixed and photographing is performed at the focus lens position, whereas the continuous mode is a mode in which the position of the focus lens 32 is fixed. In this mode, the focus lens position is adjusted according to the subject. The operation unit 28 can also switch the AF area mode, that is, the single area AF mode / auto area AF mode. The single AF mode is a mode in which focus detection is performed in the focus detection area selected by the photographer, while the auto area AF mode is a mode in which the focus detection area is selected and focused by the camera 1. . Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the image sensor 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, the imaging element 22 of the present embodiment includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmit a green wavelength region. A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as shown in the cross-sectional view of FIG. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system by the micro lens 2211, and receives the imaging light beam.

また、撮像素子22には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a〜22jが設けられている。そして、図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列(22a〜22j)に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   Further, the imaging element 22 is provided with focus detection pixel rows 22a to 22j in which focus detection pixels 222a and 222b are arranged in place of the imaging pixel 221 described above. As shown in FIG. 3, one focus detection pixel column is configured by a plurality of focus detection pixels 222a and 222b being alternately arranged adjacent to each other in a horizontal row (22a to 22j). In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.

なお、図2に示す焦点検出画素列22a〜22jの位置は図示する位置にのみ限定されず、7箇所以下の位置に配置することもでき、また、9箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列22a〜22jの中から、撮影者が操作部28を手動操作することにより所望の焦点検出画素列を、焦点検出位置として選択することもできる。   Note that the positions of the focus detection pixel rows 22a to 22j shown in FIG. 2 are not limited to the illustrated positions, and can be arranged at seven or less positions, or can be arranged at nine or more positions. . In actual focus detection, the photographer manually operates the operation unit 28 from among a plurality of focus detection pixel rows 22a to 22j, and selects a desired focus detection pixel row as a focus detection position. You can also.

図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出画素列22a〜22jを構成する。   FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 5A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 5B, and a semiconductor of the image sensor 22 as shown in a cross-sectional view of FIG. 7B. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. These focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row as shown in FIG. 3, thereby forming focus detection pixel rows 22a to 22j shown in FIG.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive a light beam that passes through a predetermined region (eg, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.

また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 5A and 5B have a semicircular shape, the shapes of the photoelectric conversion units 2222a and 2222b are not limited thereto. Other shapes such as an elliptical shape, a rectangular shape, and a polygonal shape can also be used.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 and adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. 8 illustrates only the focus detection pixels 222a and 222b that are located in the vicinity of the photographing optical axis L1, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 8 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.

ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341, 342.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   As shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2. Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.

すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. The signal corresponding to is output.

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   Further, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a straight line as shown in FIG. 3, and the outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b are converted into the distance measurement pupil 341, respectively. Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane). The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based thereon are executed by the camera control unit 21.

また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算して焦点電圧を検出することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算して焦点電圧を検出することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained, for example, by extracting a high-frequency component of an image output from the imaging pixel 221 of the image sensor 22 using a high-frequency transmission filter and integrating the extracted high-frequency components to detect a focus voltage. It can also be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating them to detect the focus voltage.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed in which the position of the focus lens 32 is determined as the in-focus position. Note that this in-focus position is obtained when, for example, when the focus evaluation value is calculated while driving the focus lens 32, the focus evaluation value rises twice and then moves down twice. Can be obtained by performing an operation such as interpolation using the focus evaluation value.

次いで、本実施形態に係るカメラ1の動作例を説明する。図9は、本実施形態に係るカメラ1の動作例を示すフローチャートである。なお、以下の動作は、たとえば、カメラ1の電源がオンされることにより開始される。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 9 is a flowchart showing an operation example of the camera 1 according to the present embodiment. The following operation is started, for example, when the camera 1 is turned on.

まず、ステップS101では、カメラ制御部21による、スルー画像の生成、および観察光学系の電子ビューファインダ26による、スルー画像の表示が開始される。具体的には、撮像素子22により露光動作が行なわれ、カメラ制御部21により、撮像画素221の画素データの読み出しが行なわれる。そして、カメラ制御部21は、読み出したデータに基づきスルー画像を生成し、生成されたスルー画像は液晶駆動回路25に送出され、観察光学系の電子ビューファインダ26に表示される。そして、これにより、接眼レンズ27を介して、ユーザは被写体の動画を視認することが可能となる。なお、スルー画像の生成、およびスルー画像の表示は、所定のフレームレートで繰り返し実行される。   First, in step S101, generation of a through image by the camera control unit 21 and display of a through image by the electronic viewfinder 26 of the observation optical system are started. Specifically, an exposure operation is performed by the imaging element 22, and pixel data of the imaging pixel 221 is read by the camera control unit 21. Then, the camera control unit 21 generates a through image based on the read data, and the generated through image is sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder 26 of the observation optical system. As a result, the user can view the moving image of the subject through the eyepiece lens 27. Note that the generation of the through image and the display of the through image are repeatedly executed at a predetermined frame rate.

ステップS102では、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出処理が開始される。本実施形態では、位相差検出方式によるデフォーカス量の算出処理は、次のように行なわれる。すなわち、まず、カメラ制御部21により、撮像素子22の8つの焦点検出画素列22a〜22jを構成する各焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しが行なわれる。そして、カメラ制御部21は、読み出された一対の像データに基づいて像ズレ検出演算処理(相関演算処理)を実行し、8つの焦点検出画素列22a〜22jに対応する焦点検出エリアにおける像ズレ量を演算し、さらに像ズレ量をデフォーカス量に変換する。   In step S102, the camera control unit 21 starts a defocus amount calculation process using a phase difference detection method. In the present embodiment, the calculation process of the defocus amount by the phase difference detection method is performed as follows. That is, first, the camera control unit 21 reads a pair of image data corresponding to a pair of images from the focus detection pixels 222a and 222b constituting the eight focus detection pixel rows 22a to 22j of the image sensor 22. Then, the camera control unit 21 executes image shift detection calculation processing (correlation calculation processing) based on the read pair of image data, and images in the focus detection areas corresponding to the eight focus detection pixel rows 22a to 22j. The shift amount is calculated, and the image shift amount is converted into a defocus amount.

そして、本実施形態において、カメラ制御部21は、撮像素子22から、一対の像データを、たとえばスルー画像のフレームレートに応じた所定の周期で繰り返し読み出し、読み出した一対の像データに基づいて、デフォーカス量の演算を繰り返し実行する。   In this embodiment, the camera control unit 21 repeatedly reads out a pair of image data from the image sensor 22 at a predetermined cycle according to the frame rate of the through image, for example, and based on the read-out pair of image data. Repeatedly calculates the defocus amount.

ここで、図10は、本実施形態に係るデフォーカス量の演算方法の一例を説明するための図である。図10では、電荷の蓄積と、像データの転送、およびデフォーカス量の演算を時系列に沿って示している。なお、図10中のデフォーカス量の演算における1〜8の数字は、図2に示す焦点検出画素列22a〜22jに対応する8つの焦点検出エリアにおけるデフォーカス量の演算をそれぞれ示すものである(なお、後述する図11、図14においても同様である)。   Here, FIG. 10 is a diagram for explaining an example of a defocus amount calculation method according to the present embodiment. In FIG. 10, charge accumulation, image data transfer, and defocus amount calculation are shown in time series. The numbers 1 to 8 in the calculation of the defocus amount in FIG. 10 indicate the calculation of the defocus amounts in the eight focus detection areas corresponding to the focus detection pixel rows 22a to 22j shown in FIG. (The same applies to FIGS. 11 and 14 described later).

たとえば、図10に示す例では、時刻t1において、入射光に応じた電荷の蓄積が開始され、時刻t2において、時刻t1から蓄積された電荷に応じた像データの転送が開始される。また、時刻t2では、次フレームの電荷の蓄積が開始され、時刻t2から蓄積された電荷に応じた像データの転送が、時刻t4において開始される。同様に、時刻t4,t5,t6,t9においても電荷の蓄積が開始され、蓄積された電荷に応じた像データの転送が、それぞれ時刻t5,t6,t9,t10において開始される。このように、本実施形態では、電荷の蓄積と、像データの転送とが、所定の周期で繰り返し実行される。   For example, in the example shown in FIG. 10, accumulation of electric charge according to incident light is started at time t1, and transfer of image data according to the electric charge accumulated from time t1 is started at time t2. Further, at time t2, charge accumulation for the next frame is started, and transfer of image data corresponding to the charge accumulated from time t2 is started at time t4. Similarly, charge accumulation is started at times t4, t5, t6, and t9, and image data transfer corresponding to the accumulated charges is started at times t5, t6, t9, and t10, respectively. As described above, in this embodiment, charge accumulation and image data transfer are repeatedly executed at a predetermined cycle.

また、本実施形態では、デフォーカス量の演算も繰り返し行われる。たとえば、図10に示す例では、時刻t2において開始された像データの転送が、時刻t3で完了し、時刻t3から、転送された像データに基づいて、デフォーカス量の演算が開始される。図10に示す例では、図2に示す焦点検出画素列22a〜22jに対応する8つの焦点検出エリアにおけるデフォーカス量が順次演算され、その結果、時刻t3で開始された焦点検出エリアの演算が、時刻t7において終了する。そして、デフォーカス量の演算が終了すると、デフォーカス量の演算終了後に転送された像データに基づいて、時刻t8から、デフォーカス量の演算が新たに開始される。   In the present embodiment, the calculation of the defocus amount is also repeatedly performed. For example, in the example shown in FIG. 10, the transfer of the image data started at time t2 is completed at time t3, and the calculation of the defocus amount is started based on the transferred image data from time t3. In the example shown in FIG. 10, the defocus amounts in the eight focus detection areas corresponding to the focus detection pixel rows 22a to 22j shown in FIG. 2 are sequentially calculated. As a result, the calculation of the focus detection area started at time t3 is performed. The process ends at time t7. When the calculation of the defocus amount is completed, the calculation of the defocus amount is newly started from time t8 based on the image data transferred after the calculation of the defocus amount.

また、本実施形態においては、図10に示すように、全ての焦点検出エリアにおけるデフォーカス量を順次演算する、デフォーカス量の演算処理に加えて、図11に示すように、焦点検出エリアにおけるデフォーカス量の演算を、フレームレートに応じて決められる時間内で打ち切ることで、撮像素子22から転送された全ての像データに基づいてデフォーカス量の演算を行う演算処理も行われる。たとえば、以下においては、図11を参照して、撮像素子22のフレームレートでの1フレーム分の時間内(像データの転送が完了してから、次フレームの像データの転送が完了するまでの時間内)で、デフォーカス量の演算を打ち切る動作例について説明する。なお、図11は、本実施形態に係るデフォーカス量の演算方法の他の例を説明するための図である。   Further, in the present embodiment, as shown in FIG. 10, in addition to the defocus amount calculation processing for sequentially calculating the defocus amounts in all the focus detection areas, as shown in FIG. An arithmetic process for calculating the defocus amount based on all the image data transferred from the image sensor 22 is also performed by terminating the calculation of the defocus amount within a time determined according to the frame rate. For example, in the following, referring to FIG. 11, within the time of one frame at the frame rate of the image sensor 22 (from the completion of image data transfer to the completion of image data transfer of the next frame A description will be given of an operation example in which the calculation of the defocus amount is terminated within the time). FIG. 11 is a diagram for explaining another example of the defocus amount calculation method according to the present embodiment.

すなわち、図11に示す例では、図10に示す例と同様に、電荷の蓄積と、像データの転送が、所定の周期で繰り返し行われている。しかしながら、図11に示す例では、たとえば、時刻t11において、像データの転送が開始され、時刻t12において、転送された像データに基づいてデフォーカス量の演算が開始されるが、時刻t14において次フレームの像データの転送が完了すると、時刻t12で開始されたデフォーカス量の演算処理が、4つ目の焦点検出エリアにおけるデフォーカス量の演算の途中で打ち切られ、その結果、時刻t12で転送された像データに基づいて、3つの焦点検出エリアにおけるデフォーカス量のみが算出されることとなる。同様に、時刻t13において転送が開始された像データに基づいて、時刻t14において、デフォーカス量の演算が開始されるが、時刻t16において次の像データの転送が完了すると、時刻t14で開始されたデフォーカス量の演算処理が途中で打ち切られ、時刻t16から、新たに転送された像データに基づくデフォーカス量の演算が開始される。同様に、時刻t16から開始されたデフォーカス量の演算も、次の像データの転送が完了する時刻t17で打ち切られ、時刻t17から開始されたデフォーカス量の演算も、次の像データの転送が完了する時刻t18で打ち切られる。   That is, in the example shown in FIG. 11, as in the example shown in FIG. 10, charge accumulation and image data transfer are repeatedly performed at a predetermined cycle. However, in the example shown in FIG. 11, for example, transfer of image data is started at time t11, and calculation of the defocus amount is started based on the transferred image data at time t12. When the transfer of the frame image data is completed, the defocus amount calculation process started at time t12 is interrupted in the middle of the defocus amount calculation in the fourth focus detection area, and as a result, transferred at time t12. Only the defocus amounts in the three focus detection areas are calculated based on the image data thus obtained. Similarly, the calculation of the defocus amount is started at time t14 based on the image data that has been transferred at time t13. When transfer of the next image data is completed at time t16, the calculation starts at time t14. The calculation processing of the defocus amount is aborted in the middle, and the calculation of the defocus amount based on the newly transferred image data is started from time t16. Similarly, the calculation of the defocus amount started from time t16 is also aborted at time t17 when the transfer of the next image data is completed, and the calculation of the defocus amount started from time t17 is also the transfer of the next image data. Is terminated at time t18.

このように、図11に示す例では、デフォーカス量の演算を途中で打ち切り、撮像素子22のフレームレートに応じた数の焦点検出エリアについてのみ、デフォーカス量の演算を行うことで、撮像素子22から転送される全ての像データに基づいて、デフォーカス量の演算を行うことができる。そのため、たとえば特定被写体を追尾する場面において、特定被写体に対応する焦点検出エリアが特定されている場合などでは、特定被写体に対応する焦点検出エリアにおけるデフォーカス量を優先して演算することで、転送された全ての像データに基づいて、特定被写体に対応する焦点検出エリアにおける焦点状態を検出することができることとなる。   As described above, in the example illustrated in FIG. 11, the defocus amount calculation is stopped halfway, and the defocus amount calculation is performed only for the number of focus detection areas corresponding to the frame rate of the image sensor 22. The defocus amount can be calculated based on all image data transferred from the image data 22. For this reason, for example, when a focus detection area corresponding to a specific subject is specified in a scene where a specific subject is tracked, transfer is performed by preferentially calculating the defocus amount in the focus detection area corresponding to the specific subject. The focus state in the focus detection area corresponding to the specific subject can be detected on the basis of all the image data.

なお、本実施形態では、撮像素子22のフレームレートに応じて決められる時間内で、デフォーカス量の演算を打ち切ればよく、デフォーカス量を算出できる焦点検出エリアの数を、一定の数に限定する必要はない。たとえば、焦点検出エリアごとに、デフォーカス量を算出する時間にばらつきがある場合には、デフォーカス量を算出する際に、該デフォーカス量を、撮像素子22のフレームレートに応じて決められた時間内で算出できるか否かを判断し、該時間内でデフォーカス量を算出できないと判断した場合には、デフォーカス量の演算を打ち切る構成としてもよい。   In the present embodiment, the calculation of the defocus amount may be stopped within the time determined according to the frame rate of the image sensor 22, and the number of focus detection areas where the defocus amount can be calculated is limited to a certain number. do not have to. For example, when there is variation in the time for calculating the defocus amount for each focus detection area, the defocus amount is determined according to the frame rate of the image sensor 22 when calculating the defocus amount. A determination may be made as to whether or not the defocus amount can be calculated within the time, and if it is determined that the defocus amount cannot be calculated within the time, the calculation of the defocus amount may be terminated.

このように、本実施形態では、図10に示すように、全ての焦点検出エリアにおけるデフォーカス量の演算を行う処理と、図11に示すように、焦点検出エリアにおけるデフォーカス量を途中で打ち切ることで、撮像素子22から転送された全ての像データについて、デフォーカス量の演算を行う処理とを実行することができる。本実施形態において、カメラ制御部21は、撮影条件に応じて、いずれのデフォーカス量の演算処理を行うか決定する。ここで、図12は、デフォーカス量の演算を打ち切るか否かの判定を行うデフォーカス演算打ち切り判定処理を示すフローチャートであり、図13は、デフォーカス量の演算を途中で打ち切るか否かを判定するための撮影条件を示すテーブルである。以下においては、図12および図13を参照して、デフォーカス演算打ち切り判定処理について説明する。なお、このデフォーカス演算打ち切り判定処理は、図9に示すカメラ1の動作とは独立して、カメラ制御部21により繰り返し行われる。   As described above, in this embodiment, as shown in FIG. 10, the process of calculating the defocus amount in all the focus detection areas and the defocus amount in the focus detection area are cut off halfway as shown in FIG. As a result, it is possible to execute a process of calculating the defocus amount for all the image data transferred from the image sensor 22. In the present embodiment, the camera control unit 21 determines which defocus amount calculation process is performed according to the shooting conditions. Here, FIG. 12 is a flowchart showing a defocus calculation abort determination process for determining whether or not to cancel the defocus amount calculation. FIG. 13 shows whether or not the defocus amount calculation is interrupted halfway. It is a table which shows the imaging conditions for determination. In the following, the defocus calculation abort determination process will be described with reference to FIGS. 12 and 13. This defocus calculation abort determination process is repeatedly performed by the camera control unit 21 independently of the operation of the camera 1 shown in FIG.

図12に示すように、まず、ステップS201では、カメラ制御部21により、オートフォーカスモードのうち、ワンショットモードが設定されているか否かの判断が行われる。ワンショットモードが設定されている場合には、ステップS202に進み、デフォーカス演算打ち切りフラグがオフに設定される。これにより、ワンショットモードが設定されている場合には、図10に示すように、全ての焦点検出エリアにおいてデフォーカス量の算出が行われるため、被写体にピントの合った画像を撮像することができることとなる。   As shown in FIG. 12, first, in step S201, the camera control unit 21 determines whether or not the one-shot mode is set in the autofocus mode. If the one-shot mode is set, the process proceeds to step S202, and the defocus calculation abort flag is set to OFF. As a result, when the one-shot mode is set, as shown in FIG. 10, the defocus amount is calculated in all focus detection areas, so that an image focused on the subject can be captured. It will be possible.

一方、ステップS201で、コンティニュアスモードが設定されていると判断された場合には、ステップS203に進む。ステップS203では、カメラ制御部21により、AFエリアモードのうち、複数の焦点検出エリアの中から焦点検出を行うための焦点検出エリアを自動で特定するオートエリアAFモードが設定されているか否かの判断が行われる。オートエリアAFモードが設定されている場合には、ステップS204に進み、一方、焦点検出を行うための焦点検出エリアを撮影者が特定するシングルエリアAFモードが設定されている場合には、ステップS205に進む。   On the other hand, if it is determined in step S201 that the continuous mode is set, the process proceeds to step S203. In step S203, whether or not the camera control unit 21 has set an auto area AF mode for automatically specifying a focus detection area for performing focus detection from among a plurality of focus detection areas among the AF area modes. Judgment is made. When the auto area AF mode is set, the process proceeds to step S204. On the other hand, when the single area AF mode in which the photographer specifies the focus detection area for performing focus detection is set, step S205 is performed. Proceed to

ステップS204では、カメラ制御部21により、焦点検出を行うための焦点検出エリアが実際に特定されているか否かの判断が行われる。ここで、本実施形態では、オートエリアAFモードが設定されている場合において、焦点検出を行うための焦点検出エリアが特定されていない場合には、全ての焦点検出エリアにおいて、デフォーカス量の演算を行い、算出された各焦点検出エリアにおけるデフォーカス量の分布に基づいて、焦点検出を行うための焦点検出エリアを特定する。そのため、オートエリアAFモードが設定されており(ステップS203=Yes)、焦点検出を行うための焦点検出エリアが特定されていない場合には(ステップS204=No)、ステップS202に進み、図10に示すように、全ての焦点検出エリアにおいてデフォーカス量の演算を行うために、デフォーカス演算打ち切りフラグがオフに設定される。   In step S204, the camera control unit 21 determines whether or not a focus detection area for performing focus detection is actually specified. Here, in the present embodiment, when the auto area AF mode is set and the focus detection area for performing focus detection is not specified, the defocus amount calculation is performed in all focus detection areas. And a focus detection area for performing focus detection is specified based on the calculated defocus amount distribution in each focus detection area. Therefore, when the auto area AF mode is set (step S203 = Yes) and the focus detection area for performing focus detection is not specified (step S204 = No), the process proceeds to step S202, and FIG. As shown, the defocus calculation abort flag is set to OFF in order to calculate the defocus amount in all focus detection areas.

一方、コンティニュアスモードが設定されている場合(ステップS201=No)において、シングルエリアAFモードにより焦点検出を行うための焦点検出エリアが撮影者により特定されている場合(ステップS203=No)、または、オートエリアAFモードにより、焦点検出を行うための焦点検出エリアが自動で特定されている場合(ステップS203=Yes、ステップS204=Yes)には、ステップS205に進む。ステップS205では、カメラ制御部21により、特定された焦点検出エリアとその周辺の焦点検出エリアにおいて、転送された全ての像データについて、デフォーカス量の演算を行うため、デフォーカス演算打ち切りフラグがオンに設定される。   On the other hand, when the continuous mode is set (step S201 = No), the focus detection area for performing focus detection in the single area AF mode is specified by the photographer (step S203 = No). Alternatively, when the focus detection area for performing focus detection is automatically specified by the auto area AF mode (step S203 = Yes, step S204 = Yes), the process proceeds to step S205. In step S205, the camera control unit 21 calculates the defocus amount for all the transferred image data in the specified focus detection area and the surrounding focus detection areas, so that the defocus calculation abort flag is turned on. Set to

このように、本実施形態に係るデフォーカス演算打ち切り判定処理が行われ、デフォーカス量の演算を途中で打ち切るためのデフォーカス演算打ち切りフラグが設定される。すなわち、本実施形態では、図13に示すように、ワンショットモードが設定されている撮影条件では、デフォーカス演算打ち切りフラグがオフに設定され、図10に示すように、全ての焦点検出エリア(AFエリア)において、デフォーカス量の演算(Def演算)が行われることとなる。   In this way, the defocus calculation abort determination process according to the present embodiment is performed, and the defocus calculation abort flag for aborting the defocus amount computation is set. That is, in the present embodiment, as shown in FIG. 13, the defocus calculation abort flag is set to OFF under the shooting condition in which the one-shot mode is set, and as shown in FIG. In the AF area), a defocus amount calculation (Def calculation) is performed.

また、図13に示すように、コンティニュアスモードが設定されている場合において、シングルエリアAFモードが設定されている撮影条件、あるいは、コンティニュアスモードが設定されている場合において、オートエリアAFモードで、焦点検出を行うための焦点検出エリアが実際に特定されている撮影条件では、デフォーカス演算打ち切りフラグがオンに設定され、図11に示すように、像データが転送される度に、デフォーカス量の演算(Def演算)が途中で打ち切られることとなる。   Further, as shown in FIG. 13, when the continuous mode is set, the auto area AF is set when the shooting condition in which the single area AF mode is set or when the continuous mode is set. In the shooting conditions in which the focus detection area for performing focus detection is actually specified in the mode, the defocus calculation abort flag is set to ON, and as shown in FIG. The defocus amount calculation (Def calculation) is terminated halfway.

さらに、本実施形態では、図13に示すように、コンティニュアスモードが設定されている場合において、オートエリアAFモードで、焦点検出を行うための焦点検出エリアが特定されていない撮影条件では、デフォーカス演算打ち切りフラグがオフに設定され、図10に示すように、全ての焦点検出エリア(AFエリア)において、デフォーカス量の演算(Def演算)が行われることとなる。   Furthermore, in the present embodiment, as shown in FIG. 13, when the continuous mode is set, in the shooting conditions in which the focus detection area for performing focus detection is not specified in the auto area AF mode, The defocus calculation abort flag is set to OFF, and the defocus amount calculation (Def calculation) is performed in all focus detection areas (AF areas) as shown in FIG.

次いで、図9に戻り、ステップS103では、カメラ制御部21により、焦点評価値の算出処理が開始される。本実施形態では、焦点評価値の算出処理は、撮像素子22の撮像画素221の画素出力を読み出し、読み出した画素出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算して焦点電圧を検出することにより行われる。なお、焦点評価値の算出処理は、所定の間隔で繰り返し実行される。   Next, returning to FIG. 9, in step S <b> 103, the camera control unit 21 starts a focus evaluation value calculation process. In the present embodiment, the focus evaluation value calculation process reads out the pixel output of the imaging pixel 221 of the imaging device 22, extracts a high-frequency component of the read-out pixel output using a high-frequency transmission filter, integrates it, and focuses This is done by detecting the voltage. The focus evaluation value calculation process is repeatedly executed at predetermined intervals.

ステップS104では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたか否かの判断が行なわれる。第1スイッチSW1がオンした場合はステップS105に進む。一方、第1スイッチSW1がオンしていない場合は、第1スイッチSW1がオンされるまで、ステップS104を繰り返す。すなわち、第1スイッチSW1がオンされるまで、位相差検出方式によるデフォーカス量の算出処理、および焦点評価値の算出処理が繰り返し実行される。   In step S104, the camera control unit 21 determines whether or not the shutter release button provided in the operation unit 28 is half-pressed (the first switch SW1 is turned on). If the first switch SW1 is turned on, the process proceeds to step S105. On the other hand, if the first switch SW1 is not turned on, step S104 is repeated until the first switch SW1 is turned on. That is, the defocus amount calculation process and the focus evaluation value calculation process by the phase difference detection method are repeatedly executed until the first switch SW1 is turned on.

ステップS105では、ステップS102と同様に、位相差検出方式により、焦点検出を行うための焦点検出エリアにおける、デフォーカス量の算出ができたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS110に進む。一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS106に進む。   In step S105, as in step S102, it is determined whether or not the defocus amount has been calculated in the focus detection area for performing focus detection by the phase difference detection method. If the defocus amount can be calculated, it is determined that distance measurement is possible, and the process proceeds to step S110. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is impossible, and the process proceeds to step S106.

ステップS105において、デフォーカス量が算出できたと判定され、測距可能と判断された場合には、ステップS110に進み、位相差検出方式により算出されたデフォーカス量に基づいて、合焦動作が行なわれる。具体的には、まず、カメラ制御部21により、位相差検出方式により算出されたデフォーカス量から、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行われる。ここで、デフォーカス量演算打ち切りフラグがオフに設定されており、たとえば図10に示すように、8つ全ての焦点検出エリアにおいて、デフォーカス量が算出できた場合には、カメラ制御部21は、8つの焦点検出エリアにおいて算出されたデフォーカス量の分布に基づいて、焦点検出を行うための焦点検出エリアを特定し、特定された焦点検出エリアにおけるデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出を行う。また、デフォーカス量演算打ち切りフラグがオンに設定されており、焦点検出エリアにおけるデフォーカス量の演算が途中で打ち切られた場合には、カメラ制御部21は、実際に算出できたデフォーカス量(図11に示す例では、3つの焦点検出エリアにおけるデフォーカス量)の分布に基づいて、焦点検出を行うための焦点検出エリアを特定し、特定された焦点検出エリアにおけるデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出を行う。   If it is determined in step S105 that the defocus amount has been calculated and it is determined that distance measurement is possible, the process proceeds to step S110, and a focusing operation is performed based on the defocus amount calculated by the phase difference detection method. It is. Specifically, first, the camera control unit 21 calculates the lens driving amount necessary to drive the focus lens 32 to the in-focus position from the defocus amount calculated by the phase difference detection method. Here, when the defocus amount calculation abort flag is set to OFF, and the defocus amount can be calculated in all eight focus detection areas, for example, as shown in FIG. Based on the distribution of defocus amounts calculated in the eight focus detection areas, a focus detection area for performing focus detection is specified, and the focus lens 32 is adjusted based on the defocus amount in the specified focus detection areas. The lens drive amount required to drive to the in-focus position is calculated. In addition, when the defocus amount calculation abort flag is set to ON and the calculation of the defocus amount in the focus detection area is interrupted in the middle, the camera control unit 21 determines the defocus amount ( In the example shown in FIG. 11, a focus detection area for performing focus detection is identified based on the distribution of defocus amounts in three focus detection areas), and based on the defocus amounts in the identified focus detection area, The lens driving amount necessary to drive the focus lens 32 to the in-focus position is calculated.

そして、算出されたレンズ駆動量は、レンズ制御部37を介して、レンズ駆動モータ36に送出され、これにより、レンズ駆動モータ36は、カメラ制御部21により算出されたレンズ駆動量に基づいて、フォーカスレンズ32を合焦位置まで駆動させる。そして、フォーカスレンズ32が合焦位置まで駆動すると、ステップS113に進む。   Then, the calculated lens driving amount is sent to the lens driving motor 36 via the lens control unit 37, whereby the lens driving motor 36 is based on the lens driving amount calculated by the camera control unit 21. The focus lens 32 is driven to the in-focus position. When the focus lens 32 is driven to the in-focus position, the process proceeds to step S113.

一方、ステップS105において、位相差検出方式により、焦点検出を行うための焦点検出エリアにおける、デフォーカス量の算出ができなかったと判定された場合には、ステップS106に進み、カメラ制御部21により、スキャン動作の開始処理が行なわれる。本実施形態のスキャン動作は、フォーカスレンズ駆動モータ36により、フォーカスレンズ32をスキャン駆動させながら、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出、および焦点評価値の算出を、所定の間隔で同時に行い、これにより、位相差検出方式による合焦位置の検出と、コントラスト検出方式による合焦位置の検出とを、所定の間隔で、同時に実行する動作である。   On the other hand, if it is determined in step S105 that the defocus amount cannot be calculated in the focus detection area for performing focus detection by the phase difference detection method, the process proceeds to step S106, and the camera control unit 21 Scanning start processing is performed. In the scan operation of this embodiment, the focus lens drive motor 36 scans the focus lens 32, and the camera control unit 21 calculates a defocus amount and a focus evaluation value by a phase difference detection method. Thus, the detection of the in-focus position by the phase difference detection method and the detection of the in-focus position by the contrast detection method are simultaneously performed at predetermined intervals.

具体的には、カメラ制御部21は、レンズ制御部37にスキャン駆動開始指令を送出し、レンズ制御部37は、カメラ制御部21からの指令に基づき、フォーカスレンズ駆動モータ36を駆動させ、フォーカスレンズ32を光軸L1に沿ってスキャン駆動させる。なお、フォーカスレンズ32のスキャン駆動は、無限遠端位置から至近端位置に向かって、あるいは、至近端位置から無限遠端位置に向かって行なう。   Specifically, the camera control unit 21 sends a scan drive start command to the lens control unit 37, and the lens control unit 37 drives the focus lens drive motor 36 based on the command from the camera control unit 21 to focus. The lens 32 is scan-driven along the optical axis L1. Note that the scan driving of the focus lens 32 is performed from the infinity end position toward the close end position, or from the close end position toward the infinity end position.

そして、カメラ制御部21は、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しを行い、これに基づき、位相差検出方式により、デフォーカス量の算出および算出されたデフォーカス量の信頼性の評価を行うとともに、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の撮像画素221から画素出力の読み出しを行い、これに基づき、焦点評価値を算出し、これにより、異なるフォーカスレンズ位置における焦点評価値を取得することで、コントラスト検出方式により合焦位置の検出を行う。   Then, while driving the focus lens 32, the camera control unit 21 reads out a pair of image data corresponding to the pair of images from the focus detection pixels 222a and 222b of the image sensor 22 at predetermined intervals. The phase difference detection method calculates the defocus amount, evaluates the reliability of the calculated defocus amount, and drives the focus lens 32 to drive the pixel output from the imaging pixel 221 of the imaging element 22 at a predetermined interval. Reading is performed, and based on this, a focus evaluation value is calculated, thereby acquiring a focus evaluation value at a different focus lens position, thereby detecting a focus position by a contrast detection method.

なお、カメラ制御部21は、スキャン動作において、位相差検出方式によりデフォーカス量の演算を行う際にも、上述したように、図12に示すデフォーカス演算打ち切り判定処理で設定した、デフォーカス演算打ち切りフラグに基づいて、デフォーカス量の演算を行う。   Note that, as described above, the camera control unit 21 also performs the defocus calculation set in the defocus calculation abort determination process shown in FIG. 12 when calculating the defocus amount by the phase difference detection method in the scan operation. Based on the abort flag, the defocus amount is calculated.

そして、ステップS107では、カメラ制御部21により、スキャン動作を行なった結果、位相差検出方式により、焦点検出エリアにおける、デフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS110に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS108に進む。なお、ステップS107においては、上述したステップS105と同様に、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合には、デフォーカス量の算出ができなかったものとして扱い、ステップS108に進むこととする。   In step S107, it is determined whether the defocus amount in the focus detection area can be calculated by the phase difference detection method as a result of the scanning operation performed by the camera control unit 21. If the defocus amount can be calculated, it is determined that distance measurement is possible and the process proceeds to step S110. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is not possible and the process proceeds to step S108. . In step S107, as in step S105 described above, even when the defocus amount can be calculated, the defocus amount cannot be calculated if the reliability of the calculated defocus amount is low. It is assumed that the process proceeds to step S108.

ステップS108では、カメラ制御部21により、スキャン動作を行なった結果、コントラスト検出方式により、焦点検出エリアにおける合焦位置の検出ができたか否かの判定が行なわれる。コントラスト検出方式により、合焦位置の検出ができた場合には、ステップS111に進み、一方、合焦位置の検出ができなかった場合には、ステップS109に進む。   In step S108, it is determined whether or not the in-focus position in the focus detection area has been detected by the contrast detection method as a result of the scanning operation performed by the camera control unit 21. If the in-focus position can be detected by the contrast detection method, the process proceeds to step S111. If the in-focus position cannot be detected, the process proceeds to step S109.

ステップS109では、カメラ制御部21により、スキャン動作を、フォーカスレンズ32の駆動可能範囲の全域、すなわち、無限遠端位置から至近端位置の間の全域について行なったか否かの判定が行なわれる。フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作を行なっていない場合には、ステップS107に戻り、ステップS107〜S109を繰り返すことにより、スキャン動作、すなわち、フォーカスレンズ32を駆動させながら、位相差検出方式によるデフォーカス量の算出、およびコントラスト検出方式による合焦位置の検出を、所定の間隔で同時に実行する動作を継続して行なう。一方、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行を完了している場合には、ステップS112に進む。   In step S <b> 109, the camera control unit 21 determines whether or not the scan operation has been performed for the entire range in which the focus lens 32 can be driven, that is, for the entire region between the infinity end position and the closest end position. When the scan operation is not performed for the entire driveable range of the focus lens 32, the process returns to step S107, and steps S107 to S109 are repeated to thereby perform the scan operation, that is, the phase difference while driving the focus lens 32. The operation of simultaneously executing the calculation of the defocus amount by the detection method and the detection of the in-focus position by the contrast detection method at predetermined intervals is continuously performed. On the other hand, when the execution of the scan operation is completed for the entire driveable range of the focus lens 32, the process proceeds to step S112.

そして、スキャン動作を実行した結果、ステップS107において、位相差検出方式により、デフォーカス量が算出できたと判定された場合には、スキャン動作を停止し、ステップS110に進み、上記と同様にして、位相差検出方式により算出されたデフォーカス量に基づく、合焦動作が行なわれる。   As a result of executing the scanning operation, if it is determined in step S107 that the defocus amount can be calculated by the phase difference detection method, the scanning operation is stopped, and the process proceeds to step S110. A focusing operation based on the defocus amount calculated by the phase difference detection method is performed.

また、スキャン動作を実行した結果、ステップS108において、コントラスト検出方式により、合焦位置が検出できたと判定された場合には、スキャン動作を停止し、ステップS111に進み、コントラスト検出方式により検出された合焦位置に基づく、合焦動作が行なわれる。すなわち、ステップS111では、コントラスト検出方式により検出された合焦位置に基づいて、フォーカスレンズ32を、合焦位置まで駆動させる合焦駆動処理が行なわれる。   As a result of executing the scanning operation, if it is determined in step S108 that the in-focus position has been detected by the contrast detection method, the scanning operation is stopped, and the process proceeds to step S111, where it is detected by the contrast detection method. A focusing operation based on the focusing position is performed. That is, in step S111, a focus drive process for driving the focus lens 32 to the focus position is performed based on the focus position detected by the contrast detection method.

一方、ステップS109において、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行が完了していると判定された場合には、ステップS112に進む。ステップS112では、スキャン動作を行なった結果、位相差検出方式およびコントラスト検出方式のいずれの方式によっても、焦点検出を行うことができなかったため、スキャン動作を終了し、フォーカスレンズ32を予め定められた所定位置まで駆動させる処理が行なわれる。   On the other hand, if it is determined in step S109 that the scan operation has been completed for the entire driveable range of the focus lens 32, the process proceeds to step S112. In step S112, as a result of performing the scanning operation, focus detection could not be performed by any of the phase difference detection method and the contrast detection method, so the scanning operation was terminated and the focus lens 32 was determined in advance. A process of driving to a predetermined position is performed.

そして、ステップS110において、位相差検出方式により算出されたデフォーカス量に基づいてフォーカスレンズ32を合焦位置に駆動させた後、ステップS111において、コントラスト検出方式により検出された合焦位置に基づいてフォーカスレンズ32を合焦位置に駆動させた後、あるいは、ステップS112において,フォーカスレンズ32を予め定められた所定位置まで駆動させる処理が行なわれた後には、ステップS113に進み、カメラ制御部21により、オートフォーカスモードがワンショットモードに設定されているか否かの判定が行なわれる。ワンショットモードに設定されている場合には、ステップS114に進み、ワンショットモードではなく、コンティニュアスモードが設定されている場合には、ステップS116に進む。   In step S110, the focus lens 32 is driven to the in-focus position based on the defocus amount calculated by the phase difference detection method, and in step S111, based on the in-focus position detected by the contrast detection method. After the focus lens 32 is driven to the in-focus position, or after the process for driving the focus lens 32 to a predetermined position in step S112 is performed, the process proceeds to step S113, and the camera control unit 21 performs the process. Then, it is determined whether or not the autofocus mode is set to the one-shot mode. If the one-shot mode is set, the process proceeds to step S114. If the continuous mode is set instead of the one-shot mode, the process proceeds to step S116.

ワンショットモードに設定されている場合には、ステップS114に進み、フォーカスレンズ32を現在のレンズ位置に固定する合焦ロックが行なわれる。そして、ステップS115にて、操作部28に備えられたシャッターレリーズボタンの全押し(第2スイッチSW2のオン)がされたか否かの判断が行なわれ、第2スイッチSW2がオンされない場合には、フォーカスレンズ32を現在のレンズ位置に固定したまま、第2スイッチSW2がオンされるまで、待機し、一方、第2スイッチSW2がオンされると、ステップS119に進み、被写体像の撮影が行なわれる。   If the one-shot mode is set, the process proceeds to step S114, and a focus lock for fixing the focus lens 32 at the current lens position is performed. In step S115, it is determined whether or not the shutter release button provided in the operation unit 28 has been fully pressed (the second switch SW2 is turned on). If the second switch SW2 is not turned on, While the focus lens 32 is fixed at the current lens position, the process waits until the second switch SW2 is turned on. On the other hand, when the second switch SW2 is turned on, the process proceeds to step S119 to shoot a subject image. .

また、本実施形態では、シャッターレリーズボタンの全押し(第2スイッチSW2のオン)がされた際に、位相差検出方式によりデフォーカス量の演算が行われている場合には、全ての焦点検出エリアにおけるデフォーカス量の演算が終了するのを待つことなく、デフォーカス量の演算を途中で打ち切り、被写体像の本撮影処理に移行する。たとえば、カメラ制御部21は、シャッターレリーズボタンが全押しされ、撮像素子22が被写体像を本撮影するための撮影モードとなった場合に、デフォーカス量の演算を途中で打ち切り、被写体像の撮影処理に移行することができる。これにより、シャッターレリーズボタンが全押しされてから、被写体像の本撮影が開始されるまでのタイムラグを短縮することができる。   Further, in this embodiment, when the defocus amount is calculated by the phase difference detection method when the shutter release button is fully pressed (the second switch SW2 is turned on), all focus detections are performed. Without waiting for the calculation of the defocus amount in the area to end, the calculation of the defocus amount is interrupted halfway and the process proceeds to the subject image main photographing process. For example, when the shutter release button is fully pressed and the image sensor 22 enters a photographing mode for photographing a subject image, the camera control unit 21 aborts the calculation of the defocus amount halfway and shoots the subject image. You can move on to processing. As a result, the time lag from when the shutter release button is fully pressed to when the actual shooting of the subject image is started can be shortened.

一方、ステップS113で、コンティニュアスモードに設定されていると判断された場合には、ステップS116に進み、フォーカスレンズ32を合焦位置に停止させた状態として、ステップS117に進み、光学系の焦点状態が変化したか否かの判断が行なわれる。たとえば、カメラ制御部21によって繰り返し算出されている位相差検出方式によるデフォーカス量が所定値以上変化した場合や、デフォーカス量が算出できなかった場合、あるいは、同じくカメラ制御部21によって繰り返し算出されている焦点評価値が所定値以上変化した場合に、光学系の焦点状態が変化したと判断することができる。光学系の焦点状態が変化したと判断された場合には、ステップS104に戻り、第1スイッチSW1がオンされた状態である場合には、上述してステップS105〜S112の処理を再度行なうことにより、フォーカスレンズ32を合焦位置まで駆動させるための動作が行なわれる。一方、光学系の焦点状態が変化していない場合には、第2スイッチSW2がオンされるか(ステップS118)、あるいは、光学系の焦点状態が変化するまで(ステップS117)、フォーカスレンズ32を現在のレンズ位置に停止させたまま待機し、第2スイッチSW2がオンされた場合に(ステップS118=Yes)、被写体像の撮影が行われる。   On the other hand, if it is determined in step S113 that the continuous mode has been set, the process proceeds to step S116, the focus lens 32 is stopped at the in-focus position, and the process proceeds to step S117. A determination is made whether the focus state has changed. For example, when the defocus amount by the phase difference detection method repeatedly calculated by the camera control unit 21 changes by a predetermined value or more, or when the defocus amount cannot be calculated, or is also repeatedly calculated by the camera control unit 21. When the focus evaluation value is changed by a predetermined value or more, it can be determined that the focus state of the optical system has changed. If it is determined that the focus state of the optical system has changed, the process returns to step S104. If the first switch SW1 is turned on, the processes of steps S105 to S112 are performed again as described above. Then, an operation for driving the focus lens 32 to the in-focus position is performed. On the other hand, when the focus state of the optical system has not changed, the focus lens 32 is moved until the second switch SW2 is turned on (step S118) or until the focus state of the optical system changes (step S117). When the second lens switch SW2 is turned on while being stopped at the current lens position (step S118 = Yes), a subject image is shot.

以上のように、本実施形態に係るカメラ1は、図13に示すように、コンティニュアスモードが設定されている場合に、オートエリアAFモードで、焦点検出を行うための焦点検出エリアが実際に特定されている撮影条件下や、コンティニュアスモードが設定されている場合に、シングルエリアAFモードが設定されている撮影条件下においては、図11に示すように、像データの転送に合わせて、デフォーカス量の演算を打ち切り、新たに転送された像データに基づいて、デフォーカス量の演算を行う処理を繰り返し実行する。これにより、本実施形態では、撮像素子22から転送された全ての像データについて、デフォーカス量の演算を行った場合でも、焦点検出に要する時間を短縮することができる。また、本実施形態では、焦点検出位置におけるデフォーカス量の演算を途中で打ち切ることで、撮像素子22から転送される全ての像データについて、デフォーカス量の演算を行うことができるため、特定被写体に追従する場面などにおいては、特定被写体への追従性を高めることができる。   As described above, the camera 1 according to the present embodiment actually has a focus detection area for performing focus detection in the auto area AF mode when the continuous mode is set as shown in FIG. 11 or when the continuous mode is set and the shooting condition is set to the single area AF mode, as shown in FIG. Then, the calculation of the defocus amount is stopped, and the process of calculating the defocus amount is repeatedly executed based on the newly transferred image data. Thereby, in this embodiment, the time required for focus detection can be reduced even when the defocus amount is calculated for all the image data transferred from the image sensor 22. In the present embodiment, the calculation of the defocus amount can be performed for all image data transferred from the image sensor 22 by stopping the calculation of the defocus amount at the focus detection position. In a scene where the user follows the subject, the followability to the specific subject can be improved.

さらに、本実施形態では、図13に示すように、ワンショットモードが設定されている撮影条件下では、全ての焦点検出エリアにおけるデフォーカス量の演算が行わるため、被写体にピントの合った画像を適切に撮像することができる。また、コンティニュアスモードが設定されている場合において、オートエリアAFモードで、焦点検出を行うための焦点検出エリアが特定されていない撮影条件下では、全ての焦点検出エリアにおけるデフォーカス量の演算を行うことで、焦点検出を行うための焦点検出エリアを適切に特定することができる。   Furthermore, in the present embodiment, as shown in FIG. 13, under the shooting conditions in which the one-shot mode is set, the defocus amount is calculated in all the focus detection areas, so that the subject is in focus. Can be appropriately imaged. In addition, when the continuous mode is set, calculation of the defocus amount in all the focus detection areas under the shooting conditions in which the focus detection area for performing focus detection is not specified in the auto area AF mode. By performing the above, it is possible to appropriately specify a focus detection area for performing focus detection.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

例えば、上述した実施形態では、デフォーカス演算打ち切りフラグがオフである場合には、図10に示すように、全ての焦点検出位置におけるデフォーカス量の演算が完了した後に、デフォーカス量の演算の完了後に転送された像データを用いて、デフォーカス量の演算を新たに行うことで、デフォーカス量の演算を繰り返す構成を例示しているが、この構成に限定されず、たとえば、図14に示すように、デフォーカス量の演算が完了した時点で、既に転送されている最新の像データを用いて、デフォーカス量の演算を続けて行う構成としてもよい。たとえば、図14に示す例では、時刻t21において開始されたデフォーカス量の演算が時刻t23で終了するため、時刻t23の時点で既に転送されている、時刻t22で転送された像データを用いて、時刻t23から、デフォーカス量の演算が新たに開始される。同様に、時刻t23で開始されたデフォーカス量の演算が時刻t25で終了するため、時刻t25の時点で既に転送されている、時刻t24で転送された像データを用いて、時刻t25から、デフォーカス量の演算が新たに開始される。このように、図14に示す例では、デフォーカス量の演算が終了した後に、像データの転送の完了を待たずに、デフォーカス量の演算を新たに開始することができるため、図10に示す例と比べて、より多くの像データに基づいて、光学系の焦点状態を検出することができる。なお、図14は、デフォーカス演算打ち切りフラグがオフである場合における、デフォーカス量の算出方法の他の例を説明するための図である。   For example, in the above-described embodiment, when the defocus calculation abort flag is OFF, as shown in FIG. 10, after the calculation of the defocus amount at all focus detection positions is completed, the calculation of the defocus amount is completed. The configuration of repeating the calculation of the defocus amount by newly performing the calculation of the defocus amount using the image data transferred after the completion is illustrated, but the configuration is not limited to this configuration. For example, FIG. As illustrated, when the defocus amount calculation is completed, the defocus amount calculation may be continuously performed using the latest image data that has already been transferred. For example, in the example shown in FIG. 14, since the calculation of the defocus amount started at time t21 ends at time t23, the image data transferred at time t22 that has already been transferred at time t23 is used. From the time t23, the calculation of the defocus amount is newly started. Similarly, since the calculation of the defocus amount started at time t23 ends at time t25, the image data transferred at time t24 that has already been transferred at time t25 is used to start defocusing from time t25. The calculation of the focus amount is newly started. In this way, in the example shown in FIG. 14, after the defocus amount calculation is completed, the defocus amount calculation can be newly started without waiting for the completion of the transfer of the image data. Compared to the example shown, the focus state of the optical system can be detected based on more image data. FIG. 14 is a diagram for explaining another example of the defocus amount calculation method when the defocus calculation abort flag is off.

また、上述した実施形態では、静止画像の単写撮影を行う場面について例示したが、たとえば連写撮影を行う場合には、デフォーカス演算打ち切りフラグをオンに設定し、デフォーカス量の演算を途中で打ち切る構成とすることもできる。これにより、静止画像を、所定の間隔で適切に撮影することができる。   Further, in the above-described embodiment, a case where single-shot shooting of a still image is illustrated, but for example, when continuous shooting is performed, the defocus calculation abort flag is set to ON and the defocus amount calculation is in progress. It can also be set as the structure cut off by. Thereby, a still image can be appropriately captured at a predetermined interval.

さらに、上述した実施形態では、焦点検出エリアごとに、各焦点検出エリアにおけるデフォーカス量を演算する構成を例示したが、この構成に例示されるものではなく、たとえば、1つの焦点検出エリア内を複数のブロックに分割して、各ブロックごとに、デフォーカス量を演算する構成としてもよい。   Furthermore, in the above-described embodiment, the configuration for calculating the defocus amount in each focus detection area is illustrated for each focus detection area. However, the configuration is not exemplified in this configuration, and for example, in one focus detection area. It is good also as a structure which divides | segments into several blocks and calculates a defocus amount for every block.

また、上述した実施形態では、シャッターレリーズボタンが全押しされた場合に、デフォーカス量の演算を途中で打ち切り、被写体像の本撮影に移行する構成を例示したが、この構成に限定されず、たとえば、フォーカス優先モード(光学系の焦点状態が合焦状態である場合にのみ、被写体像の本撮影を行うモード)が設定されている場合には、光学系の焦点状態が合焦状態となるまで、デフォーカス量の演算を続け、レリーズ優先モード(光学系の焦点状態が合焦状態であるか否かに拘わらず、被写体像の本撮影を行うモード)が設定されている場合に、デフォーカス量の演算を打ち切り、被写体像の本撮影に移行する構成としてもよい。   Further, in the above-described embodiment, when the shutter release button is fully pressed, the calculation of the defocus amount is interrupted halfway and the main image capturing is performed. However, the present invention is not limited to this configuration. For example, when the focus priority mode (the mode in which the subject image is actually captured only when the focus state of the optical system is the in-focus state) is set, the focus state of the optical system becomes the in-focus state. The calculation of the defocus amount continues until the release priority mode (the mode that performs the actual shooting of the subject image regardless of whether the focus state of the optical system is the in-focus state) is set. A configuration may be adopted in which the calculation of the focus amount is discontinued and the process proceeds to the main photographing of the subject image.

また、上述した実施形態では、撮像素子22が撮像画素221と焦点検出画素222a,222bとを有し、撮像素子22が有する焦点検出画素222a,222bにおいて、位相差検出方式による焦点検出を行う構成を例示したが、この構成に限定されるものではなく、位相差検出方式による焦点検出を行うための焦点検出モジュールを、撮像素子22と独立して設ける構成としてもよい。   In the above-described embodiment, the imaging element 22 includes the imaging pixel 221 and the focus detection pixels 222a and 222b, and the focus detection pixels 222a and 222b included in the imaging element 22 perform focus detection by the phase difference detection method. However, the present invention is not limited to this configuration, and a focus detection module for performing focus detection by the phase difference detection method may be provided independently of the image sensor 22.

なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 of the above-described embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a digital video camera, a single-lens reflex digital camera, a lens-integrated digital camera, and a camera for a mobile phone. May be.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
24…メモリ
28…操作部
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel 222a, 222b ... Focus detection pixel 24 ... Memory 28 ... Operation part 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive motor 37 ... Lens control unit

Claims (5)

光学系による像を撮像し、撮像した像に対応する画像信号を、所定のフレームレートで繰り返し出力する撮像部と、
前記光学系を介した一対の光束を受光し、前記フレームレートに応じた周期で、一対の受光信号を繰り返し出力する一対の受光センサと、
前記一対の受光信号に基づいて、撮影画面内の複数の焦点検出位置における、前記光学系による像面のずれ量を順次演算することで、前記光学系の焦点状態を検出する位相差検出部と、
所定の撮影条件下において、前記位相差検出部に、前記複数の焦点検出位置のうち、前記フレームレートに応じて決められる所定時間内において、前記ずれ量の演算が可能な焦点検出位置について、前記ずれ量の演算を行わせ、前記位相差検出部に、前記所定時間内において演算された前記ずれ量に基づいて、前記光学系の焦点状態を検出させる制御部と、を備えることを特徴とする焦点検出装置。
An imaging unit that captures an image by the optical system and repeatedly outputs an image signal corresponding to the captured image at a predetermined frame rate;
A pair of light receiving sensors that receive a pair of light fluxes via the optical system and repeatedly output a pair of light receiving signals at a period according to the frame rate;
A phase difference detection unit for detecting a focus state of the optical system by sequentially calculating a shift amount of an image plane by the optical system at a plurality of focus detection positions in a photographing screen based on the pair of light reception signals; ,
Under a predetermined photographing condition, the phase difference detection unit has the focus detection position that can calculate the shift amount within a predetermined time determined according to the frame rate among the plurality of focus detection positions. A control unit that calculates a shift amount, and causes the phase difference detection unit to detect a focus state of the optical system based on the shift amount calculated within the predetermined time. Focus detection device.
請求項1に記載の焦点検出装置であって、
前記制御部は、所定の撮影条件下において、前記位相差検出部に、前記複数の焦点検出位置のうち、前記フレームレートに応じた数の前記焦点検出位置についてのみ、前記ずれ量の演算を行わせることを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
The control unit performs the calculation of the amount of deviation only for the number of focus detection positions corresponding to the frame rate, out of the plurality of focus detection positions, to the phase difference detection unit under predetermined imaging conditions. A focus detection device.
請求項1または2に記載の焦点検出装置であって、
前記所定の撮影条件は、シャッターレリーズボタンの全押し操作が行われたこと、連写撮影中であること、前記光学系の焦点状態が合焦状態とされた後も、焦点状態の検出を繰り返し行うモードとされていること、および、前記複数の焦点検出位置の中から焦点検出を行うための前記焦点検出位置が特定されていることのうち少なくとも1つであることを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1 or 2,
The predetermined shooting conditions are that the shutter release button is fully pressed, continuous shooting is being performed, and the focus state is repeatedly detected even after the focus state of the optical system is brought into focus. A focus detection device, wherein the focus detection position is at least one of the plurality of focus detection positions and the focus detection position for performing focus detection is specified from the plurality of focus detection positions. .
請求項1〜3のいずれかに記載の焦点検出装置であって、
前記撮像部により出力された前記画像信号に基づいて、前記光学系による像のコントラストに関する評価値を算出することで、前記光学系の焦点状態を検出するコントラスト検出部をさらに備え、
前記一対の受光センサは、前記撮像部の受光面に備えられることを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
A contrast detection unit for detecting a focus state of the optical system by calculating an evaluation value related to the contrast of the image by the optical system based on the image signal output by the imaging unit;
The pair of light receiving sensors are provided on a light receiving surface of the imaging unit.
請求項1〜4のいずれかに記載の焦点検出装置を備える撮像装置。   An imaging device provided with the focus detection apparatus in any one of Claims 1-4.
JP2011200141A 2011-06-09 2011-09-14 Focus detection apparatus and imaging apparatus Active JP5929060B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011200141A JP5929060B2 (en) 2011-06-09 2011-09-14 Focus detection apparatus and imaging apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011129031 2011-06-09
JP2011129031 2011-06-09
JP2011200141A JP5929060B2 (en) 2011-06-09 2011-09-14 Focus detection apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2013015806A true JP2013015806A (en) 2013-01-24
JP5929060B2 JP5929060B2 (en) 2016-06-01

Family

ID=47688515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011200141A Active JP5929060B2 (en) 2011-06-09 2011-09-14 Focus detection apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5929060B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049370A (en) * 2013-09-02 2015-03-16 株式会社ニコン Imaging device
US9613197B2 (en) 2014-11-10 2017-04-04 Wipro Limited Biometric user authentication system and a method therefor
JP2019082715A (en) * 2019-01-17 2019-05-30 株式会社ニコン Imaging apparatus
WO2020038109A1 (en) * 2018-08-22 2020-02-27 Oppo广东移动通信有限公司 Photographing method and device, terminal, and computer-readable storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06265774A (en) * 1993-03-12 1994-09-22 Nikon Corp Automatic focusing camera
JPH06273665A (en) * 1993-03-23 1994-09-30 Nikon Corp Automatic focusing camera
JPH07128586A (en) * 1993-10-29 1995-05-19 Nikon Corp Focus detecting device and focus detecting method
JPH0943494A (en) * 1995-07-31 1997-02-14 Canon Inc Optical instrument provided with line-of-sight detection means
JPH10197783A (en) * 1996-12-27 1998-07-31 Canon Inc Focus detector
JP2001174691A (en) * 1999-12-17 2001-06-29 Olympus Optical Co Ltd Range-finder for camera
JP2009124313A (en) * 2007-11-13 2009-06-04 Nikon Corp Electronic camera
JP2010028397A (en) * 2008-07-17 2010-02-04 Canon Inc Imaging device, and its controlling method and program
JP2010128205A (en) * 2008-11-27 2010-06-10 Nikon Corp Imaging apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06265774A (en) * 1993-03-12 1994-09-22 Nikon Corp Automatic focusing camera
JPH06273665A (en) * 1993-03-23 1994-09-30 Nikon Corp Automatic focusing camera
JPH07128586A (en) * 1993-10-29 1995-05-19 Nikon Corp Focus detecting device and focus detecting method
JPH0943494A (en) * 1995-07-31 1997-02-14 Canon Inc Optical instrument provided with line-of-sight detection means
JPH10197783A (en) * 1996-12-27 1998-07-31 Canon Inc Focus detector
JP2001174691A (en) * 1999-12-17 2001-06-29 Olympus Optical Co Ltd Range-finder for camera
JP2009124313A (en) * 2007-11-13 2009-06-04 Nikon Corp Electronic camera
JP2010028397A (en) * 2008-07-17 2010-02-04 Canon Inc Imaging device, and its controlling method and program
JP2010128205A (en) * 2008-11-27 2010-06-10 Nikon Corp Imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049370A (en) * 2013-09-02 2015-03-16 株式会社ニコン Imaging device
US9613197B2 (en) 2014-11-10 2017-04-04 Wipro Limited Biometric user authentication system and a method therefor
WO2020038109A1 (en) * 2018-08-22 2020-02-27 Oppo广东移动通信有限公司 Photographing method and device, terminal, and computer-readable storage medium
JP2019082715A (en) * 2019-01-17 2019-05-30 株式会社ニコン Imaging apparatus

Also Published As

Publication number Publication date
JP5929060B2 (en) 2016-06-01

Similar Documents

Publication Publication Date Title
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP5831070B2 (en) Imaging device
JP2013050690A (en) Focus adjusting device and imaging apparatus
JP5929060B2 (en) Focus detection apparatus and imaging apparatus
JP6399140B2 (en) Imaging device
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP5891668B2 (en) Focus adjustment device and imaging device
JP5796388B2 (en) Focus detection apparatus and imaging apparatus
JP6127730B2 (en) Imaging device
JP2013061579A (en) Focusing device and imaging apparatus
JP5454521B2 (en) Imaging device
JP2013011761A (en) Focus adjustment device and imaging apparatus having the same
JP5982749B2 (en) Focus adjustment device and imaging device
JP2014074853A (en) Focus adjustment device and imaging device
JP5821934B2 (en) Focus detection device, camera body, and camera
JP5899735B2 (en) interchangeable lens
JP2012247723A (en) Focus adjustment device and imaging apparatus
JP5966283B2 (en) Camera body and camera
JP5423734B2 (en) Lens barrel and imaging device
JP2016122210A (en) Focus detection device and imaging device
JP6477630B2 (en) Imaging device
JP5545278B2 (en) Lens adapter and camera body
JP5862087B2 (en) Focus adjustment device and imaging device
JP5961979B2 (en) Focus adjustment device and imaging device
JP5494594B2 (en) Lens barrel and camera body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R150 Certificate of patent or registration of utility model

Ref document number: 5929060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250