JP2018116296A - Focus detection apparatus - Google Patents

Focus detection apparatus Download PDF

Info

Publication number
JP2018116296A
JP2018116296A JP2018041175A JP2018041175A JP2018116296A JP 2018116296 A JP2018116296 A JP 2018116296A JP 2018041175 A JP2018041175 A JP 2018041175A JP 2018041175 A JP2018041175 A JP 2018041175A JP 2018116296 A JP2018116296 A JP 2018116296A
Authority
JP
Japan
Prior art keywords
focus
lens
focus adjustment
unit
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018041175A
Other languages
Japanese (ja)
Inventor
宏明 高原
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018041175A priority Critical patent/JP2018116296A/en
Publication of JP2018116296A publication Critical patent/JP2018116296A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform focus adjustment.SOLUTION: A camera system 1 includes: first focus detection means for detecting a focus adjustment state by using phase difference; second focus detection means for detecting the focus adjustment state on the basis of contrast; determination means for determining whether the focus adjustment state is detected by the first focus detection means or by the second focus detection means; and focus adjustment means for performing focus adjustment on the basis of detection result of the focus adjustment state by the focus detection means determined by the determination means. When the focus adjustment is continued after the focus adjustment is performed by the focus adjustment means to complete focusing, the first focus detection means is used.SELECTED DRAWING: Figure 1

Description

本発明は、焦点検出装置に関する。   The present invention relates to a focus detection apparatus.

従来より、光学系の焦点調節を行なう際に、焦点調節精度を高めるために、まず、位相差検出方式により光学系の焦点状態の検出を行い、位相差検出方式による検出結果に基づいて、焦点調節用のレンズを合焦位置近傍まで駆動し、次いで、合焦位置近傍において、コントラスト検出方式によって光学系の焦点状態の検出を行い、該コントラスト検出方式による検出結果に基づいて、焦点調節光学系を合焦位置まで駆動する技術が知られている(例えば、特許文献1)。   Conventionally, when adjusting the focus of an optical system, in order to improve the focus adjustment accuracy, first, the focus state of the optical system is detected by the phase difference detection method, and the focus is determined based on the detection result by the phase difference detection method. The adjustment lens is driven to the vicinity of the in-focus position, and then the focus state of the optical system is detected in the vicinity of the in-focus position by the contrast detection method. Based on the detection result by the contrast detection method, the focus adjustment optical system A technique for driving the lens to the in-focus position is known (for example, Patent Document 1).

特開2004−109690号公報JP 2004-109690 A

しかしながら、上記特許文献1においては、まず、位相差検出方式による焦点検出を行い、これに続いて、コントラスト検出方式による焦点検出を行うものであるため、焦点調節に時間が掛かってしまうという問題もあった。   However, in Patent Document 1, focus detection is performed first by the phase difference detection method, and subsequently focus detection is performed by the contrast detection method. Therefore, there is a problem that it takes time to adjust the focus. there were.

本発明による焦点検出装置は、位相差を用いて焦点調節状態を検出する第1の焦点検出部と、コントラストに基づいて焦点調節状態を検出する第2の焦点検出部と、第1の焦点検出部、または第2の焦点検出部のいずれを用いて焦点調節状態を検出するかを決定する決定部と、決定部により決定された方の焦点検出部による焦点調節状態の検出結果に基づいて、焦点調節を行う焦点調節部とを備え、焦点調節部によって焦点調節が行われて合焦させた後も焦点調節を継続する場合には、第1の焦点検出部を用いる。
本発明による焦点検出装置はまた、位相差を用いて焦点調節状態を検出する第1の焦点検出部と、コントラストに基づいて焦点調節状態を検出する第2の焦点検出部と、第1の焦点検出部、または第2の焦点検出部のいずれを用いて焦点調節状態を検出するかを決定する決定部と、決定部により決定された方の焦点検出部による焦点調節状態の検出結果に基づいて、焦点調節を行う焦点調節部とを備え、焦点調節部によって焦点調節が行われて合焦させた後も焦点調節を継続する場合には、第1の焦点検出部と第2の焦点検出部を用いる。
本発明による焦点検出装置はまた、位相差を用いて焦点調節状態を検出する第1の焦点検出部と、コントラストに基づいて焦点調節状態を検出する第2の焦点検出部と、第1の焦点検出部、または第2の焦点検出部のいずれを用いて焦点調節状態を検出するかを決定する決定部と、決定部により決定された方の焦点検出部による焦点調節状態の検出結果に基づいて、焦点調節を行う焦点調節部とを備え、焦点調節部によって焦点調節が行われて合焦させた後も焦点調節を継続する場合には、第2の焦点検出部を用いる。
A focus detection apparatus according to the present invention includes a first focus detection unit that detects a focus adjustment state using a phase difference, a second focus detection unit that detects a focus adjustment state based on contrast, and a first focus detection. Based on the result of detection of the focus adjustment state by the focus detection unit determined by the determination unit and the determination unit that determines whether the focus adjustment state is detected using either the first focus detection unit or the second focus detection unit, The first focus detection unit is used when a focus adjustment unit that performs focus adjustment is provided and the focus adjustment is continued after the focus adjustment is performed by the focus adjustment unit.
The focus detection apparatus according to the present invention also includes a first focus detection unit that detects a focus adjustment state using a phase difference, a second focus detection unit that detects a focus adjustment state based on contrast, and a first focus. Based on the detection result of the focus adjustment state by the determination unit that determines whether the focus adjustment state is detected using the detection unit or the second focus detection unit, and the focus detection unit determined by the determination unit A first focus detection unit and a second focus detection unit when the focus adjustment is performed after the focus adjustment is performed by the focus adjustment unit and after focusing. Is used.
The focus detection apparatus according to the present invention also includes a first focus detection unit that detects a focus adjustment state using a phase difference, a second focus detection unit that detects a focus adjustment state based on contrast, and a first focus. Based on the detection result of the focus adjustment state by the determination unit that determines whether the focus adjustment state is detected using the detection unit or the second focus detection unit, and the focus detection unit determined by the determination unit The second focus detection unit is used when the focus adjustment unit is provided with a focus adjustment unit that performs focus adjustment and the focus adjustment is continued after the focus adjustment is performed by the focus adjustment unit.

本発明によれば、焦点調節に掛かる時間を短縮することができる。   According to the present invention, the time required for focus adjustment can be shortened.

カメラシステムの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one embodiment of a camera system. 撮像素子の撮像面における焦点検出エリアを示す図である。It is a figure which shows the focus detection area in the imaging surface of an image pick-up element. 焦点検出画素の配列を模式的に示す図である。It is a figure which shows typically the arrangement | sequence of a focus detection pixel. 撮像画素の正面図である。It is a front view of an imaging pixel. 撮像画素の断面図である。It is sectional drawing of an imaging pixel. 3つの撮像画素RGBそれぞれの波長に対する相対感度を示す分光特性図である。It is a spectral characteristic figure which shows the relative sensitivity with respect to the wavelength of each of three imaging pixels RGB. 焦点検出画素の正面図である。It is a front view of a focus detection pixel. 焦点検出画素の断面図である。It is sectional drawing of a focus detection pixel. 焦点検出画素の波長に対する相対感度を示す分光特性図である。It is a spectral characteristic figure which shows the relative sensitivity with respect to the wavelength of a focus detection pixel. 図3のXI−XI線に沿う断面図である。It is sectional drawing which follows the XI-XI line of FIG. 相関演算結果を示す図である。It is a figure which shows a correlation calculation result. 第1の実施の形態における処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the process in 1st Embodiment. コントラストAFで合焦位置が見つかった場合の動作を模式的に示す図である。It is a figure which shows typically operation | movement when an in-focus position is found by contrast AF. 第2の実施の形態における処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the process in 2nd Embodiment. コントラストAFにおけるコンティニュアスAF動作を模式的に示す図である。It is a figure which shows typically the continuous AF operation | movement in contrast AF. 第3の実施の形態における処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the process in 3rd Embodiment.

図1は、本実施の形態におけるカメラシステムの一実施の形態の構成を示すブロック図である。本実施形態のカメラシステム1は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a block diagram showing a configuration of an embodiment of a camera system in the present embodiment. The camera system 1 according to the present embodiment includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、レンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, when the rotating cylinder is rotated by the lens driving motor 36, the focus lens 32 fixed to the lens frame moves linearly along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのレンズ駆動モータ36がレンズ鏡筒3に設けられている。レンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、レンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、レンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by moving the rotating cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the lens drive motor 36 as its drive source is operated by the lens mirror. The tube 3 is provided. The lens driving motor 36 and the rotating cylinder are connected by, for example, a transmission composed of a plurality of gears. When the driving shaft of the lens driving motor 36 is driven to rotate in any one direction, it is transmitted to the rotating cylinder at a predetermined gear ratio, and When the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves straight in any direction of the optical axis L1. When the drive shaft of the lens drive motor 36 is driven to rotate in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1.

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the optical axis L1 direction correlates with the rotation angle of the rotating cylinder, and can be obtained by detecting the relative rotation angle of the rotating cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、レンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the lens driving motor 36 calculates the focus lens calculated based on this information. The drive position 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by a manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。なお、メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The image sensor 22 is composed of a device such as a CCD, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. Note that the memory 24 can be either a removable card type memory or a built-in memory. Details of the structure of the image sensor 22 will be described later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image picked up by the image pickup device 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal driving circuit 25 that drives the electronic viewfinder (EVF) 26, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on the read image information. Thereby, the user can observe the current captured image through the eyepiece lens 27. Note that, instead of or in addition to the observation optical system using the optical axis L2, a liquid crystal display may be provided on the back surface of the camera body 2, and a photographed image may be displayed on the liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラシステム1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Is output to the liquid crystal driving circuit 25 and the memory 24 of the electronic viewfinder 26. The camera control unit 21 controls the entire camera system 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出(位相差AF)、およびコントラスト検出方式による撮影光学系の焦点状態の検出(コントラストAF)を行う。なお、具体的な焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the imaging optical system by the phase detection method (phase difference AF) and the imaging optical system by the contrast detection method based on the pixel data read from the image sensor 22. The focus state is detected (contrast AF). A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタンやユーザがカメラシステム1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換や、オードフォーカスモードの中でも、ワンショットモード/コンティニュアスモードの切換が行えるようになっている。ここで、ワンショットモードとは、一度調節したフォーカスレンズ32の位置を固定し、そのフォーカスレンズ位置で撮影するモードであるのに対し、コンティニュアスモードとは、フォーカスレンズ32の位置を固定することなく被写体に応じてフォーカスレンズ位置を調節するモードである。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラシステム1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button or an input switch for the user to set various operation modes of the camera system 1, and switches between the auto focus mode / manual focus mode and the one shot mode / continuous mode even in the auto focus mode. It is possible to switch between the numeric modes. Here, the one-shot mode is a mode in which the position of the focus lens 32 once adjusted is fixed and photographing is performed at the focus lens position, whereas the continuous mode is a mode in which the position of the focus lens 32 is fixed. In this mode, the focus lens position is adjusted according to the subject. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera system 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。図2は、撮像素子22の撮像面を示す正面図である。また、図3は、撮像素子22上の焦点検出エリア22aの近傍を拡大した図である。   Next, the image sensor 22 according to the present embodiment will be described. FIG. 2 is a front view showing the imaging surface of the imaging element 22. FIG. 3 is an enlarged view of the vicinity of the focus detection area 22 a on the image sensor 22.

撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(BayerArrangement)されたものである。すなわち、隣接する4つの画素群223において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, the imaging element 22 includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmits a green wavelength region, and a red pixel. A red pixel R having a color filter that transmits a wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in the four adjacent pixel groups 223, two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image pickup device 22 is configured by repeatedly arranging the pixel group 223 on the image pickup surface of the image pickup device 22 in a two-dimensional manner with the pixel group arranged in the Bayer arrangement as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図5は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図5の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系31の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   4 is an enlarged front view showing one of the imaging pixels 221 and FIG. 5 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown). As shown in the cross-sectional view of FIG. 5, a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the imaging element 22. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system 31 by the micro lens 2211 and receives the imaging light beam.

なお、本実施形態のカラーフィルタはマイクロレンズ2211と光電変換部2212との間に設けられ、緑画素Gと赤画素Rと青画素Bのそれぞれのカラーフィルタの分光感度は、たとえば図6に示すとおりとされている。図6は、図3に示す3つの撮像画素RGBそれぞれの波長に対する相対感度を示す分光特性図である。   Note that the color filter of this embodiment is provided between the microlens 2211 and the photoelectric conversion unit 2212. The spectral sensitivities of the color filters of the green pixel G, the red pixel R, and the blue pixel B are shown, for example, in FIG. It is said to be as follows. FIG. 6 is a spectral characteristic diagram showing the relative sensitivity with respect to the wavelength of each of the three imaging pixels RGB shown in FIG.

図2に戻り、撮像素子22の撮像面の中心、およびその左右には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出エリア22a〜22cが配置されている。そして、図3に示すように、一つの焦点検出エリア22a内の焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   Returning to FIG. 2, focus detection areas 22 a to 22 c in which focus detection pixels 222 a and 222 b are arranged in place of the above-described imaging pixels 221 are arranged at the center of the imaging surface of the imaging element 22 and on the left and right sides thereof. As shown in FIG. 3, the focus detection pixel row in one focus detection area 22a is configured by a plurality of focus detection pixels 222a and 222b being alternately arranged adjacent to each other in a horizontal row. . In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.

なお、図2に示す焦点検出エリア22a〜22cの位置は図示する位置にのみ限定されず、何れか1箇所、2箇所または4箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出エリア22a〜22cの中から、ユーザが操作部28を手動操作することにより所望の焦点検出エリアを、焦点検出位置として選択することもできる。   Note that the positions of the focus detection areas 22a to 22c illustrated in FIG. 2 are not limited to the illustrated positions, and may be disposed at any one, two, or four or more positions. In actual focus detection, the user can manually select the desired focus detection area as the focus detection position by manually operating the operation unit 28 from among the plurality of focus detection areas 22a to 22c. .

図7(A)は、焦点検出画素222aの一つを拡大して示す正面図、図8(A)は、焦点検出画素222aの断面図である。また、図7(B)は、焦点検出画素222bの一つを拡大して示す正面図、図8(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図7(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図8(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図7(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図8(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出エリア22a〜22cを構成する。   FIG. 7A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 8A is a cross-sectional view of the focus detection pixel 222a. FIG. 7B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 8B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 7A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 7B. As shown in the cross-sectional view of FIG. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. These focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row as shown in FIG. 3, thereby forming focus detection areas 22a to 22c shown in FIG.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。図9に焦点検出画素222a,222bの分光特性を示すが、相対感度は、図6に示した撮像画素221の青画素B、緑画素Gおよび赤画素Rの各感度を加算したような分光特性とされ、また感度が現れる光波長領域は、図9に示す撮像画素221の青画素B、緑画素Gおよび赤画素Rの感度の光波長領域を包摂した領域となっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。なお、図9は、図3に示す焦点検出画素222a,222bの波長に対する相対感度を示す分光特性図である。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive a light beam that passes through a predetermined region (eg, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. FIG. 9 shows the spectral characteristics of the focus detection pixels 222a and 222b. The relative sensitivity is a spectral characteristic obtained by adding the sensitivities of the blue pixel B, the green pixel G, and the red pixel R of the imaging pixel 221 shown in FIG. The light wavelength region where the sensitivity appears is a region including the light wavelength regions of the sensitivity of the blue pixel B, the green pixel G, and the red pixel R of the imaging pixel 221 shown in FIG. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter. FIG. 9 is a spectral characteristic diagram showing the relative sensitivity with respect to the wavelengths of the focus detection pixels 222a and 222b shown in FIG.

また、図7(A)、(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 7A and 7B have a semicircular shape, the shape of the photoelectric conversion units 2222a and 2222b is not limited thereto, and other For example, an elliptical shape, a rectangular shape, or a polygonal shape can be used.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図10は、図3のXI−XI線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図10においては、複数の焦点検出画素222a,222bのうち、撮影光軸L近傍に位置するもののみを例示して示したが、図10に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 10 is a cross-sectional view taken along the line XI-XI in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 arranged in the vicinity of the photographing optical axis L 1 are adjacent to each other. It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. In FIG. 10, only the focus detection pixels 222 a and 222 b that are located in the vicinity of the photographing optical axis L are illustrated, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 10 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.

ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図10において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 10, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341 and 342.

また、図10に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   Further, as shown in FIG. 10, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2. Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.

すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.

図10に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 10, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by a light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and an image formed on the microlens microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. A signal corresponding to the intensity of the signal is output.

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   In addition, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and an image formed on the microlens microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. A signal corresponding to the intensity is output. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a straight line as shown in FIG. 3, and the outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b are used as the distance measurement pupil 341, Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a focal plane corresponding to the current focal plane (the position corresponding to the position of the microlens array on the planned focal plane) The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。ここで、デフォーカス量の演算方法について説明する。ライセンサは、それぞれ複数の光電変換素子からなっており、図11(a)、(b)に示すように、複数の光電変換出力a1、a2、・・・・an、b1,b2、・・・bnを出力する。そして、それぞれのデータ列を相対的に所定のデータLずつシフトしながら相関演算を行う。こうして得られた相関量C(L)の中で極小値となる相関量を与えるシフト量に光学系およびイメージセンサーアレイの光電変換素子のピッチ幅によって定まる定数を掛けたものがデフォーカス量となる。しかしながら、相関量C(L)は、図11(c)に示すように離散的な値であり、検出可能なデフォーカス量の最小単位はライセンサの光電変換素子のピッチ幅によって制限されてしまう。そこで、離散的な相関量C(L)より補間演算を行うことにより、新たに極小値Cexを算出し、綿密な焦点検出を公知の3点内挿演算により行う。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based thereon are executed by the camera control unit 21. Here, a method of calculating the defocus amount will be described. Each licensor is composed of a plurality of photoelectric conversion elements, and as shown in FIGS. 11A and 11B, a plurality of photoelectric conversion outputs a1, a2,... An, b1, b2,. bn is output. Then, correlation calculation is performed while each data string is relatively shifted by predetermined data L. The defocus amount is obtained by multiplying the shift amount that gives the minimum correlation amount among the correlation amounts C (L) thus obtained by a constant determined by the pitch width of the photoelectric conversion elements of the optical system and the image sensor array. . However, the correlation amount C (L) is a discrete value as shown in FIG. 11C, and the minimum unit of defocus amount that can be detected is limited by the pitch width of the photoelectric conversion element of the licensor. Therefore, by performing an interpolation calculation from the discrete correlation amount C (L), a new minimum value Cex is newly calculated, and precise focus detection is performed by a known three-point interpolation calculation.

具体例について図11を用いて説明する。図11(a)は、周期被写体像をライセンサによって光電変換したA列のデータである。また、図11(b)は、周期被写体像をライセンサによって光電変換したB列のデータである。そして、それぞれのデータ列を相対的に所定のデータLずつシフトしながら相関演算を行う。図11(c)は、こうして得られた相関量C(L)の中で極小値となる相関量を算出した結果を示す図である。この図11(c)に示す通り、周期被写体に対する相関量も周期性を有し、所定のシフト量Lごとに極小値が現れる。本体の合焦位置は極小値3であったとしても、極小値1や極小値2の偽合焦位置にレンズ駆動させるとピンボケの画像となってしまう。そこで、相関量C(L)から得られた複数の極小値を含む範囲をコントラストAFのサーチ範囲に設定し、コントラスト評価値の最も高い位置を合焦位置としてレンズ駆動させる。   A specific example will be described with reference to FIG. FIG. 11A shows data in column A obtained by photoelectrically converting a periodic subject image using a licensor. FIG. 11B shows B-row data obtained by photoelectrically converting a periodic subject image using a licensor. Then, correlation calculation is performed while each data string is relatively shifted by predetermined data L. FIG. 11C is a diagram illustrating a result of calculating a correlation amount that is a minimum value among the correlation amounts C (L) thus obtained. As shown in FIG. 11C, the amount of correlation with the periodic subject also has periodicity, and a minimum value appears for each predetermined shift amount L. Even if the focus position of the main body is the minimum value 3, if the lens is driven to the false focus position of the minimum value 1 or the minimum value 2, a defocused image is obtained. Therefore, a range including a plurality of minimum values obtained from the correlation amount C (L) is set as the contrast AF search range, and the lens is driven with the position having the highest contrast evaluation value as the in-focus position.

このとき、コントラストAFのサーチ範囲は、両端の極値位置を検出可能な分、極値範囲よりも広めに設定する。もともとコントラストAFは位相差AFよりも合焦速度が遅いが、サーチ範囲を限定することでコントラストAFに切り替わった後の合焦時間を最小限に抑えることが可能となる。また、位相差AFでは、偽合焦となる被写体であってもコントラストAFいてコントラストの最も高い位置を検出することが可能となるため、周期被写体であっても偽合焦することなく、正確にピントを合わせることが可能となる。さらにコントラストAFのサーチ範囲を制限することで、合焦時間の増大を最小限に抑えることができる。   At this time, the search range of contrast AF is set wider than the extreme value range because the extreme value positions at both ends can be detected. Originally, contrast AF has a slower focusing speed than phase difference AF, but by limiting the search range, it is possible to minimize the focusing time after switching to contrast AF. Also, with phase difference AF, it is possible to detect the position with the highest contrast by contrast AF even for a subject that is falsely focused, so even a periodic subject can be accurately detected without being falsely focused. It is possible to focus. Further, by limiting the search range for contrast AF, it is possible to minimize the increase in focusing time.

あるいは、コントラストAFに切り替えずに複数の極小値での位相差AFデータに含まれる高周波成分が最も大きい極小値を合焦位置として採用してもよい。この場合、コントラストAFには切り替えずに位相差AFのみでまだレンズ駆動していない位置にレンズ駆動して位相差AFデータの取得を行い、高周波数の含有度合を算出する。既にレンズ駆動済みの位置の位相差AFデータは、再度レンズ駆動して取り直す必要はない。このようにして複数の極値の位相差AFデータからの高周波成分の最も大きい位置を合焦位置とする。ただし、上述した方法と比較して、位相差AFの画素ピッチが粗いと、検出可能な周波数帯域は低周波側に限定されたものとなる。位相差AFデータから高周波成分を求める場合は、デジタルフィルタをかけたとしても電気的なノイズ除去程度のフィルタ特性とし、高周波成分がなるべく残るようなフィルタ特性とすることが望ましい。   Or you may employ | adopt as a focus position the minimum value with the largest high frequency component contained in the phase difference AF data in several minimum value, without switching to contrast AF. In this case, the phase difference AF data is obtained by driving the lens to a position where the lens is not yet driven by only the phase difference AF without switching to the contrast AF, and the content degree of high frequency is calculated. The phase difference AF data at the position where the lens has already been driven does not need to be obtained again by driving the lens. In this way, the position with the largest high-frequency component from the plurality of extreme value phase difference AF data is set as the in-focus position. However, if the pixel pitch of the phase difference AF is coarser than the method described above, the detectable frequency band is limited to the low frequency side. When a high frequency component is obtained from phase difference AF data, it is desirable that the filter characteristic be such that electrical noise is removed even if a digital filter is applied, and that the high frequency component remains as much as possible.

―第1の実施の形態―
図12は、第1の実施の形態における焦点調節処理の流れを示すフローチャートである。図12に示す処理は、カメラシステム1の電源がオンされると起動するプログラムとして実行される。なお、図12に示す処理においては、オードフォーカスモード(AFモード)があらかじめコンティニュアスモード、例えばコンティニュアスAFサーボ(連続AFサーボ)に設定されているものとする。コンティニュアスAFサーボとは、被写体に合焦した後に合焦ロックを行わず、被写体変化に応じてピントを合わせ続けるレンズ駆動方式をいう。
-First embodiment-
FIG. 12 is a flowchart showing the flow of the focus adjustment process in the first embodiment. The process shown in FIG. 12 is executed as a program that starts when the camera system 1 is turned on. In the process shown in FIG. 12, it is assumed that the autofocus mode (AF mode) is set in advance to a continuous mode, for example, a continuous AF servo (continuous AF servo). The continuous AF servo is a lens driving method in which focusing is not performed after focusing on a subject and the focus is continuously adjusted according to the subject change.

ステップS100において、カメラ制御部21によるスルー画像の生成、および観察光学系の電子ビューファインダ26による、スルー画像の表示が開始される。具体的には、撮像素子22により露光動作が行なわれ、カメラ制御部21により、撮像画素221の画素データの読み出しが行なわれる。そして、カメラ制御部21は、読み出したデータに基づきスルー画像を生成し、生成されたスルー画像は液晶駆動回路25に送出され、観察光学系の電子ビューファインダ26に表示される。そして、これにより、接眼レンズ27を介して、ユーザは被写体の動画を視認することが可能となる。なお、スルー画像の生成、およびスルー画像の表示は、所定の間隔で繰り返し実行される。   In step S100, generation of a through image by the camera control unit 21 and display of the through image by the electronic viewfinder 26 of the observation optical system are started. Specifically, an exposure operation is performed by the imaging element 22, and pixel data of the imaging pixel 221 is read by the camera control unit 21. Then, the camera control unit 21 generates a through image based on the read data, and the generated through image is sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder 26 of the observation optical system. As a result, the user can view the moving image of the subject through the eyepiece lens 27. Note that the generation of the through image and the display of the through image are repeatedly executed at predetermined intervals.

その後、ステップS101へ進み、カメラ制御部21により、スキャン動作許可指令が、レンズ制御部37に送出され、スキャン動作が許可状態とされる。なお、スキャン動作については、後述する。その後、ステップS105へ進み、カメラ制御部21により、上述した位相差AFとコントラストAFの演算を開始して、ステップS106へ進む。   Thereafter, the process proceeds to step S101, where the camera control unit 21 sends a scan operation permission command to the lens control unit 37, and the scan operation is permitted. The scan operation will be described later. Thereafter, the process proceeds to step S105, where the camera control unit 21 starts calculation of the above-described phase difference AF and contrast AF, and then proceeds to step S106.

ステップS106では、カメラ制御部21により、操作部28に備えられたレリーズボタンの半押しがされたかどうかの判断が行なわれる。ステップS106で肯定判断した場合には、ステップS110へ進む。これに対して、ステップS106で否定判断した場合には、肯定判断されるまでステップS106を繰り返す。すなわち、レリーズボタンの半押しがされるまで、スルー画像の生成・表示、および位相差AFとコントラストAFの演算が繰り返し実行される。   In step S106, the camera control unit 21 determines whether the release button provided in the operation unit 28 has been half-pressed. If a positive determination is made in step S106, the process proceeds to step S110. On the other hand, if a negative determination is made in step S106, step S106 is repeated until an affirmative determination is made. That is, until the release button is half-pressed, generation and display of a through image and calculation of phase difference AF and contrast AF are repeatedly executed.

ステップS110では、カメラ制御部21により、位相差検出方式により、デフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS136に進む。一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS111に進む。なお、本実施の形態においては、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合にも、デフォーカス量の算出ができなかったものとして扱い、ステップS111に進むこととする。本実施の形態においては、たとえば、被写体のコントラストが低い場合、被写体が超低輝度被写体である場合、あるいは被写体が超高輝度被写体である場合などにおいて、デフォーカス量の信頼性が低いと判断される。   In step S110, the camera control unit 21 determines whether or not the defocus amount has been calculated by the phase difference detection method. If the defocus amount can be calculated, it is determined that distance measurement is possible, and the process proceeds to step S136. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is impossible, and the process proceeds to step S111. In the present embodiment, even when the defocus amount can be calculated, even when the reliability of the calculated defocus amount is low, it is treated that the defocus amount cannot be calculated, and step S111 is performed. Let's go to. In the present embodiment, for example, when the subject has a low contrast, the subject is an ultra-low brightness subject, or the subject is an ultra-high brightness subject, it is determined that the reliability of the defocus amount is low. The

なお、ステップS110においては、直近の一回のデフォーカス量算出処理の結果を用いて、上記判定を行なってもよいが、直近数回のデフォーカス量算出処理において、連続して、デフォーカス量が算出できなかった場合、あるいは、連続して、デフォーカス量の信頼性が低かった場合に、測距不能と判断して、ステップS111に進み、逆に、直近数回のデフォーカス量算出処理において、一度でもデフォーカス量が算出された場合には、測距可能と判断して、ステップS136に進むような構成としてもよい。   In step S110, the above determination may be performed using the result of the most recent defocus amount calculation process. However, in the most recent defocus amount calculation process, the defocus amount is continuously obtained. If the defocus amount cannot be calculated, or if the reliability of the defocus amount is low continuously, it is determined that distance measurement is impossible, and the process proceeds to step S111. In this case, if the defocus amount is calculated even once, it may be determined that distance measurement is possible and the process proceeds to step S136.

ステップS110において、デフォーカス量が算出できたと判定され、測距可能と判断された場合には、ステップS136に進む。ステップS136では、カメラ制御部21により、スキャン動作禁止処理が行なわれる。具体的には、カメラ制御部21により、スキャン動作禁止指令が、レンズ制御部37に送出され、スキャン動作が禁止状態とされる。なお、スキャン動作については、後述する。   If it is determined in step S110 that the defocus amount has been calculated and it is determined that distance measurement is possible, the process proceeds to step S136. In step S136, the camera control unit 21 performs a scan operation prohibiting process. Specifically, the camera control unit 21 sends a scan operation prohibition command to the lens control unit 37, and the scan operation is prohibited. The scan operation will be described later.

その後、ステップS200へ進み、ステップS105で位相差AFにより算出されたデフォーカス量に基づいて、フォーカスレンズ32を、合焦位置まで駆動させる処理が行なわれる。具体的には、カメラ制御部21により、位相差AFにより算出されたデフォーカス量から、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行なわれ、算出されたレンズ駆動量が、レンズ制御部37を介して、レンズ駆動モータ36に送出される。そして、レンズ駆動モータ36は、カメラ制御部21により算出されたレンズ駆動量に基づいて、フォーカスレンズ32を合焦位置まで駆動させる。そして、カメラ制御部21は、フォーカスレンズ32の合焦位置への駆動が完了すると合焦表示を行う。合焦表示を行なう際には、位相差AFにより合焦動作が行われた旨をユーザに報知するための表示を併せて行なってもよい。   Thereafter, the process proceeds to step S200, and processing for driving the focus lens 32 to the in-focus position is performed based on the defocus amount calculated by the phase difference AF in step S105. Specifically, the camera control unit 21 calculates the lens drive amount necessary to drive the focus lens 32 to the in-focus position from the defocus amount calculated by the phase difference AF. The lens driving amount is sent to the lens driving motor 36 via the lens control unit 37. Then, the lens driving motor 36 drives the focus lens 32 to the in-focus position based on the lens driving amount calculated by the camera control unit 21. Then, the camera control unit 21 performs in-focus display when driving of the focus lens 32 to the in-focus position is completed. When performing the in-focus display, a display for notifying the user that the in-focus operation has been performed by the phase difference AF may be performed together.

なお、本実施形態においては、レンズ駆動モータ36を駆動させ、フォーカスレンズ32を合焦位置まで駆動させている間においても、カメラ制御部21は、位相差検出方式によるデフォーカス量の算出を繰り返し行い、その結果、新たなデフォーカス量が算出された場合には、カメラ制御部21は、新たなデフォーカス量に基づいて、フォーカスレンズ32を駆動させる。その後、後述するステップS400へ進む。   In the present embodiment, the camera control unit 21 repeatedly calculates the defocus amount by the phase difference detection method while the lens driving motor 36 is driven and the focus lens 32 is driven to the in-focus position. As a result, when a new defocus amount is calculated, the camera control unit 21 drives the focus lens 32 based on the new defocus amount. Then, it progresses to step S400 mentioned later.

これに対して、ステップS110でデフォーカス量が算出できなかったと判定された場合、または、算出されたデフォーカス量の信頼性が低いと判定された場合には、ステップS111に進み、カメラ制御部21により、スキャン動作の開始処理が行なわれる。本実施形態のスキャン動作は、レンズ駆動モータ36により、フォーカスレンズ32をスキャン駆動させながら、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出、および焦点評価値の算出を、所定の間隔で同時に行い、これにより、位相差検出方式による合焦位置の検出と、コントラスト検出方式による合焦位置の検出とを、所定の間隔で、同時に実行する動作である。   On the other hand, if it is determined in step S110 that the defocus amount cannot be calculated, or if it is determined that the reliability of the calculated defocus amount is low, the process proceeds to step S111, and the camera control unit 21 starts scanning operation. In the scanning operation of the present embodiment, while the focus lens 32 is scan-driven by the lens driving motor 36, the camera control unit 21 calculates the defocus amount and the focus evaluation value by a phase difference detection method. This is an operation of simultaneously performing the detection of the in-focus position by the phase difference detection method and the in-focus position detection by the contrast detection method at a predetermined interval.

具体的には、カメラ制御部21は、レンズ制御部37にスキャン駆動開始指令を送出し、レンズ制御部37は、カメラ制御部21からの指令に基づき、レンズ駆動モータ36を駆動させ、フォーカスレンズ32を光軸L1に沿ってスキャン駆動させる。なお、フォーカスレンズ32のスキャン駆動は、無限端から至近端に向かって行なってもよいし、あるいは、至近端から無限端に向かって行なってもよい。   Specifically, the camera control unit 21 sends a scan drive start command to the lens control unit 37, and the lens control unit 37 drives the lens drive motor 36 based on the command from the camera control unit 21 to focus lens. 32 is driven to scan along the optical axis L1. Note that the scan driving of the focus lens 32 may be performed from the infinite end to the close end, or may be performed from the close end to the infinite end.

そして、カメラ制御部21は、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しを行い、これに基づき、位相差検出方式により、デフォーカス量の算出および算出されたデフォーカス量の信頼性の評価を行うとともに、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の撮像画素221から画素出力の読み出しを行い、これに基づき、焦点評価値を算出し、これにより、異なるフォーカスレンズ位置における焦点評価値を取得することで、コントラスト検出方式により合焦位置の検出を行う。   Then, while driving the focus lens 32, the camera control unit 21 reads out a pair of image data corresponding to the pair of images from the focus detection pixels 222a and 222b of the image sensor 22 at predetermined intervals. The phase difference detection method calculates the defocus amount, evaluates the reliability of the calculated defocus amount, and drives the focus lens 32 to drive the pixel output from the imaging pixel 221 of the imaging element 22 at a predetermined interval. Reading is performed, and based on this, a focus evaluation value is calculated, thereby acquiring a focus evaluation value at a different focus lens position, thereby detecting a focus position by a contrast detection method.

ステップS120では、カメラ制御部21により、スキャン動作を行なった結果、位相差検出方式により、デフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、上述したステップS136へ進む。これに対して、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS130に進む。なお、ステップS120においては、上述したステップS110と同様に、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合には、デフォーカス量の算出ができなかったものとして扱い、ステップS130に進むこととする。   In step S120, it is determined whether or not the defocus amount has been calculated by the phase difference detection method as a result of the scanning operation performed by the camera control unit 21. If the defocus amount can be calculated, it is determined that distance measurement is possible, and the process proceeds to step S136 described above. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is impossible, and the process proceeds to step S130. In step S120, similarly to step S110 described above, even when the defocus amount can be calculated, the defocus amount cannot be calculated if the reliability of the calculated defocus amount is low. It is assumed that the process proceeds to step S130.

ステップS130では、カメラ制御部21により、スキャン動作を行なった結果、コントラスト検出方式により、合焦位置の検出ができたか否かの判定が行なわれる。コントラスト検出方式により、合焦位置の検出ができた場合には、ステップS135に進み、一方、合焦位置の検出ができなかった場合には、ステップS140に進む。   In step S130, the camera control unit 21 determines whether or not the in-focus position has been detected by the contrast detection method as a result of the scanning operation. If the in-focus position can be detected by the contrast detection method, the process proceeds to step S135. If the in-focus position cannot be detected, the process proceeds to step S140.

ステップS140では、カメラ制御部21により、スキャン動作を、フォーカスレンズ32の駆動可能範囲の全域について行なったか否かの判定が行なわれる。フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作を行なっていない場合には、ステップS120に戻り、ステップS120〜S140を繰り返すことにより、スキャン動作、すなわち、フォーカスレンズ32をスキャン駆動させながら、位相差検出方式によるデフォーカス量の算出、およびコントラスト検出方式による合焦位置の検出を、所定の間隔で同時に実行する動作を継続して行なう。一方、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行を完了している場合には、ステップS141に進む。   In step S <b> 140, the camera control unit 21 determines whether or not the scan operation has been performed for the entire driveable range of the focus lens 32. If the scan operation is not performed for the entire driveable range of the focus lens 32, the process returns to step S120, and steps S120 to S140 are repeated to perform the scan operation, that is, while the focus lens 32 is scan-driven. The operation of simultaneously executing the calculation of the defocus amount by the phase difference detection method and the detection of the in-focus position by the contrast detection method at predetermined intervals is continuously performed. On the other hand, when the execution of the scan operation is completed for the entire driveable range of the focus lens 32, the process proceeds to step S141.

また、スキャン動作を実行した結果、ステップS130において、コントラスト検出方式により、合焦位置が検出できたと判定された場合には、ステップS135に進み、ステップS135〜S300において、コントラスト検出方式により検出された合焦位置に基づく、合焦動作が行なわれる。   As a result of executing the scanning operation, when it is determined in step S130 that the in-focus position has been detected by the contrast detection method, the process proceeds to step S135, and in steps S135 to S300, the detection is performed by the contrast detection method. A focusing operation based on the focusing position is performed.

すなわち、まず、ステップS135において、カメラ制御部21により、スキャン動作の停止処理が行なわれた後、ステップS1137に進み、上述したステップS136と同様に、カメラ制御部21により、スキャン動作禁止処理が行なわれる。そして、ステップS300に進み、コントラスト検出方式により検出された合焦位置に基づいて、フォーカスレンズ32を、合焦位置まで駆動させる合焦駆動処理が行なわれる。その後、後述するステップS400へ進む。   That is, first, in step S135, the camera control unit 21 performs a scanning operation stop process, and then proceeds to step S1137. In the same manner as in step S136 described above, the camera control unit 21 performs a scanning operation prohibition process. It is. Then, the process proceeds to step S300, and a focus drive process for driving the focus lens 32 to the focus position is performed based on the focus position detected by the contrast detection method. Then, it progresses to step S400 mentioned later.

ここで、図13に、スキャン動作の結果、コントラスト検出方式により合焦位置が検出された場合における、フォーカスレンズ位置と焦点評価値との関係、およびフォーカスレンズ位置と時間との関係を表す図を示す。図13に示すように、スキャン動作開始時には、フォーカスレンズ32は、図13に示すP0に位置しており、P0から、無限遠側から至近側に向けてフォーカスレンズ32を駆動させながら、焦点評価値の取得を行う。そして、フォーカスレンズ32を、図13に示すP1の位置に移動させた時点において、焦点評価値のピーク位置(合焦位置)が検出されると(ステップS130=Yes)、スキャン動作を停止し(ステップS135)、スキャン動作の禁止処理(ステップS137)が行なわれた後、フォーカスレンズ32を合焦位置(図13中、P2の位置)まで駆動するための合焦駆動(ステップS300)が行なわれる。このような動作にすることで、レンズにガタがあっても評価値取得時のレンズ駆動方向と合焦動作時のレンズ駆動方向を揃えることができるため、正確にレンズを停止させることが可能となる。   Here, FIG. 13 is a diagram showing the relationship between the focus lens position and the focus evaluation value and the relationship between the focus lens position and time when the in-focus position is detected by the contrast detection method as a result of the scanning operation. Show. As shown in FIG. 13, at the start of the scanning operation, the focus lens 32 is positioned at P0 shown in FIG. 13, and the focus evaluation is performed while driving the focus lens 32 from P0 from the infinity side to the close side. Get the value. When the focus lens 32 is moved to the position P1 shown in FIG. 13 and the peak position (focus position) of the focus evaluation value is detected (step S130 = Yes), the scanning operation is stopped ( After step S135) and the scanning operation prohibition process (step S137) are performed, focus drive (step S300) for driving the focus lens 32 to the focus position (position P2 in FIG. 13) is performed. . With such an operation, even if there is a backlash in the lens, the lens driving direction at the time of evaluation value acquisition and the lens driving direction at the time of focusing operation can be aligned, so the lens can be stopped accurately. Become.

なお、本実施形態においては、ステップS130において、コントラスト検出方式により、合焦位置が検出できたと判定され、コントラスト検出方式による検出結果に基づいて、フォーカスレンズ32を合焦位置への駆動を行なう際には、フォーカスレンズ32の合焦位置への駆動が完了するまでは、位相差検出方式による焦点検出結果に基づく、フォーカスレンズ32の駆動を禁止する。すなわち、コントラスト検出方式により、合焦位置が検出できたと判定された後においては、位相差検出方式によりデフォーカス量が算出できた場合でも、位相差検出方式の結果に基づいたフォーカスレンズ32の駆動を禁止する。これにより、フォーカスレンズ32のハンチング現象を抑制することができる。   In this embodiment, when it is determined in step S130 that the in-focus position has been detected by the contrast detection method, the focus lens 32 is driven to the in-focus position based on the detection result by the contrast detection method. In other words, until the drive of the focus lens 32 to the in-focus position is completed, the drive of the focus lens 32 based on the focus detection result by the phase difference detection method is prohibited. That is, after it is determined that the in-focus position can be detected by the contrast detection method, the focus lens 32 is driven based on the result of the phase difference detection method even when the defocus amount can be calculated by the phase difference detection method. Is prohibited. Thereby, the hunting phenomenon of the focus lens 32 can be suppressed.

そして、カメラ制御部21は、フォーカスレンズ32の合焦位置への駆動が完了すると合焦表示を行う。合焦表示を行なう際には、コントラストAFにより合焦動作が行われた旨をユーザに報知するための表示を併せて行なってもよい。   Then, the camera control unit 21 performs in-focus display when driving of the focus lens 32 to the in-focus position is completed. When performing in-focus display, a display for notifying the user that the in-focus operation has been performed by contrast AF may be performed together.

なお、本実施形態のスキャン動作においては、上述したステップS120〜S140を繰り返し実行することで、フォーカスレンズ32をスキャン駆動させながら、位相差検出方式によるデフォーカス量の算出、およびコントラスト検出方式による合焦位置の検出を所定の間隔で同時に実行する。そして、上述したステップS120〜S140を繰り返し実行した結果、位相差検出方式およびコントラスト検出方式のうち、先にデフォーカス量の算出、または合焦位置の検出ができた検出方式による、焦点検出結果を用いて、フォーカスレンズ32を、合焦位置まで駆動させる処理を行なう。また、上述したように、本実施形態のスキャン動作においては、位相差検出方式によりデフォーカス量が算出できたか否かを判断した(ステップS120)後に、コントラスト検出方式により合焦位置の検出ができたか否かの判断を行う(ステップS130)ことで、位相差検出方式とコントラスト検出方式とで同時期にデフォーカス量の算出および合焦位置の検出ができた場合に、位相差検出方式による焦点検出結果を、コントラスト検出方式による焦点検出結果よりも優先して、採用するものである。   In the scan operation of the present embodiment, the above-described steps S120 to S140 are repeatedly executed, so that the focus lens 32 is driven to scan, the defocus amount is calculated by the phase difference detection method, and the contrast detection method is used. The detection of the focal position is simultaneously performed at a predetermined interval. Then, as a result of repeatedly executing steps S120 to S140 described above, the focus detection result by the detection method in which the defocus amount is calculated or the in-focus position can be detected first among the phase difference detection method and the contrast detection method. The focus lens 32 is used to drive to the in-focus position. Further, as described above, in the scanning operation of the present embodiment, after determining whether or not the defocus amount can be calculated by the phase difference detection method (step S120), the in-focus position can be detected by the contrast detection method. If the phase difference detection method and the contrast detection method can calculate the defocus amount and detect the in-focus position at the same time by determining whether or not the focus position has been detected, the focus by the phase difference detection method is determined. The detection result is adopted in preference to the focus detection result by the contrast detection method.

一方、ステップS140において、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行が完了していると判定された場合には、ステップS141に進む。ステップS141では、スキャン動作を行なった結果、位相差検出方式およびコントラスト検出方式のいずれの方式によっても、焦点検出を行うことができなかったため、スキャン動作の終了処理が行なわれる。その後、ステップS142へ進み、カメラ制御部21により、上述したステップS136やS137と同様にスキャン動作禁止処理が行なわれる。その後、ステップS400へ進む。   On the other hand, if it is determined in step S140 that the scan operation has been completed for the entire driveable range of the focus lens 32, the process proceeds to step S141. In step S141, as a result of performing the scanning operation, focus detection could not be performed by any of the phase difference detection method and the contrast detection method, and therefore the scanning operation end processing is performed. Thereafter, the process proceeds to step S142, and the scan control prohibiting process is performed by the camera control unit 21 in the same manner as in steps S136 and S137 described above. Thereafter, the process proceeds to step S400.

ステップS400では、カメラ制御部21は、コントラストAFの機能を停止した後、ステップS410において、位相差AFのみでレンズ駆動を行う。これによって、一度、位相差AFまたはコントラストAFにより合焦させた後は、位相差AFのみを使用して被写体にピントを合わせ続けることになる。   In step S400, after stopping the function of contrast AF, the camera control unit 21 performs lens driving using only the phase difference AF in step S410. As a result, once focused by phase difference AF or contrast AF, the subject is kept in focus using only phase difference AF.

その後、ステップS500へ進み、カメラ制御部21により、操作部28に備えられたレリーズボタンの半押しが継続されているか否かの判断が行なわれる。ステップS500で肯定判断した場合には、ステップS410へ戻って、位相差AFを継続する。これに対して、ステップS500で否定判断した場合には、ステップS106へ戻る。   Thereafter, the process proceeds to step S500, and the camera control unit 21 determines whether or not the half-press of the release button provided in the operation unit 28 is continued. If an affirmative determination is made in step S500, the process returns to step S410 to continue the phase difference AF. On the other hand, if a negative determination is made in step S500, the process returns to step S106.

以上説明した第1の実施の形態によれば、以下のような効果を得ることができる。
(1)位相差検出方式により撮影光学系の焦点状態の検出がし難い場合(たとえば、反射率が同じで、異なる色の被写体を撮影する場合)や、コントラスト検出方式により撮影光学系の焦点状態の検出がし難い場合(たとえば、輝度が低い被写体を撮影する場合)のいずれの場合でも、撮影光学系の焦点調節を適切に行なうことができる。
According to the first embodiment described above, the following effects can be obtained.
(1) When it is difficult to detect the focus state of the photographic optical system by the phase difference detection method (for example, when photographing subjects of different colors with the same reflectance), or the focus state of the photographic optical system by the contrast detection method In any case where it is difficult to detect (for example, when photographing a subject with low brightness), the focus adjustment of the photographing optical system can be appropriately performed.

(2)位相差検出方式によるデフォーカス量の算出、およびコントラスト検出方式による合焦位置の検出を同時に実行し、先に焦点検出ができた方式により、撮影光学系の焦点調節を行なうため、撮影光学系の焦点調節を短い時間で行なうことができる。 (2) Since the calculation of the defocus amount by the phase difference detection method and the detection of the in-focus position by the contrast detection method are performed simultaneously, and the focus of the photographic optical system is adjusted by the method in which the focus is detected first, The focus adjustment of the optical system can be performed in a short time.

(3)コンティニュアスAFのように、合焦後も被写体にピントを合わせ続ける場合には、コントラストAFの機能を停止した後、位相差AFのみでレンズ駆動を行うようにした。これにより、一度、位相差AFまたはコントラストAFにより合焦させた後は、コントラストAFのための処理を行う必要がないため、処理の負荷を低減することができる。また、バッテリーの消費も抑えることができる。 (3) When the subject is kept in focus even after focusing, as in continuous AF, the function of the contrast AF is stopped, and then the lens is driven only by the phase difference AF. As a result, it is not necessary to perform the process for contrast AF once the focus is achieved by the phase difference AF or the contrast AF, so that the processing load can be reduced. In addition, battery consumption can be reduced.

―第2の実施の形態―
図14は、第2の実施の形態における焦点調節処理の流れを示すフローチャートである。なお、図14においては、第1の実施の形態において図12に示した処理と同様の処理については、同じステップ番号を付して説明を省略し、以下では、第1の実施の形態における処理との相違点を中心に説明する。また、図14においても、図12に示す処理と同様に、AFモードがあらかじめコンティニュアスAFサーボ(連続AFサーボ)に設定されているものとする。
-Second embodiment-
FIG. 14 is a flowchart showing a flow of focus adjustment processing in the second embodiment. In FIG. 14, the same processes as those shown in FIG. 12 in the first embodiment are denoted by the same step numbers and the description thereof is omitted. Hereinafter, the processes in the first embodiment are described. The difference will be mainly described. Also in FIG. 14, it is assumed that the AF mode is set to the continuous AF servo (continuous AF servo) in advance as in the process shown in FIG.

ステップS411では、カメラ制御部21は、ステップS110またはS120で位相差AFにより測距できたか否かを判断する。ステップS411で肯定判断した場合には、ステップS412へ進み、位相差AFのみでレンズ駆動を行う。これに対して、ステップS411で否定判断した場合には、ステップS413へ進み、コントラストAFのみでレンズ駆動を行う。これによって、一度、位相差AFまたはコントラストAFにより合焦させた後は、測距ができた方の方式を用いて焦点調節を行って、被写体にピントを合わせ続けることになる。   In step S411, the camera control unit 21 determines whether or not the distance can be measured by the phase difference AF in step S110 or S120. If an affirmative determination is made in step S411, the process proceeds to step S412 to drive the lens with only the phase difference AF. On the other hand, if a negative determination is made in step S411, the process proceeds to step S413, and the lens is driven only with contrast AF. As a result, once focusing is performed by phase difference AF or contrast AF, focus adjustment is performed using the method of distance measurement, and the subject is kept in focus.

なお、上述したように、一度被写体に合焦させた後は、被写体にピントを合わせ続けるコンティニュアスAFを想定しているため、被写体にピントを合わせ続けるための動作がコントラストAFでも必要となる。よって、本実施の形態では、フォーカスレンズ32を微少量前後に動かし(ウォブリング)、評価値出力の大小関係を比較しながら合焦位置を特定する。具体的には、評価値出力の大小比較の結果、評価値が大きい方向に合焦位置があるものとして、その方向にレンズ位置を微少量動かす。再度、その位置を基準にウォブリングを行い、評価値の大きい方向にレンズを微少量駆動させる。この動作を連続して行うことにより、被写体にピント位置を追従させることができる。   Note that, as described above, since continuous AF is assumed to continue to focus on the subject once focused on the subject, an operation to continue focusing on the subject is also required in contrast AF. . Therefore, in this embodiment, the focus lens 32 is moved slightly back and forth (wobbling), and the in-focus position is specified while comparing the magnitude relationship of the evaluation value output. Specifically, as a result of the comparison of the evaluation value output, it is assumed that the in-focus position is in the direction where the evaluation value is large, and the lens position is slightly moved in that direction. Again, wobbling is performed with reference to the position, and the lens is driven in a small amount in the direction in which the evaluation value is large. By continuously performing this operation, the subject can follow the focus position.

図15は、ウォブリングによるコントラストAFの具体例を模式的に示した図である。図15では、1セットで3回のウォブリングを行う例を示している。これは評価値のバラツキを抑えるために3回ウォブリングを行って評価値の平均値を算出し、算出した平均値を用いて大小比較を行うためである。なお、このように複数回のウォブリングを行って評価値の平均値を算出せずに、1回のウォブリングを行って算出した評価値に基づいて、レンズ移動方向を判定してもよい。また、図15では、レンズを2点間で微少駆動させる2点ウォブリングを行う例を示しているが、3点間でレンズ微少駆動させる3点ウォブリングとし、3点の内側に合焦位置が存在するかを判定するようにしてもよい。3点ウォブリングとして合焦位置が見つかった場合には、合焦位置にレンズ駆動を行い、次回はその合焦位置を基準として3点ウォブリングを行えばよい。   FIG. 15 is a diagram schematically showing a specific example of contrast AF by wobbling. FIG. 15 shows an example in which three sets of wobbling are performed in one set. This is because the average value of the evaluation values is calculated by performing wobbling three times in order to suppress the variation of the evaluation values, and the magnitude comparison is performed using the calculated average value. Note that the lens moving direction may be determined based on the evaluation value calculated by performing one wobbling without calculating the average value of the evaluation values by performing wobbling a plurality of times as described above. Further, FIG. 15 shows an example of performing two-point wobbling in which the lens is slightly driven between two points. However, a three-point wobbling in which the lens is minutely driven between three points is used, and a focusing position exists inside the three points. You may make it determine whether to do. When the in-focus position is found as three-point wobbling, the lens is driven to the in-focus position, and next time, three-point wobbling may be performed with reference to the in-focus position.

以上説明した第2の実施の形態によれば、以下のような効果を得ることができる。
コンティニュアスAFのように、合焦後も被写体にピントを合わせ続ける場合には、位相差AFとコントラストAFのうち、測距できた方の方式を採用するようにした。これによって、位相差AFとコントラストAFのうち、撮影環境に応じた最適な方式を採用することができる。
According to the second embodiment described above, the following effects can be obtained.
In the case where the subject is kept in focus even after focusing, as in continuous AF, the method of measuring the distance between phase difference AF and contrast AF is adopted. As a result, it is possible to adopt an optimum method according to the shooting environment, out of the phase difference AF and the contrast AF.

―第3の実施の形態―
図16は、第3の実施の形態における焦点調節処理の流れを示すフローチャートである。なお、図16においては、第1の実施の形態において図12に示した処理と同様の処理については、同じステップ番号を付して説明を省略し、以下では、第1の実施の形態における処理との相違点を中心に説明する。また、図16においても、図12に示す処理と同様に、AFモードがあらかじめコンティニュアスAFサーボ(連続AFサーボ)に設定されているものとする。
-Third embodiment-
FIG. 16 is a flowchart showing the flow of the focus adjustment process in the third embodiment. In FIG. 16, the same processes as those shown in FIG. 12 in the first embodiment are denoted by the same step numbers and the description thereof is omitted. Hereinafter, the processes in the first embodiment are described. The difference will be mainly described. Also in FIG. 16, it is assumed that the AF mode is set to the continuous AF servo (continuous AF servo) in advance as in the process shown in FIG.

ステップS400において、カメラ制御部21は、位相差AFの機能を停止した後、ステップS414へ進む。ステップS414では、カメラ制御部21は、図15に示した方法を用いてコントラストAFのみでレンズ駆動を行う。これによって、一度、位相差AFまたはコントラストAFにより合焦させた後は、コントラストAFのみを使用して被写体にピントを合わせ続けることになる。   In step S400, the camera control unit 21 stops the phase difference AF function, and then proceeds to step S414. In step S414, the camera control unit 21 drives the lens with only the contrast AF using the method shown in FIG. As a result, once focusing is performed by phase difference AF or contrast AF, the subject is continuously focused using only contrast AF.

以上説明した第3の実施の形態によれば、以下のような効果を得ることができる。
コンティニュアスAFのように、合焦後も被写体にピントを合わせ続ける場合には、位相差AFの機能を停止した後、コントラストAFのみでレンズ駆動を行うようにした。これにより、一度、位相差AFまたはコントラストAFにより合焦させた後は、位相差AFのための処理を行う必要がないため、処理の負荷を低減することができる。また、バッテリーの消費も抑えることができる。
According to the third embodiment described above, the following effects can be obtained.
When the subject is kept in focus even after focusing, as in continuous AF, the phase difference AF function is stopped, and then the lens is driven only with contrast AF. As a result, once the phase difference AF or the contrast AF is in focus, it is not necessary to perform the process for the phase difference AF, so that the processing load can be reduced. In addition, battery consumption can be reduced.

―変形例―
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。
-Modification-
Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Moreover, it is good also as a structure which combined the above-mentioned embodiment and a some modification.

1 カメラシステム、2 カメラ本体、21 カメラ制御部、22 撮像素子、23 シャッター、24 メモリ、25 液晶駆動回路、26 電子ビューファインダ、27 接眼レンズ、28 操作部、3 レンズ鏡筒、31 撮影光学系、32 フォーカスレンズ、35 エンコーダ、36 レンズ駆動モータ、37 レンズ制御部、4 マウント部、41 電気信号接点部 DESCRIPTION OF SYMBOLS 1 Camera system, 2 Camera body, 21 Camera control part, 22 Image sensor, 23 Shutter, 24 Memory, 25 Liquid crystal drive circuit, 26 Electronic viewfinder, 27 Eyepiece lens, 28 Operation part, 3 Lens barrel, 31 Shooting optical system , 32 Focus lens, 35 Encoder, 36 Lens drive motor, 37 Lens control part, 4 Mount part, 41 Electrical signal contact part

本発明による焦点検出装置は、焦点調節光学系を有する光学系により形成された被写体の像を撮像して、信号を出力する撮像部と、前記光学系を通過する一対の光束に基づく、前記撮像部から出力された一対の信号の位相差を用いて、前記被写体の像を前記撮像部に合焦させる前記焦点調節光学系の合焦位置を検出する第1検出部と、前記撮像部から出力された信号から生成される画像のコントラストを用いて、前記焦点調節光学系の前記合焦位置を検出する第2検出部と、前記第1検出部または前記第2検出部により検出された第1合焦位置に前記焦点調節光学系を移動させた後に、前記第2検出部により前記合焦位置を検出することなく、前記第1検出部により前記合焦位置を検出する制御部と、を有する。 The focus detection apparatus according to the present invention captures an image of a subject formed by an optical system having a focus adjustment optical system and outputs a signal, and the imaging based on a pair of light beams passing through the optical system A first detection unit that detects a focus position of the focus adjustment optical system that focuses the image of the subject on the imaging unit using a phase difference between a pair of signals output from the unit; and an output from the imaging unit A second detection unit that detects the in-focus position of the focus adjustment optical system using the contrast of an image generated from the generated signal, and the first detection unit detected by the first detection unit or the second detection unit. A controller that detects the in-focus position by the first detector without detecting the in-focus position by the second detector after the focus adjustment optical system has been moved to the in-focus position. .

Claims (3)

位相差を用いて焦点調節状態を検出する第1の焦点検出部と、
コントラストに基づいて焦点調節状態を検出する第2の焦点検出部と、
前記第1の焦点検出部、または前記第2の焦点検出部のいずれを用いて焦点調節状態を検出するかを決定する決定部と、
前記決定部により決定された方の焦点検出部による焦点調節状態の検出結果に基づいて、焦点調節を行う焦点調節部とを備え、
前記焦点調節部によって焦点調節が行われて合焦させた後も焦点調節を継続する場合には、前記第1の焦点検出部を用いる焦点検出装置。
A first focus detection unit that detects a focus adjustment state using a phase difference;
A second focus detection unit for detecting a focus adjustment state based on contrast;
A determination unit that determines which of the first focus detection unit and the second focus detection unit is used to detect a focus adjustment state;
A focus adjustment unit that performs focus adjustment based on the detection result of the focus adjustment state by the focus detection unit determined by the determination unit;
A focus detection apparatus using the first focus detection unit when the focus adjustment is continued after the focus adjustment is performed by the focus adjustment unit.
位相差を用いて焦点調節状態を検出する第1の焦点検出部と、
コントラストに基づいて焦点調節状態を検出する第2の焦点検出部と、
前記第1の焦点検出部、または前記第2の焦点検出部のいずれを用いて焦点調節状態を検出するかを決定する決定部と、
前記決定部により決定された方の焦点検出部による焦点調節状態の検出結果に基づいて、焦点調節を行う焦点調節部とを備え、
前記焦点調節部によって焦点調節が行われて合焦させた後も焦点調節を継続する場合には、前記第1の焦点検出部と前記第2の焦点検出部を用いる焦点検出装置。
A first focus detection unit that detects a focus adjustment state using a phase difference;
A second focus detection unit for detecting a focus adjustment state based on contrast;
A determination unit that determines which of the first focus detection unit and the second focus detection unit is used to detect a focus adjustment state;
A focus adjustment unit that performs focus adjustment based on the detection result of the focus adjustment state by the focus detection unit determined by the determination unit;
A focus detection apparatus using the first focus detection unit and the second focus detection unit when the focus adjustment is continued after the focus adjustment is performed by the focus adjustment unit.
位相差を用いて焦点調節状態を検出する第1の焦点検出部と、
コントラストに基づいて焦点調節状態を検出する第2の焦点検出部と、
前記第1の焦点検出部、または前記第2の焦点検出部のいずれを用いて焦点調節状態を検出するかを決定する決定部と、
前記決定部により決定された方の焦点検出部による焦点調節状態の検出結果に基づいて、焦点調節を行う焦点調節部とを備え、
前記焦点調節部によって焦点調節が行われて合焦させた後も焦点調節を継続する場合には、前記第2の焦点検出部を用いる焦点検出装置。
A first focus detection unit that detects a focus adjustment state using a phase difference;
A second focus detection unit for detecting a focus adjustment state based on contrast;
A determination unit that determines which of the first focus detection unit and the second focus detection unit is used to detect a focus adjustment state;
A focus adjustment unit that performs focus adjustment based on the detection result of the focus adjustment state by the focus detection unit determined by the determination unit;
A focus detection apparatus using the second focus detection unit when the focus adjustment is continued after the focus adjustment is performed by the focus adjustment unit.
JP2018041175A 2018-03-07 2018-03-07 Focus detection apparatus Pending JP2018116296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018041175A JP2018116296A (en) 2018-03-07 2018-03-07 Focus detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018041175A JP2018116296A (en) 2018-03-07 2018-03-07 Focus detection apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016033831A Division JP6304286B2 (en) 2016-02-25 2016-02-25 Focus detection device and camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019174425A Division JP2020073967A (en) 2019-09-25 2019-09-25 Imaging apparatus and focus detector

Publications (1)

Publication Number Publication Date
JP2018116296A true JP2018116296A (en) 2018-07-26

Family

ID=62984159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018041175A Pending JP2018116296A (en) 2018-03-07 2018-03-07 Focus detection apparatus

Country Status (1)

Country Link
JP (1) JP2018116296A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003156677A (en) * 2001-11-21 2003-05-30 Canon Inc Imaging device, imaging unit and its control method, and focus detection method
US20080025717A1 (en) * 2006-07-25 2008-01-31 Canon Kabushiki Kaisha Focusing device, image pick-up apparatus, and control method
JP2008052093A (en) * 2006-08-25 2008-03-06 Canon Inc Focusing device, image pick-up apparatus, and control method
JP2008309882A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera
JP2010139563A (en) * 2008-12-09 2010-06-24 Nikon Corp Focus detector, focusing device, and imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003156677A (en) * 2001-11-21 2003-05-30 Canon Inc Imaging device, imaging unit and its control method, and focus detection method
US20080025717A1 (en) * 2006-07-25 2008-01-31 Canon Kabushiki Kaisha Focusing device, image pick-up apparatus, and control method
JP2008052093A (en) * 2006-08-25 2008-03-06 Canon Inc Focusing device, image pick-up apparatus, and control method
JP2008309882A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera
JP2010139563A (en) * 2008-12-09 2010-06-24 Nikon Corp Focus detector, focusing device, and imaging apparatus

Similar Documents

Publication Publication Date Title
WO2013015131A1 (en) Focus adjustment device and image capturing apparatus
JP5776210B2 (en) Focus adjustment device and imaging device
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP2013015559A (en) Focus detector and imaging apparatus
JP2013050690A (en) Focus adjusting device and imaging apparatus
JP5891582B2 (en) Focus detection device, camera body and camera
JP2013037101A (en) Focus detector and imaging apparatus
JP6399140B2 (en) Imaging device
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP5760792B2 (en) Focus adjustment device and imaging device
JP5891668B2 (en) Focus adjustment device and imaging device
JP5966262B2 (en) Imaging device
JP6127730B2 (en) Imaging device
JP2013061579A (en) Focusing device and imaging apparatus
JP6069817B2 (en) Focus adjustment device and imaging device provided with the same
JP2013011761A (en) Focus adjustment device and imaging apparatus having the same
JP6304286B2 (en) Focus detection device and camera
JP6183482B2 (en) Focus detection apparatus and imaging apparatus
JP2018116296A (en) Focus detection apparatus
JP6014977B2 (en) Focus detector, camera body, and camera
JP2012181448A (en) Focusing device and imaging apparatus
JP5561246B2 (en) Focus adjustment device and imaging device provided with the same
JP5402997B2 (en) Focus adjustment device and imaging device provided with the same
JP2013054326A (en) Focus detector and imaging apparatus
JP2020073967A (en) Imaging apparatus and focus detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190625