JP6183482B2 - Focus detection apparatus and imaging apparatus - Google Patents

Focus detection apparatus and imaging apparatus Download PDF

Info

Publication number
JP6183482B2
JP6183482B2 JP2016028363A JP2016028363A JP6183482B2 JP 6183482 B2 JP6183482 B2 JP 6183482B2 JP 2016028363 A JP2016028363 A JP 2016028363A JP 2016028363 A JP2016028363 A JP 2016028363A JP 6183482 B2 JP6183482 B2 JP 6183482B2
Authority
JP
Japan
Prior art keywords
focus
detection
focus detection
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016028363A
Other languages
Japanese (ja)
Other versions
JP2016122210A (en
Inventor
宏明 高原
宏明 高原
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2016028363A priority Critical patent/JP6183482B2/en
Publication of JP2016122210A publication Critical patent/JP2016122210A/en
Application granted granted Critical
Publication of JP6183482B2 publication Critical patent/JP6183482B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、焦点検出装置および撮像装置に関する。   The present invention relates to a focus detection apparatus and an imaging apparatus.
従来より、撮影画面内の特定被写体を特定し、特定被写体に対応する位置において、光学系の焦点状態を検出する技術が知られている(たとえば、特許文献1)。   2. Description of the Related Art Conventionally, a technique for specifying a specific subject in a shooting screen and detecting a focus state of an optical system at a position corresponding to the specific subject is known (for example, Patent Document 1).
特開2007−279601号公報JP 2007-279601 A
しかしながら、従来技術では、特定被写体が特定されていない場合にも、位相差を用いた位相差検出方式による焦点検出と比べて焦点検出に要する時間が長い、コントラスト検出方式による焦点検出が行われるため、焦点検出に要する時間が長くなってしまう場合があった。   However, in the conventional technique, even when a specific subject is not specified, focus detection is performed by the contrast detection method, which requires a longer time for focus detection than the focus detection by the phase difference detection method using the phase difference. In some cases, the time required for focus detection becomes longer.
本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In the following description, reference numerals corresponding to the drawings showing the embodiment of the present invention are given and described. However, the reference numerals are only for facilitating the understanding of the invention and are not intended to limit the invention. .
[1]本発明に係る焦点検出装置は、焦点調節光学系を有する光学系による像を撮像して信号を出力する撮像素子と、前記撮像素子から出力された信号に基づく画像から特定の被写体を特定する特定部と、前記撮像素子から出力された信号に基づく画像の第1領域における前記光学系による像が前記撮像素子に合焦する前記焦点調節光学系の合焦位置と前記焦点調節光学系の位置とのずれ量を、前記撮像素子から出力される信号に基づいて検出する第1検出部と、前記撮像素子から出力された信号に基づく画像の第1領域および前記第1領域以外の第2領域における像が前記撮像素子に合焦する前記焦点調節光学系の合焦位置を、前記撮像素子から出力される信号に基づいて検出する第2検出部と、前記特定部により特定の被写体が特定されない場合、前記第1領域を前記焦点調節光学系の位置を検出する領域とし、前記第1検出部により前記ずれ量が検出できない場合、前記焦点調節光学系を移動させながら前記第1検出部により前記ずれ量を検出および前記第2検出部により前記合焦位置を検出させ、前記特定部により特定の被写体が前記第1領域において特定されている場合、前記第1検出部により前記ずれ量を検出させ、前記特定部により前記特定の被写体が前記第2領域において特定されている場合、前記第2検出部により前記合焦位置を検出させる制御部と、を備える。 [1] A focus detection apparatus according to the present invention captures an image by an optical system having a focus adjustment optical system and outputs a signal, and a specific subject from an image based on the signal output from the image sensor. A focus position of the focus adjustment optical system in which an image by the optical system in the first region of an image based on a signal output from the image sensor is focused on the image sensor and the focus adjustment optical system; A first detector that detects the amount of deviation from the position based on a signal output from the image sensor, a first area of an image based on the signal output from the image sensor, and a first area other than the first area A second detection unit that detects, based on a signal output from the image pickup device, a focus position of the focus adjustment optical system in which an image in two regions is focused on the image pickup device; Identified If the first detection region is a region for detecting the position of the focus adjustment optical system and the shift amount cannot be detected by the first detection unit, the first detection unit moves the focus adjustment optical system. When the shift amount is detected and the in-focus position is detected by the second detection unit, and the specific object is specified in the first region by the specifying unit, the shift amount is detected by the first detection unit. And a control unit that causes the second detection unit to detect the in-focus position when the specific subject is specified in the second region by the specifying unit .
[2]上記焦点検出装置に係る発明において、前記制御部は、前記焦点調節光学系を移動させながら前記第1検出部および前記第2検出部により前記焦点調節光学系の位置を検出させ、前記第1検出部により前記ずれ量が検出されるとともに前記第2検出部により前記合焦位置が検出された場合、前記ずれ量に基づいて前記焦点調節光学系を移動させるように構成することができる。 [2] In the invention related to the focus detection device, the control unit detects the position of the focus adjustment optical system by the first detection unit and the second detection unit while moving the focus adjustment optical system, When the shift amount is detected by the first detection unit and the in-focus position is detected by the second detection unit, the focus adjustment optical system can be moved based on the shift amount. .
[3]上記焦点検出装置に係る発明において、前記制御部は、前記第1検出部により前記ずれ量を検出できた場合、前記ずれ量に基づいて前記焦点調節光学系を移動させ、前記第2検出部により前記合焦位置を検出できた場合、前記第2検出部の検出結果に基づいて前記焦点調節光学系を移動させるように構成することができる。 [3] In the invention related to the focus detection apparatus, when the shift amount is detected by the first detection unit, the control unit moves the focus adjustment optical system based on the shift amount, and the second control unit detects the shift amount. When the in-focus position can be detected by the detection unit, the focus adjustment optical system can be configured to move based on the detection result of the second detection unit .
[4]上記焦点検出装置に係る発明において、前記撮像素子は、焦点検出画素と撮像画素とを有し、前記第1検出部は、前記焦点検出画素から出力される信号に基づいて前記ずれ量を検出し、前記第2検出部は前記撮像画素から出力される信号に基づく画像のコントラストに基づいて前記合焦位置を検出するように構成することができる。 [4] In the invention according to the focus detection device, the imaging element includes a focus detection pixel and an imaging pixel, and the first detection unit is configured to detect the shift amount based on a signal output from the focus detection pixel. The second detection unit can be configured to detect the in-focus position based on an image contrast based on a signal output from the imaging pixel .
[5]上記焦点検出装置に係る発明において、前記制御部は、前記特定部により特定の被写体が特定されている場合、前記第1検出部または前記第2検出部に前記特定の被写体が前記撮像素子に合焦する前記焦点調節光学系の合焦位置を検出させるように構成することができる。 [5] In the invention related to the focus detection apparatus, when the specific object is specified by the specifying unit, the control unit captures the specific object in the first detection unit or the second detection unit. The focusing position of the focusing optical system that focuses on the element can be detected .
[6]上記焦点検出装置に係る発明において、前記撮像素子から出力された信号に基づく画像から被写体を選択する選択部を備え、前記特定部は、前記選択部で選択された被写体を特定の被写体として特定するように構成することができる。 [6] In the invention according to the focus detection apparatus, the focus detection device includes a selection unit that selects a subject from an image based on the signal output from the imaging element, and the specification unit selects the subject selected by the selection unit as a specific subject. It can be configured to be specified as
[7]上記焦点検出装置に係る発明において、表示部を備え、前記表示部は、前記第1領域を示す画像を、前記光学系を介して得られる画像に重畳して表示するように構成することができる。
[7] In the invention related to the focus detection apparatus, the display unit includes a display unit, and the display unit is configured to display an image indicating the first region so as to be superimposed on an image obtained through the optical system. be able to.
[8]本発明に係る撮像装置は、上記焦点検出装置を備える。   [8] An imaging device according to the present invention includes the focus detection device.
図1は、第1実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the first embodiment. 図2は、図1に示す撮像素子の撮像面における焦点検出位置を示す正面図である。FIG. 2 is a front view showing a focus detection position on the imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is an enlarged front view showing one of the imaging pixels 221. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is an enlarged cross-sectional view showing one of the imaging pixels 221. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged cross-sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged cross-sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、本実施形態に係るカメラの動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the camera according to the present embodiment. 図10は、本実施形態において、特定被写体が特定されていない場合の焦点検出方法を説明するための図である。FIG. 10 is a diagram for explaining a focus detection method when a specific subject is not specified in the present embodiment. 図11は、本実施形態において、特定被写体が特定されている場合の焦点検出方法を説明するための図である。FIG. 11 is a diagram for explaining a focus detection method when a specific subject is specified in the present embodiment. 図12は、ステップS115,S125のスキャン動作実行処理を示すフローチャートである。FIG. 12 is a flowchart showing the scan operation execution process in steps S115 and S125.
以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.
レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.
レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.
このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, by rotating the rotating cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves straight along the optical axis L1.
上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by rotating the rotary cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the focus lens drive motor 36 as the drive source is the lens. The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by a transmission composed of a plurality of gears, for example, and when the drive shaft of the focus lens drive motor 36 is driven to rotate in any one direction, it is transmitted to the rotary cylinder at a predetermined gear ratio. Then, when the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves linearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is rotated in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1. .
フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the optical axis L1 direction correlates with the rotation angle of the rotating cylinder, and can be obtained by detecting the relative rotation angle of the rotating cylinder with respect to the lens barrel 3, for example.
本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.
フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus calculated based on this information. The driving position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.
絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された絞り値に応じた開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された撮影絞り値に応じた開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an aperture diameter corresponding to the aperture value calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the aperture diameter corresponding to the set photographing aperture value is input from the camera control unit 21 to the lens control unit 37 by manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.
一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。このようなメモリとしては着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。なお、撮像素子22の撮像面の前方には、赤外光をカットするための赤外線カットフィルタ、および画像の折り返しノイズを防止するための光学的ローパスフィルタが配置されている。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The image sensor 22 is composed of a device such as a CCD or CMOS, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. As such a memory, either a removable card type memory or a built-in type memory can be used. An infrared cut filter for cutting infrared light and an optical low-pass filter for preventing image aliasing noise are disposed in front of the imaging surface of the image sensor 22. Details of the structure of the image sensor 22 will be described later.
カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image picked up by the image pickup device 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal driving circuit 25 that drives the electronic viewfinder (EVF) 26, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on the read image information. Thereby, the user can observe the current captured image through the eyepiece lens 27. Note that, instead of or in addition to the observation optical system using the optical axis L2, a liquid crystal display may be provided on the back surface of the camera body 2, and a photographed image may be displayed on the liquid crystal display.
カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25や記録媒体であるメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Are output to the liquid crystal driving circuit 25 of the electronic viewfinder 26 and the memory 24 which is a recording medium. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.
また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による光学系の焦点状態の検出を行う。なお、焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographing optical system by the phase detection method and the focus state of the optical system by the contrast detection method based on the pixel data read from the image sensor 22. Do. A method for detecting the focus state will be described later.
操作部28は、シャッターレリーズボタンや撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換や、オートフォーカスモードの中でも、ワンショットモード/コンティニュアスモードの切換が行えるようになっている。ここで、ワンショットモードとは、一度調節したフォーカスレンズ32の位置を固定し、そのフォーカスレンズ位置で撮影するモードであるのに対し、コンティニュアスモードとは、フォーカスレンズ32の位置を固定することなく被写体に応じてフォーカスレンズ位置を調節するモードである。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button or an input switch for the photographer to set various operation modes of the camera 1, and switches between the auto focus mode / manual focus mode and the one shot mode / continuity even in the auto focus mode. It is possible to switch between the numeric modes. Here, the one-shot mode is a mode in which the position of the focus lens 32 once adjusted is fixed and photographing is performed at the focus lens position, whereas the continuous mode is a mode in which the position of the focus lens 32 is fixed. In this mode, the focus lens position is adjusted according to the subject. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.
次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.
図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the image sensor 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG.
本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, the imaging element 22 of the present embodiment includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmit a green wavelength region. A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.
なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.
図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as shown in the cross-sectional view of FIG. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system by the micro lens 2211, and receives the imaging light beam.
また、撮像素子22の撮像面には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a〜22eが設けられている。そして、図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列(22a〜22e)に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, on the imaging surface of the imaging element 22, focus detection pixel rows 22 a to 22 e in which focus detection pixels 222 a and 222 b are arranged instead of the above-described imaging pixel 221 are provided. As shown in FIG. 3, one focus detection pixel column includes a plurality of focus detection pixels 222 a and 222 b that are alternately arranged adjacent to each other in a horizontal row (22 a to 22 e). In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.
なお、図2に示す焦点検出画素列22a〜22eの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所、三箇所、あるいは四箇所とすることもでき、また、六箇所以上の位置に配置することもできる。また、図3においては、16個の焦点検出画素222a,222bにより、焦点検出画素列を構成する例を示しているが、焦点検出画素列を構成する焦点検出画素の数は、この例に限定されるものではない。   Note that the positions of the focus detection pixel rows 22a to 22e shown in FIG. 2 are not limited to the illustrated positions, and may be any one, two, three, or four locations, and more than six locations. It can also be arranged at the position. FIG. 3 shows an example in which the focus detection pixel array is configured by 16 focus detection pixels 222a and 222b, but the number of focus detection pixels configuring the focus detection pixel array is limited to this example. Is not to be done.
図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出画素列22a〜22eを構成する。   FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 5A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 5B, and a semiconductor of the image sensor 22 as shown in a cross-sectional view of FIG. 7B. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. Then, as shown in FIG. 3, these focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row, thereby forming focus detection pixel rows 22a to 22e shown in FIG.
なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive a light beam that passes through a predetermined region (eg, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.
また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 5A and 5B have a semicircular shape, the shapes of the photoelectric conversion units 2222a and 2222b are not limited thereto. Other shapes such as an elliptical shape, a rectangular shape, and a polygonal shape can also be used.
ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.
図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 and adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. 8 illustrates only the focus detection pixels 222a and 222b that are located in the vicinity of the photographing optical axis L1, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 8 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.
ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.
なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341, 342.
また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   As shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2. Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.
すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.
図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. The signal corresponding to is output.
また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   Further, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.
そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a straight line as shown in FIG. 3, and the outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b are converted into the distance measurement pupil 341, respectively. Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.
そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane). The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.
なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based thereon are executed by the camera control unit 21.
また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained by, for example, extracting a high frequency component of an image output from the imaging pixel 221 of the imaging element 22 using a high frequency transmission filter and integrating the extracted high frequency component. It can also be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating them.
そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed in which the position of the focus lens 32 is determined as the in-focus position. Note that this in-focus position is obtained when, for example, when the focus evaluation value is calculated while driving the focus lens 32, the focus evaluation value rises twice and then moves down twice. Can be obtained by performing an operation such as interpolation using the focus evaluation value.
ここで、図2には、撮影画面内の第1領域と第2領域とを、撮像素子22に対応させて表示している(なお、図2に示す一点鎖線で囲まれた領域が、第1領域であり、この第1領域の周囲に位置する外側の領域が第2領域である)。撮影画面の第1領域は、撮像素子22のうち、撮像画素221と、焦点検出画素列22a〜22eを構成する焦点検出画素222a,222bとを有する部分に対応しており、第1領域においては、光学系の焦点状態を位相差検出方式およびコントラスト検出方式により検出することが可能となっている。また、撮影画面の第2領域は、図2に示すように、撮影画面の第1領域の周囲に位置し、撮像素子22のうち、撮像画素221のみを有する部分に対応している。そのため、第2領域においては、光学系の焦点状態をコントラスト検出方式のみにより検出することが可能となっている。   Here, in FIG. 2, the first area and the second area in the shooting screen are displayed in correspondence with the image sensor 22 (note that the area surrounded by the one-dot chain line shown in FIG. 1 area, and the outer area located around the first area is the second area). The first area of the shooting screen corresponds to a part of the image sensor 22 having the imaging pixel 221 and the focus detection pixels 222a and 222b constituting the focus detection pixel rows 22a to 22e. The focus state of the optical system can be detected by the phase difference detection method and the contrast detection method. Further, as shown in FIG. 2, the second area of the shooting screen is located around the first area of the shooting screen, and corresponds to a portion of the image pickup device 22 having only the image pickup pixel 221. Therefore, in the second region, the focus state of the optical system can be detected only by the contrast detection method.
次いで、本実施形態に係るカメラ1の動作例を説明する。図9は、本実施形態に係るカメラ1の動作例を示すフローチャートである。なお、以下の動作は、カメラ1の電源がオンされることにより開始される。また、以下においては、人物の顔領域を検出し、検出した人物の顔領域における焦点状態を検出するモードが選択されており、かつ、ワンショットモード、すなわち、一度調節したフォーカスレンズ32の位置を固定し、そのフォーカスレンズ位置で撮影するモードが選択されている場合を例示して説明を行なう。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 9 is a flowchart showing an operation example of the camera 1 according to the present embodiment. The following operation is started when the camera 1 is turned on. In the following, a mode is selected in which the face area of the person is detected and the focus state in the detected face area of the person is detected, and the position of the focus lens 32 that has been adjusted once is selected. A description will be given by exemplifying a case where the mode for fixing and shooting at the focus lens position is selected.
さらに、以下においては、図10および図11を参照して、本実施形態に係るカメラ1の動作例を説明する。ここで、図10は、特定被写体が特定されていない場合の焦点検出方法を説明するための図であり、特定被写体が特定されていない場合において、電子ビューファインダ26により表示される撮影画面の一例を示している。また、図11は、特定被写体が特定されている場合の焦点検出方法を説明するための図であり、特定被写体が特定されている場合において、電子ビューファインダ26により表示される撮影画面の一例を示している。   Further, an operation example of the camera 1 according to the present embodiment will be described below with reference to FIGS. 10 and 11. Here, FIG. 10 is a diagram for explaining a focus detection method when a specific subject is not specified, and an example of a shooting screen displayed by the electronic viewfinder 26 when a specific subject is not specified. Is shown. FIG. 11 is a diagram for explaining a focus detection method when a specific subject is specified, and an example of a shooting screen displayed by the electronic viewfinder 26 when the specific subject is specified. Show.
図10および図11に示す例では、図10に示すように、撮影画面内に16個の焦点検出エリアAFP(図10中、破線で囲まれたエリア)が設定されており、16個の全ての焦点検出エリアAFPにおいて、位相差検出方式によるデフォーカス量の算出が可能となっている。なお、図10では、16個の焦点検出エリアAFPを例示しているが、撮影画面に設定される焦点検出エリアAFPの数は、16個に限定されるものではなく、15個以下とすることもできるし、17個以上とすることもできる。また、図10においては、説明の便宜のため、16個の焦点検出エリアAFPを破線で示しているが、本実施形態では、図11に示すように、焦点検出エリアAFPを撮影画面に表示しない構成とできる。   In the example shown in FIGS. 10 and 11, as shown in FIG. 10, 16 focus detection areas AFP (area surrounded by a broken line in FIG. 10) are set in the shooting screen. In the focus detection area AFP, it is possible to calculate the defocus amount by the phase difference detection method. In FIG. 10, 16 focus detection areas AFP are illustrated, but the number of focus detection areas AFP set on the shooting screen is not limited to 16, but 15 or less. Or 17 or more. In FIG. 10, for convenience of explanation, the 16 focus detection areas AFP are indicated by broken lines, but in this embodiment, as shown in FIG. 11, the focus detection areas AFP are not displayed on the shooting screen. Can be configured.
まず、ステップS101では、カメラ制御部21によるスルー画像の生成、および観察光学系の電子ビューファインダ26による、スルー画像の表示が開始される。具体的には、撮像素子22により露光動作が行なわれ、カメラ制御部21により、撮像画素221の画素データの読み出しが行なわれる。そして、カメラ制御部21は、読み出したデータに基づきスルー画像を生成し、生成されたスルー画像は液晶駆動回路25に送出され、観察光学系の電子ビューファインダ26に表示される。そして、これにより、接眼レンズ27を介して、撮影者は被写体の画像を視認することが可能となる。また、本実施形態では、図10および図11に示すように、カメラ制御部21により、撮影画面内の第1領域を示す第1領域マーク50が被写体の像に重畳され、第1領域マーク50が重畳されたスルー画像が、電子ビューファインダ26により表示される。なお、スルー画像の生成、およびスルー画像の表示は、所定の間隔で繰り返し実行される。   First, in step S101, generation of a through image by the camera control unit 21 and display of a through image by the electronic viewfinder 26 of the observation optical system are started. Specifically, an exposure operation is performed by the imaging element 22, and pixel data of the imaging pixel 221 is read by the camera control unit 21. Then, the camera control unit 21 generates a through image based on the read data, and the generated through image is sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder 26 of the observation optical system. As a result, the photographer can visually recognize the image of the subject through the eyepiece lens 27. In the present embodiment, as shown in FIGS. 10 and 11, the camera control unit 21 superimposes the first area mark 50 indicating the first area in the shooting screen on the image of the subject, and the first area mark 50. A through image on which is superimposed is displayed by the electronic viewfinder 26. Note that the generation of the through image and the display of the through image are repeatedly executed at predetermined intervals.
ステップS102では、カメラ制御部21により、撮影画面を複数の領域に分割し、分割した各領域ごとに測光を行う多分割測光(マルチパターン測光)が行われ、撮影画面全体の輝度値Bvが算出される。そして、カメラ制御部21により、算出した撮影画面全体の輝度値Bvに基づいて、撮影画面全体で適正露出が得られるように、受光感度Sv、露光時間Tv、および絞りAvが決定される。なお、本実施形態では、受光感度Svおよび露光時間Tvを優先して変更し、受光感度Svおよび露光時間Tvを変更するだけでは、撮影画面全体で適正露出が得られない場合に、絞りAvが変更される。   In step S102, the camera control unit 21 divides the shooting screen into a plurality of regions, and performs multi-division metering (multi-pattern metering) in which photometry is performed for each of the divided regions, and the luminance value Bv of the entire shooting screen is calculated. Is done. Then, the camera control unit 21 determines the light receiving sensitivity Sv, the exposure time Tv, and the aperture Av so that a proper exposure can be obtained on the entire shooting screen based on the calculated luminance value Bv of the entire shooting screen. In the present embodiment, when the light receiving sensitivity Sv and the exposure time Tv are preferentially changed, and only by changing the light receiving sensitivity Sv and the exposure time Tv, a proper exposure cannot be obtained on the entire photographing screen, the aperture Av is set. Be changed.
ステップS103では、カメラ制御部21により、撮像素子22により撮像された撮像画像の中から人物の顔領域を検出する処理が行われる。たとえば、カメラ制御部21は、予め記憶している人物の顔のテンプレート画像データ(基準画像データ)と、撮像された撮像画像とを比較することにより、撮像画像の中から人物の顔領域を検出することができる。たとえば、図11に示す例では、第1領域を示す第1領域マーク50の範囲内において、人物の顔領域A,Bが検出され、第1領域を示す第1領域マーク50の範囲を超えた範囲内において、人物の顔領域Cが検出される。なお、ステップS103の人物の顔領域の検出は、所定の間隔で繰り返し行われる。   In step S <b> 103, the camera control unit 21 performs processing for detecting a human face area from the captured image captured by the image sensor 22. For example, the camera control unit 21 detects the face area of the person from the captured image by comparing the template image data (reference image data) of the person's face stored in advance with the captured image. can do. For example, in the example shown in FIG. 11, the face areas A and B of the person are detected within the range of the first area mark 50 indicating the first area, and exceed the range of the first area mark 50 indicating the first area. Within the range, a human face area C is detected. It should be noted that the detection of the human face area in step S103 is repeated at predetermined intervals.
ステップS104では、カメラ制御部21により、ステップS103で検出された人物の顔領域に、人物の顔領域を認識するための認識枠52が重畳され、人物の顔領域に認識枠52を重畳したスルー画像が、図11に示すように、電子ビューファインダ26により表示される。たとえば、図11に示す例では、3人の人物の顔領域A,B,Cが検出されており、検出された全ての人物の顔領域A,B,Cに対して、各人物の顔領域A,B,Cの位置および大きさに合わせた認識枠52が重畳される。   In step S104, a recognition frame 52 for recognizing the person's face area is superimposed on the person's face area detected in step S103 by the camera control unit 21, and the recognition frame 52 is superimposed on the person's face area. The image is displayed by the electronic viewfinder 26 as shown in FIG. For example, in the example shown in FIG. 11, the face areas A, B, and C of three persons are detected, and the face areas of each person are compared with the detected face areas A, B, and C of all persons. A recognition frame 52 that matches the positions and sizes of A, B, and C is superimposed.
なお、ステップS103で人物の顔領域が検出されなかった場合には、撮影者により予め設定されている焦点検出エリアAFPを示すマークを表示する構成としてもよいし、あるいは、撮影画面の中心において焦点検出を行うモードにおいては、撮影画面の中心の焦点検出エリアAFPを示すマークを表示する構成としてもよい。また、このような焦点検出エリアを示すマークを表示しない構成としてもよい。   If no human face area is detected in step S103, a mark indicating the focus detection area AFP preset by the photographer may be displayed, or the focus may be displayed at the center of the shooting screen. In the detection mode, a mark indicating the focus detection area AFP at the center of the shooting screen may be displayed. Moreover, it is good also as a structure which does not display the mark which shows such a focus detection area.
ステップS105では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれる。シャッターレリーズボタンが半押しされた場合は、ステップS106に進む。一方、シャッターレリーズボタンが半押しされていない場合は、ステップS102に戻り、露出制御と、人物の顔領域の検出とが繰り返し実行される。   In step S105, the camera control unit 21 determines whether the shutter release button provided in the operation unit 28 is half-pressed (the first switch SW1 is turned on). If the shutter release button has been pressed halfway, the process proceeds to step S106. On the other hand, if the shutter release button has not been pressed halfway, the process returns to step S102, and exposure control and detection of the human face area are repeatedly executed.
ステップS106では、カメラ制御部21により、人物の顔領域が検出されているか否かの判定が行われる。人物の顔領域が検出されている場合には、検出された人物の顔領域における焦点状態を検出するために、ステップS116に進み、一方、人物の顔領域が検出されていない場合には、第1領域マーク50の範囲内における焦点状態を検出するために、ステップS107に進む。   In step S106, the camera control unit 21 determines whether a human face area is detected. If the face area of the person is detected, the process proceeds to step S116 to detect the focus state in the detected face area of the person. On the other hand, if the face area of the person is not detected, In order to detect the focus state within the range of the one area mark 50, the process proceeds to step S107.
ステップS107では、人物の顔領域が検出されていないため、カメラ制御部21により、焦点検出を行うための領域が、位相差検出方式による焦点検出が可能な第1領域に設定される。そして、続くステップS108では、カメラ制御部21により、第1領域内に設定された複数の焦点検出エリアAFPにおいて、位相差検出方式によるデフォーカス量の算出が行われる。たとえば、図10に示す例では、第1領域内に16個の焦点検出エリアAFPが設定されており、16個の全ての焦点検出エリアAFPにおいて、デフォーカス量の算出が行われる。   In step S107, since the face area of the person has not been detected, the camera control unit 21 sets the area for focus detection as the first area where focus detection can be performed by the phase difference detection method. In subsequent step S108, the camera control unit 21 calculates the defocus amount by the phase difference detection method in the plurality of focus detection areas AFP set in the first region. For example, in the example shown in FIG. 10, 16 focus detection areas AFP are set in the first region, and the defocus amount is calculated in all 16 focus detection areas AFP.
ステップS109では、カメラ制御部21により、デフォーカス量が算出できたか否かの判断が行われる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS110に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS115に進む。なお、本実施形態では、第1領域マーク50が示す範囲内に設定された複数の焦点検出エリアAFPのうち、デフォーカス量が算出できた焦点検出エリアが1つでもある場合には、デフォーカス量が算出できたと判断されて、ステップS110に進み、一方、第1領域マーク50が示す範囲内に設定された全ての焦点検出エリアAFPでデフォーカス量が算出できない場合には、デフォーカス量が算出できないものと判断されて、ステップS115に進む。なお、本実施形態においては、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合には、デフォーカス量が算出できなかったものとして扱い、ステップS115に進むこととする。本実施形態においては、たとえば、被写体のコントラストが低い場合、被写体が超低輝度被写体である場合、あるいは被写体が超高輝度被写体である場合などにおいて、デフォーカス量の信頼性が低いと判断される。   In step S109, the camera control unit 21 determines whether the defocus amount has been calculated. If the defocus amount can be calculated, it is determined that distance measurement is possible and the process proceeds to step S110. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is not possible and the process proceeds to step S115. . In the present embodiment, when there is at least one focus detection area in which the defocus amount can be calculated among the plurality of focus detection areas AFP set within the range indicated by the first region mark 50, defocusing is performed. When it is determined that the amount can be calculated, the process proceeds to step S110. On the other hand, when the defocus amount cannot be calculated in all the focus detection areas AFP set within the range indicated by the first region mark 50, the defocus amount is It is determined that it cannot be calculated, and the process proceeds to step S115. In the present embodiment, even if the defocus amount can be calculated, if the reliability of the calculated defocus amount is low, it is treated that the defocus amount cannot be calculated, and the process proceeds to step S115. I will do it. In the present embodiment, for example, when the subject has a low contrast, the subject is an ultra-low brightness subject, or the subject is an ultra-high brightness subject, it is determined that the reliability of the defocus amount is low. .
ステップS110では、デフォーカス量が算出できたと判断されているため、カメラ制御部21により、ステップS108のデフォーカス量の演算結果に基づいて、焦点調節を行うための焦点検出エリアAFPを決定する処理が行われる。たとえば、至近側の被写体に優先してピントを合わせる至近優先モードが選択されている場合には、カメラ制御部21は、デフォーカス量が算出できた複数の焦点検出エリアAFPのうち、最も至近側の焦点検出エリアAFPを、焦点調節を行うための焦点検出エリアAFPとして決定する。また、焦点調節を行うための焦点検出エリアAFPの決定方法は、上記方法に限定されず、たとえば、デフォーカス量が算出できた複数の焦点検出エリアAFPのうち、撮影画面の中心から最も近い焦点検出エリアAFPを、焦点調節を行うための焦点検出エリアAFPとして決定することもできる。   Since it is determined in step S110 that the defocus amount has been calculated, the camera control unit 21 determines a focus detection area AFP for performing focus adjustment based on the defocus amount calculation result in step S108. Is done. For example, when the closest priority mode for focusing on the subject on the near side is selected, the camera control unit 21 selects the closest side among the plurality of focus detection areas AFP for which the defocus amount can be calculated. The focus detection area AFP is determined as a focus detection area AFP for performing focus adjustment. Further, the method for determining the focus detection area AFP for performing the focus adjustment is not limited to the above-described method. For example, the focus closest to the center of the shooting screen among the plurality of focus detection areas AFP for which the defocus amount can be calculated. The detection area AFP can also be determined as a focus detection area AFP for performing focus adjustment.
そして、ステップS111では、図10に示すように、カメラ制御部21により、ステップS110で決定された焦点調節を行うための焦点検出エリアAFPに、焦点検出マーク51が重畳され、電子ビューファインダ26により表示される。これにより、本実施形態では、撮影者に、どの焦点検出エリアAFPが、焦点調節を行うための焦点検出エリアAFPであるかを視認させることができる。   In step S111, as shown in FIG. 10, the camera control unit 21 superimposes the focus detection mark 51 on the focus detection area AFP for performing the focus adjustment determined in step S110. Is displayed. Thereby, in this embodiment, the photographer can visually recognize which focus detection area AFP is the focus detection area AFP for performing focus adjustment.
ステップS112では、カメラ制御部21により、ステップS110で決定された、焦点調節を行うための焦点検出エリアAFPで算出されたデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行われ、算出されたレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出される。これにより、フォーカスレンズ駆動モータ36により、算出されたレンズ駆動量に基づいて、フォーカスレンズ32の駆動が行われる。   In step S112, the camera control unit 21 drives the focus lens 32 to the in-focus position based on the defocus amount calculated in the focus detection area AFP for performing focus adjustment determined in step S110. The required lens drive amount is calculated, and the calculated lens drive amount is sent to the focus lens drive motor 36 via the lens control unit 37. As a result, the focus lens driving motor 36 drives the focus lens 32 based on the calculated lens driving amount.
そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS113に進み、合焦表示が行なわれ、次いで、ステップS114で、合焦ロック(フォーカスレンズ32の駆動を禁止する処理)が行なわれる。なお、ステップS113における合焦表示は、たとえば、電子ビューファインダ26により行われる。   When the driving of the focus lens 32 to the in-focus position is completed, the process proceeds to step S113, in-focus display is performed, and then in step S114, focus lock (processing for prohibiting driving of the focus lens 32) is performed. It is. The in-focus display in step S113 is performed by the electronic viewfinder 26, for example.
また、ステップS109で、デフォーカス量が算出できないと判断された場合には、ステップS115に進む。ステップS115では、カメラ制御部21により、スキャン動作を実行するスキャン動作実行処理が行なわれる。ここで、スキャン動作とは、フォーカスレンズ駆動モータ36により、フォーカスレンズ32をスキャン駆動させながら、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出、および焦点評価値の算出を、所定の間隔で同時に行い、これにより、位相差検出方式による合焦位置の検出と、コントラスト検出方式による合焦位置の検出とを、同時に実行する動作である。以下においては、図12を参照して、本実施形態に係るスキャン動作実行処理を説明する。なお、図12は、本実施形態に係るスキャン動作実行処理を示すフローチャートである。   If it is determined in step S109 that the defocus amount cannot be calculated, the process proceeds to step S115. In step S115, the camera control unit 21 performs a scan operation execution process for executing a scan operation. Here, the scan operation is a predetermined calculation of the defocus amount and the focus evaluation value by the phase difference detection method by the camera control unit 21 while the focus lens 32 is scan-driven by the focus lens drive motor 36. Thus, the detection of the in-focus position by the phase difference detection method and the in-focus position detection by the contrast detection method are performed simultaneously. In the following, the scan operation execution process according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing a scan operation execution process according to the present embodiment.
まず、ステップS201では、カメラ制御部21により、スキャン動作の開始処理が行われる。具体的には、カメラ制御部21は、レンズ制御部37にスキャン駆動開始指令を送出し、レンズ制御部37は、カメラ制御部21からの指令に基づき、フォーカスレンズ駆動モータ36を駆動させ、フォーカスレンズ32を光軸L1に沿ってスキャン駆動させる。なお、スキャン駆動を行う方向は特に限定されず、フォーカスレンズ32のスキャン駆動を、無限端から至近端に向かって行なってもよいし、あるいは、至近端から無限端に向かって行なってもよい。   First, in step S201, the camera control unit 21 performs a scan operation start process. Specifically, the camera control unit 21 sends a scan drive start command to the lens control unit 37, and the lens control unit 37 drives the focus lens drive motor 36 based on the command from the camera control unit 21 to focus. The lens 32 is scan-driven along the optical axis L1. The direction in which the scan drive is performed is not particularly limited, and the scan drive of the focus lens 32 may be performed from the infinite end to the close end, or may be performed from the close end to the infinite end. Good.
そして、カメラ制御部21は、フォーカスレンズ32を駆動させながら、撮像素子22の焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しを行い、これに基づき、位相差検出方式により、デフォーカス量の算出および算出されたデフォーカス量の信頼性の評価を行うとともに、フォーカスレンズ32を駆動させながら、撮像素子22の撮像画素221から画素出力の読み出しを行い、これに基づき、焦点評価値を算出し、これにより、異なるフォーカスレンズ位置における焦点評価値を取得することで、コントラスト検出方式により合焦位置の検出を行う。   The camera control unit 21 reads out a pair of image data corresponding to the pair of images from the focus detection pixels 222a and 222b of the image sensor 22 while driving the focus lens 32, and based on this, a phase difference detection method Thus, the defocus amount is calculated and the reliability of the calculated defocus amount is evaluated, and the pixel output is read from the imaging pixel 221 of the imaging element 22 while the focus lens 32 is being driven. The focus evaluation value is calculated, and thereby the focus evaluation value at different focus lens positions is acquired, so that the focus position is detected by the contrast detection method.
また、スキャン動作を行う際には、第1領域内における焦点状態を検出するために、第1領域において、位相差検出方式による焦点検出と、コントラスト検出方式による焦点検出とを行う。すなわち、スキャン動作を行う際には、第2領域において、コントラスト検出方式による焦点検出を行わない。ただし、スキャン動作において、第1領域に加えて、第2領域においても、コントラスト検出方式による焦点検出を行う構成とすることもできる。   When performing the scanning operation, in order to detect the focus state in the first region, focus detection by the phase difference detection method and focus detection by the contrast detection method are performed in the first region. That is, when performing the scanning operation, focus detection by the contrast detection method is not performed in the second region. However, in the scanning operation, the focus detection by the contrast detection method may be performed in the second region in addition to the first region.
ステップS202では、カメラ制御部21により、スキャン動作を行なった結果、第1領域において、位相差検出方式によりデフォーカス量が算出できたか否かの判定が行なわれる。第1領域において、位相差検出方式により、デフォーカス量が算出できた場合には、測距可能と判断して、ステップS205に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS203に進む。   In step S202, it is determined whether or not the defocus amount can be calculated by the phase difference detection method in the first region as a result of the scanning operation performed by the camera control unit 21. In the first area, if the defocus amount can be calculated by the phase difference detection method, it is determined that the distance can be measured, and the process proceeds to step S205. On the other hand, if the defocus amount cannot be calculated, the measurement is performed. It is determined that the distance is impossible, and the process proceeds to step S203.
ステップS203では、カメラ制御部21により、スキャン動作を行なった結果、第1領域において、コントラスト検出方式により、合焦位置の検出ができたか否かの判定が行なわれる。第1領域において、コントラスト検出方式により、合焦位置の検出ができた場合には、ステップS211に進み、一方、合焦位置の検出ができなかった場合には、ステップS204に進む。   In step S203, as a result of the scanning operation performed by the camera control unit 21, it is determined whether or not the in-focus position has been detected by the contrast detection method in the first region. In the first region, if the in-focus position can be detected by the contrast detection method, the process proceeds to step S211. If the in-focus position cannot be detected, the process proceeds to step S204.
ステップS204では、カメラ制御部21により、スキャン動作を、フォーカスレンズ32の駆動可能範囲の全域について行なったか否かの判定が行なわれる。フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作を行なっていない場合には、ステップS202に戻り、ステップS202〜S204を繰り返すことにより、スキャン動作、すなわち、フォーカスレンズ32をスキャン駆動させながら、位相差検出方式によるデフォーカス量の算出、およびコントラスト検出方式による合焦位置の検出を同時に実行するスキャン動作を継続して行なう。一方、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行を完了している場合には、ステップS215に進む。   In step S <b> 204, the camera control unit 21 determines whether the scan operation has been performed for the entire driveable range of the focus lens 32. If the scan operation is not performed for the entire driveable range of the focus lens 32, the process returns to step S202, and steps S202 to S204 are repeated to perform the scan operation, that is, while the focus lens 32 is scan-driven. A scanning operation for simultaneously executing the calculation of the defocus amount by the phase difference detection method and the detection of the in-focus position by the contrast detection method is continuously performed. On the other hand, if the scan operation has been completed for the entire driveable range of the focus lens 32, the process proceeds to step S215.
そして、スキャン動作を実行した結果、ステップS202において、第1領域で、位相差検出方式によりデフォーカス量が算出できたと判定された場合には、ステップS205に進み、カメラ制御部21により、スキャン動作の停止処理が行なわれる。そして、ステップS206では、特定被写体が特定されているか否かの判断が行われる。図10に示すように、特定被写体が特定されていない場合には、ステップS207に進み、焦点調節を行うための焦点検出エリアAFPが決定され、焦点調節を行うための焦点検出エリアAFPに、焦点検出マーク51が重畳されて、電子ビューファインダ26により表示される。なお、ステップS206で、特定被写体が特定されている場合には、図11に示すように、既に、特定された特定被写体の位置において、焦点検出マーク53が重畳されているため(詳細は後述する。)、そのまま、ステップS208に進む。   As a result of executing the scanning operation, when it is determined in step S202 that the defocus amount can be calculated by the phase difference detection method in the first region, the process proceeds to step S205, and the camera control unit 21 performs the scanning operation. The stop process is performed. In step S206, it is determined whether or not a specific subject has been specified. As shown in FIG. 10, when the specific subject is not specified, the process proceeds to step S207, where the focus detection area AFP for performing focus adjustment is determined, and the focus detection area AFP for performing focus adjustment is focused on the focus detection area AFP. The detection mark 51 is superimposed and displayed by the electronic viewfinder 26. When a specific subject is specified in step S206, as shown in FIG. 11, the focus detection mark 53 is already superimposed at the position of the specified specific subject (details will be described later). ), The process proceeds to step S208.
ステップS208では、位相差検出方式により算出されたデフォーカス量に基づいて、フォーカスレンズ32が合焦位置まで駆動される。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS209に進み、合焦表示が行われた後、ステップS210で、合焦ロック(フォーカスレンズ32の駆動を禁止する処理)が行われる。   In step S208, the focus lens 32 is driven to the in-focus position based on the defocus amount calculated by the phase difference detection method. When the driving of the focus lens 32 to the in-focus position is completed, the process proceeds to step S209. After the focus display is performed, in step S210, the focus lock (processing for prohibiting the drive of the focus lens 32) is performed. Is called.
また、スキャン動作を実行した結果、ステップS203において、第1領域で、コントラスト検出方式により、合焦位置が検出できたと判定された場合には、ステップS211に進み、カメラ制御部21により、スキャン動作の停止処理が行なわれる。そして、ステップS212では、ステップS206と同様に、特定被写体が特定されているか否かの判断が行われる。図10に示すように、特定被写体が特定されていない場合には、ステップS213に進み、合焦位置が検出されたエリアに、焦点検出マーク51が重畳されて、電子ビューファインダ26により表示される。なお、ステップS212においても、ステップS206と同様に、特定被写体が特定されている場合には、特定被写体の位置において既に焦点検出マーク53が重畳されているため、そのままステップS214に進む。   If it is determined in step S203 that the in-focus position has been detected by the contrast detection method in step S203 as a result of executing the scanning operation, the process proceeds to step S211 and the camera control unit 21 performs the scanning operation. The stop process is performed. In step S212, as in step S206, it is determined whether or not a specific subject has been specified. As shown in FIG. 10, when the specific subject is not specified, the process proceeds to step S213, and the focus detection mark 51 is superimposed on the area where the in-focus position is detected, and is displayed by the electronic viewfinder 26. . In step S212, as in step S206, if the specific subject has been specified, the focus detection mark 53 has already been superimposed at the position of the specific subject, and the process directly proceeds to step S214.
ステップS214では、第1領域で検出された合焦位置に基づいて、フォーカスレンズ32が、合焦位置まで駆動される。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS209に進み、合焦表示が行われ、ステップS210で、合焦ロック(フォーカスレンズ32の駆動を禁止する処理)が行われる。   In step S214, the focus lens 32 is driven to the in-focus position based on the in-focus position detected in the first area. When the drive of the focus lens 32 to the in-focus position is completed, the process proceeds to step S209, where focus display is performed, and in step S210, focus lock (processing for prohibiting the drive of the focus lens 32) is performed.
一方、ステップS204において、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行が完了していると判定された場合には、ステップS215に進む。ステップS215では、スキャン動作を行なった結果、位相差検出方式およびコントラスト検出方式のいずれの方式によっても、焦点検出を行うことができなかったため、スキャン動作の終了処理が行なわれ、次いで、ステップS216に進み、カメラ制御部21により、合焦不能表示が行われる。なお、合焦不能表示は、たとえば、電子ビューファインダ26により行われる。   On the other hand, if it is determined in step S204 that the scan operation has been completed for the entire driveable range of the focus lens 32, the process proceeds to step S215. In step S215, as a result of performing the scanning operation, focus detection could not be performed by any of the phase difference detection method and the contrast detection method, so that the scanning operation end processing is performed, and then in step S216 Then, the camera control unit 21 performs an in-focus display. Note that the in-focus state display is performed by the electronic viewfinder 26, for example.
また、図9に戻り、ステップS106で、人物の顔領域が検出されていると判定された場合には、ステップS116に進む。ステップS116では、カメラ制御部21により、ステップS103で検出された人物の顔領域に基づいて、焦点調節を行うための特定被写体の特定が行われる。   Returning to FIG. 9, if it is determined in step S106 that a human face area has been detected, the process proceeds to step S116. In step S116, the camera control unit 21 specifies a specific subject for performing focus adjustment based on the face area of the person detected in step S103.
たとえば、図11に示すように、ステップS103において複数の人物の顔領域が検出された場合には、カメラ制御部21は、これら複数の人物の顔領域のうち、大きさが最も大きい人物の顔領域を主要被写体であると判断し、大きさが最も大きい人物の顔領域を、焦点検出を行うための特定被写体として特定する。たとえば、図11に示す例では、3人の人物の顔領域A,B,Cが検出されており、これら3人の人物の顔領域A,B,Cのうち、大きさが最も大きい顔領域Bが、焦点検出を行うための特定被写体として特定される。なお、特定被写体を特定する方法は、上記方法に限定されず、たとえば、複数の人物の顔領域のうち、撮影画面の中心から最も近くに位置する人物の顔領域を、焦点検出を行うための特定被写体として特定してもよいし、あるいは、人物の顔領域の大きさと撮影画面の中心からの位置との組み合わせに基づいて、特定被写体を特定してもよい。また、操作部28を介して、撮影者により、複数の人物の顔領域の中から、焦点検出を行うための人物の顔領域が選択された場合には、撮影者により選択された人物の顔領域を、焦点検出を行うための特定被写体として特定してもよい。   For example, as shown in FIG. 11, when a plurality of human face areas are detected in step S <b> 103, the camera control unit 21 determines the face of the person with the largest size among the plurality of human face areas. The area is determined to be a main subject, and the face area of the person with the largest size is specified as a specific subject for focus detection. For example, in the example shown in FIG. 11, the face areas A, B, and C of three persons are detected, and the face area having the largest size among the face areas A, B, and C of these three persons. B is specified as a specific subject for performing focus detection. Note that the method for specifying a specific subject is not limited to the above method. For example, among the face areas of a plurality of persons, a face area of a person located closest to the center of the shooting screen is used for focus detection. The specific subject may be specified, or the specific subject may be specified based on a combination of the size of the face area of the person and the position from the center of the shooting screen. In addition, when the photographer selects a person face area for focus detection from a plurality of person face areas via the operation unit 28, the face of the person selected by the photographer is selected. The region may be specified as a specific subject for performing focus detection.
ステップS117では、カメラ制御部21により、ステップS116で特定された特定被写体の像に、特定被写体の位置を示す焦点検出マーク53が重畳され、図11に示すように、焦点検出マーク53が重畳されたスルー画像が、電子ビューファインダ26により表示される。これにより、電子ビューファインダ26を介して、撮影者に、焦点検出を行うための特定被写体を視認させることができる。たとえば、図11に示す例では、3人の人物の顔領域A,B,Cのうち、撮影画面の中央に位置する顔領域Bが、焦点検出を行うための特定被写体として特定されているため、図11に示すように、特定被写体として特定された顔領域Bの像に、焦点検出マーク53が重畳される。なお、特定被写体を示す焦点検出マーク53は、特定被写体が、第1領域マーク50の示す範囲内を超えた範囲に存在する場合でも、特定被写体の像に重畳して表示される。たとえば、図11に示す例において、特定被写体として特定された人物の顔領域が、顔領域Cである場合でも、特定被写体として特定された人物の顔領域Cの像に、焦点検出マーク53が重畳される。   In step S117, the focus detection mark 53 indicating the position of the specific subject is superimposed on the image of the specific subject specified in step S116 by the camera control unit 21, and the focus detection mark 53 is superimposed as shown in FIG. The through image is displayed by the electronic viewfinder 26. Thereby, the photographer can visually recognize a specific subject for focus detection via the electronic viewfinder 26. For example, in the example shown in FIG. 11, among the face areas A, B, and C of three persons, the face area B located in the center of the shooting screen is specified as a specific subject for performing focus detection. As shown in FIG. 11, the focus detection mark 53 is superimposed on the image of the face area B specified as the specific subject. Note that the focus detection mark 53 indicating the specific subject is displayed so as to be superimposed on the image of the specific subject even when the specific subject exists in a range beyond the range indicated by the first area mark 50. For example, in the example shown in FIG. 11, even when the face area of the person specified as the specific subject is the face area C, the focus detection mark 53 is superimposed on the image of the face area C of the person specified as the specific subject. Is done.
次いで、ステップS118では、カメラ制御部21により、ステップS116で特定された特定被写体が、位相差検出方式により焦点検出が可能な第1領域内に存在するか否かの判断が行われる。特定被写体が第1領域内に存在すると判断された場合は、第1領域内の特定被写体の位置において、位相差検出方式による焦点検出を行うために、ステップS119に進む。一方、特定被写体が、コントラスト検出方式による焦点検出が可能な第2領域内に存在すると判断された場合には、第2領域内の特定被写体の位置において、コントラスト検出方式による焦点検出を行うため、ステップS121に進む。たとえば、図11に示す例では、撮影画面の中央に位置する人物の顔領域Bが特定被写体として特定されているため、特定被写体が第1領域内に存在すると判断され、ステップS119に進む。また、図11に示す例において、たとえば、撮影画面の右側に位置する人物の顔領域Cが特定被写体として特定されている場合には、特定被写体が第2領域内に存在すると判断され、ステップS121に進むこととなる。   Next, in step S118, the camera control unit 21 determines whether or not the specific subject specified in step S116 exists in the first region where focus detection is possible by the phase difference detection method. If it is determined that the specific subject exists in the first area, the process proceeds to step S119 in order to perform focus detection by the phase difference detection method at the position of the specific subject in the first area. On the other hand, when it is determined that the specific subject exists in the second area where focus detection by the contrast detection method can be performed, focus detection by the contrast detection method is performed at the position of the specific subject in the second region. The process proceeds to step S121. For example, in the example shown in FIG. 11, since the face area B of the person located at the center of the shooting screen is specified as the specific subject, it is determined that the specific subject exists in the first region, and the process proceeds to step S119. In the example shown in FIG. 11, for example, when the face area C of the person located on the right side of the shooting screen is specified as the specific subject, it is determined that the specific subject exists in the second area, and step S121 is performed. Will proceed to.
ステップS119では、特定被写体が、位相差検出方式による焦点検出が可能な第1領域内に存在していると判断されているため、第1領域内の特定被写体の位置に対応する焦点検出エリアAFPにおいて、位相差検出方式による焦点検出が行われる。具体的には、まず、撮像素子22により、光学系からの光束の受光が行われ、カメラ制御部21により、第1領域内の特定被写体の位置に対応する焦点検出エリアAFPの焦点検出画素222a,222bから、一対の像に対応した一対の像データの読み出しが行われる。そして、カメラ制御部21は、読み出された一対の像データに基づいて像ズレ検出演算処理(相関演算処理)を実行し、算出した像ズレ量をデフォーカス量に変換する。また、カメラ制御部21は、ステップS109と同様に、算出したデフォーカス量の信頼性の評価も行う。   In step S119, since it is determined that the specific subject exists in the first area where focus detection can be performed by the phase difference detection method, the focus detection area AFP corresponding to the position of the specific subject in the first area. The focus detection by the phase difference detection method is performed. Specifically, first, the image sensor 22 receives light from the optical system, and the camera control unit 21 detects the focus detection pixel 222a in the focus detection area AFP corresponding to the position of the specific subject in the first region. , 222b, a pair of image data corresponding to the pair of images is read out. Then, the camera control unit 21 executes an image shift detection calculation process (correlation calculation process) based on the read pair of image data, and converts the calculated image shift amount into a defocus amount. The camera control unit 21 also evaluates the reliability of the calculated defocus amount, as in step S109.
そして、ステップS120では、ステップS109と同様に、ステップS119のデフォーカス量の演算結果に基づいて、デフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS122に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS125に進む。なお、ステップS120においても、ステップS109と同様に、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合には、デフォーカス量が算出できなかったものとして扱われる。   In step S120, as in step S109, it is determined whether the defocus amount has been calculated based on the defocus amount calculation result in step S119. If the defocus amount can be calculated, it is determined that distance measurement is possible and the process proceeds to step S122. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is not possible and the process proceeds to step S125. . In step S120, as in step S109, even if the defocus amount can be calculated, if the reliability of the calculated defocus amount is low, the defocus amount cannot be calculated. Is called.
また、ステップS118で、焦点検出を行うための特定被写体が、位相差検出方式による焦点検出が可能な第1領域に存在せずに、コントラスト検出方式による焦点検出が可能な第2領域に存在すると判断された場合には、ステップS121に進む。ステップS121では、カメラ制御部21により、第2領域内に存在する特定被写体の位置において、コントラスト検出方式による焦点検出が行われる。具体的には、カメラ制御部21は、フォーカスレンズ32を所定のサンプリング間隔で駆動させながら、第2領域内に存在する特定被写体の位置において、焦点評価値を繰り返し算出することで、焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として検出する。合焦位置を検出した後は、ステップS122に進む。   In step S118, the specific subject for focus detection does not exist in the first region where focus detection can be performed using the phase difference detection method, but exists in the second region where focus detection can be performed using the contrast detection method. If it is determined, the process proceeds to step S121. In step S121, the camera control unit 21 performs focus detection by the contrast detection method at the position of the specific subject existing in the second area. Specifically, the camera control unit 21 repeatedly calculates a focus evaluation value at a position of a specific subject existing in the second region while driving the focus lens 32 at a predetermined sampling interval, thereby obtaining a focus evaluation value. The position of the focus lens 32 at which the maximum value is detected as the in-focus position. After detecting the in-focus position, the process proceeds to step S122.
そして、ステップS122では、カメラ制御部21により、ステップS119で算出されたデフォーカス量、または、ステップS121で検出された合焦位置に基づいて、フォーカスレンズ32を、合焦位置まで駆動するためのレンズ駆動量が算出され、算出されたレンズ駆動量に基づいて、フォーカスレンズ32の駆動が行われる。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS123に進み、合焦表示が行われた後、ステップS124で、合焦ロック(フォーカスレンズ32の駆動を禁止する処理)が行われる。   In step S122, the camera control unit 21 drives the focus lens 32 to the in-focus position based on the defocus amount calculated in step S119 or the in-focus position detected in step S121. A lens driving amount is calculated, and the focus lens 32 is driven based on the calculated lens driving amount. When the drive of the focus lens 32 to the in-focus position is completed, the process proceeds to step S123, and after focus display is performed, in step S124, the focus lock (processing for prohibiting the drive of the focus lens 32) is performed. Is called.
また、ステップS120で、第1領域内の特定被写体の位置で、デフォーカス量が算出できなかった場合には、ステップS125に進む。ステップS125では、ステップS115と同様に、スキャン動作実行処理が行われる。なお、ステップS125のスキャン動作実行処理においては、焦点調節を行うための特定被写体が特定されており、特定被写体に対応する位置に焦点検出マーク53が表示されている。そのため、スキャン動作において、デフォーカス量が算出された場合や、合焦位置が検出された場合には、デフォーカス量が算出された焦点検出エリア、あるいは、合焦位置が検出された合焦エリアを示す焦点検出マークの表示は行われない(ステップS206=No、ステップS212=No)。   In step S120, if the defocus amount cannot be calculated at the position of the specific subject in the first area, the process proceeds to step S125. In step S125, a scan operation execution process is performed as in step S115. In the scan operation execution process in step S125, a specific subject for focus adjustment is specified, and a focus detection mark 53 is displayed at a position corresponding to the specific subject. Therefore, when the defocus amount is calculated or the focus position is detected in the scan operation, the focus detection area where the defocus amount is calculated or the focus area where the focus position is detected Is not displayed (step S206 = No, step S212 = No).
以上のように、本実施形態では、シャッターレリーズボタンが半押しされた際に、人物の顔などの特定被写体が特定されていない場合には、位相差検出方式による焦点検出が可能な第1領域において、位相差検出方式による焦点検出が行われる。このように、本実施形態では、特定被写体が特定されていない場合に、コントラスト検出方式による焦点検出と比べて、焦点検出に要する時間が短い、位相差検出方式による焦点検出が行われるため、特定被写体が特定されていない場合における、焦点検出に要する時間を短縮することができ、動体などの被写体への追従性を向上することができる。   As described above, in the present embodiment, when a specific subject such as a person's face is not specified when the shutter release button is pressed halfway, the first region in which focus detection can be performed by the phase difference detection method. The focus detection by the phase difference detection method is performed. As described above, in the present embodiment, when a specific subject is not specified, focus detection is performed by the phase difference detection method in which the time required for focus detection is short compared to the focus detection by the contrast detection method. When the subject is not specified, the time required for focus detection can be shortened, and the followability to a subject such as a moving object can be improved.
また、本実施形態では、シャッターレリーズボタンが半押しされた際に、特定被写体が特定されている場合には、特定被写体の位置に拘わらず、特定被写体に対する焦点検出が行われる。具体的には、特定被写体が、位相差検出方式による焦点検出が可能な第1領域に存在する場合には、第1領域に存在する特定被写体の位置において、位相差検出方式による焦点検出が行われ、一方、特定被写体が、コントラスト検出方式による焦点検出が可能な第2領域に存在する場合には、第2領域に存在する特定被写体の位置において、コントラスト検出方式による焦点検出が行われる。これにより、本実施形態では、特定被写体が特定された場合には、特定被写体が、第1領域に存在するか、あるいは第2領域に存在するかに拘わらず、特定被写体の位置において焦点状態を検出することができるため、特定被写体が特定された場合には、特定被写体にピントの合った画像を適切に撮像することができる。   In the present embodiment, when a specific subject is specified when the shutter release button is half-pressed, focus detection is performed on the specific subject regardless of the position of the specific subject. Specifically, when the specific subject exists in the first area where focus detection can be performed by the phase difference detection method, focus detection by the phase difference detection method is performed at the position of the specific subject existing in the first area. On the other hand, when the specific subject exists in the second region where focus detection can be performed by the contrast detection method, focus detection by the contrast detection method is performed at the position of the specific subject existing in the second region. Thus, in this embodiment, when a specific subject is specified, the focus state is changed at the position of the specific subject regardless of whether the specific subject exists in the first region or the second region. Therefore, when a specific subject is specified, it is possible to appropriately capture an image focused on the specific subject.
なお、本実施形態では、特定被写体が、位相差検出方式による焦点検出が可能な第1領域から、コントラスト検出方式による焦点検出が可能な第2領域へと移動した場合には、位相差検出方式による焦点検出から、コントラスト検出方式による焦点検出に切り替えて、焦点検出が行われる。また、反対に、特定被写体が、コントラスト検出方式による焦点検出が可能な第2領域から、位相差検出方式による焦点検出が可能な第1領域へと移動した場合にも、コントラスト検出方式による焦点検出から、位相差検出方式による焦点検出に切り替えて、焦点検出が行われる。   In the present embodiment, when the specific subject moves from the first area where focus detection is possible using the phase difference detection method to the second area where focus detection is possible using the contrast detection method, the phase difference detection method is used. The focus detection is performed by switching from the focus detection by the focus detection to the focus detection by the contrast detection method. On the other hand, when the specific subject moves from the second region where the focus detection by the contrast detection method can be performed to the first region where the focus detection by the phase difference detection method can be performed, the focus detection by the contrast detection method. Then, focus detection is performed by switching to focus detection by the phase difference detection method.
さらに、本実施形態では、第1領域において、位相差検出方式による焦点検出が可能であることに加えて、コントラスト検出方式による焦点検出も可能となっているが、第1領域においては、位相差検出方式による焦点検出が優先して行われる。このように、本実施形態では、第1領域において、位相差検出方式による焦点検出を優先して行うことで、焦点検出に要する時間を短縮することができ、動体などの特定被写体に対する追従性を向上することができる。   Furthermore, in the present embodiment, in addition to the focus detection by the phase difference detection method being possible in the first region, the focus detection by the contrast detection method is also possible, but in the first region, the phase difference is being detected. Focus detection by the detection method is performed with priority. As described above, in the present embodiment, in the first region, focus detection by the phase difference detection method is performed with priority, so that the time required for focus detection can be shortened, and the followability to a specific subject such as a moving object can be reduced. Can be improved.
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
たとえば、上述した実施形態では、特定被写体が特定されていない場合には、図10に示すように、複数の焦点検出エリアAFPの中から、焦点調節を行うための焦点検出エリアAFPを決定し、決定した焦点検出エリアAFPにおけるデフォーカス量に基づいて、フォーカスレンズ32を駆動させる構成を例示したが、この構成に特に限定されるものではなく、たとえば、複数の焦点検出エリアAFPで算出された複数のデフォーカス量の平均値を算出し、算出したデフォーカス量の平均値に基づいて、フォーカスレンズ32を駆動させる構成としてもよい。また、焦点検出エリアAFPの撮影画面内の位置や、算出されたデフォーカス量の信頼性に応じて、デフォーカス量に重み付けを行い、重み付けしたデフォーカス量の平均値に基づいて、フォーカスレンズ32を駆動させる構成としてもよい。   For example, in the above-described embodiment, when a specific subject is not specified, a focus detection area AFP for performing focus adjustment is determined from a plurality of focus detection areas AFP as shown in FIG. Although the configuration in which the focus lens 32 is driven based on the determined defocus amount in the focus detection area AFP is illustrated, the configuration is not particularly limited to this configuration. For example, a plurality of values calculated in a plurality of focus detection areas AFP are used. The average value of the defocus amount may be calculated, and the focus lens 32 may be driven based on the calculated average value of the defocus amount. Further, the defocus amount is weighted according to the position of the focus detection area AFP in the photographing screen and the reliability of the calculated defocus amount, and the focus lens 32 is based on the average value of the weighted defocus amount. It is good also as a structure which drives.
また、上述した実施形態では、人物の顔領域を検出し、検出した人物の顔領域を、焦点検出を行うための特定被写体として特定しているが、特定被写体は人物の顔領域に限定されず、たとえば、人物の目領域や動物の顔領域などを、特定被写体として特定することもできる。また、撮影者の手動操作により、あるいは、カメラ制御部21による被写体認識処理により指定された対象に対応するテンプレート画像を生成し、撮影画像の中から、生成されたテンプレート画像との一致度が所定以上であるエリアの探索を行い、一致度が所定以上であるエリアを繰り返し認識する追尾動作が行われている場合には、該追尾動作において追尾対象とされた被写体を、特定被写体として特定する構成としてもよい。   In the above-described embodiment, a human face area is detected and the detected human face area is specified as a specific subject for focus detection. However, the specific subject is not limited to the human face area. For example, a person's eye area or an animal face area can be specified as the specific subject. Further, a template image corresponding to a target specified by a photographer's manual operation or by subject recognition processing by the camera control unit 21 is generated, and the degree of coincidence with the generated template image is predetermined from the captured images. A configuration in which a search for an area as described above is performed, and when a tracking operation for repeatedly recognizing an area having a matching degree equal to or higher than a predetermined value is performed, a subject that is a tracking target in the tracking operation is specified as a specific subject. It is good.
さらに、上述した実施形態では、図10に示すように、第1領域内に複数の焦点検出エリアAFPが予め設定されており、特定被写体が、第1領域内に存在する場合には、第1領域内の特定被写体の位置に対応する焦点検出エリアAFPにおいて、デフォーカス量を算出する構成を例示したが、この構成に限定されるものではなく、たとえば、焦点検出エリアAFPを予め設定することなく、特定被写体の位置に対応する焦点検出画素222a,222bの出力に基づいて、特定被写体の位置におけるデフォーカス量を算出する構成としてもよい。   Further, in the above-described embodiment, as shown in FIG. 10, when a plurality of focus detection areas AFP are set in advance in the first area, and the specific subject exists in the first area, the first area The configuration for calculating the defocus amount in the focus detection area AFP corresponding to the position of the specific subject in the region is exemplified, but the configuration is not limited to this configuration. For example, the focus detection area AFP is not set in advance. The defocus amount at the position of the specific subject may be calculated based on the outputs of the focus detection pixels 222a and 222b corresponding to the position of the specific subject.
また、上述した実施形態では、スキャン動作を行う際に、位相差検出方式によりデフォーカス量が算出された場合、あるいは、コントラスト検出方式により合焦位置が検出された場合には、スキャン動作を停止して、フォーカスレンズ32を合焦位置まで駆動させる構成を例示したが、この構成に限定されるものではなく、たとえば、デフォーカス量が算出され、または、合焦位置が検出された場合でも、フォーカスレンズ32が所定のスキャン範囲をスキャンするまでは、スキャン動作を続行し、所定のスキャン範囲をスキャンした後に、算出されたデフォーカス量や、検出された合焦位置に基づいて、フォーカスレンズ32を駆動させる構成としてもよい。   In the above-described embodiment, when the defocus amount is calculated by the phase difference detection method or the in-focus position is detected by the contrast detection method when performing the scan operation, the scan operation is stopped. Then, the configuration for driving the focus lens 32 to the in-focus position is illustrated, but the configuration is not limited to this configuration. For example, even when the defocus amount is calculated or the in-focus position is detected, The scanning operation is continued until the focus lens 32 scans the predetermined scan range, and after scanning the predetermined scan range, the focus lens 32 is based on the calculated defocus amount and the detected focus position. It is good also as a structure which drives.
なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 of the above-described embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a digital video camera, a single-lens reflex digital camera, a lens-integrated digital camera, and a camera for a mobile phone. May be.
1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
28…操作部
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
50…第1領域マーク
51,53…焦点検出マーク
52…識別枠
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel 222a, 222b ... Focus detection pixel 28 ... Operation part 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive motor 37 ... Lens Control unit 50 ... first area marks 51, 53 ... focus detection mark 52 ... identification frame

Claims (8)

  1. 焦点調節光学系を有する光学系による像を撮像して信号を出力する撮像素子と、
    前記撮像素子から出力された信号に基づく画像から特定の被写体を特定する特定部と、
    前記撮像素子から出力された信号に基づく画像の第1領域における前記光学系による像が前記撮像素子に合焦する前記焦点調節光学系の合焦位置前記焦点調節光学系の位置とのずれ量を、前記撮像素子から出力される信号に基づいて検出する第1検出部と、
    前記撮像素子から出力された信号に基づく画像の第1領域および前記第1領域以外の第2領域における像が前記撮像素子に合焦する前記焦点調節光学系の合焦位置を、前記撮像素子から出力される信号に基づいて検出する第2検出部と、
    前記特定部により特定の被写体が特定されない場合、前記第1領域を前記焦点調節光学系の位置を検出する領域とし、前記第1検出部により前記ずれ量が検出できない場合、前記焦点調節光学系を移動させながら前記第1検出部により前記ずれ量を検出および前記第2検出部により前記合焦位置を検出させ、
    前記特定部により特定の被写体が前記第1領域において特定されている場合、前記第1検出部により前記ずれ量を検出させ、前記特定部により前記特定の被写体が前記第2領域において特定されている場合、前記第2検出部により前記合焦位置を検出させる制御部と、を備える焦点検出装置。
    And that an imaging device to output the signal by imaging an image formed by an optical system having a focusing optical system,
    A specifying unit for specifying a specific subject from an image based on a signal output from the image sensor;
    Deviation amount between the focus position of the focus adjustment optical system and the position of the focus adjustment optical system where the image by the optical system in the first region of the image based on the signal output from the image pickup element is focused on the image pickup element A first detection unit that detects a signal based on a signal output from the imaging device ;
    The in- focus position of the focusing optical system where the image in the first region of the image based on the signal output from the image sensor and the second region other than the first region is in focus on the image sensor is determined from the image sensor. A second detector for detecting based on the output signal;
    When the specific object is not specified by the specifying unit, the first region is set as a region for detecting the position of the focus adjusting optical system, and when the shift amount cannot be detected by the first detecting unit, the focus adjusting optical system is Detecting the shift amount by the first detector while detecting the in- focus position by the second detector while moving,
    When a specific subject is specified in the first region by the specifying unit , the shift amount is detected by the first detection unit, and the specific subject is specified in the second region by the specifying unit. And a control unit that detects the in- focus position by the second detection unit.
  2. 請求項1に記載の焦点検出装置であって、
    前記制御部は、前記焦点調節光学系を移動させながら前記第1検出部および前記第2検出部により前記焦点調節光学系の位置を検出させ、前記第1検出部により前記ずれ量が検出されるとともに前記第2検出部により前記合焦位置が検出された場合、前記ずれ量に基づいて前記焦点調節光学系を移動させる焦点検出装置。
    The focus detection apparatus according to claim 1,
    Wherein, by the first detector and the second detector while moving the pre SL focal optics to detect the position of the focusing optical system, the shift amount is detected by the first detection unit And a focus detection device that moves the focus adjustment optical system based on the shift amount when the in-focus position is detected by the second detection unit .
  3. 請求項1または2に記載の焦点検出装置であって、
    前記制御部は、前記第1検出部により前記ずれ量を検出できた場合、前記ずれ量に基づいて前記焦点調節光学系を移動させ、前記第2検出部により前記合焦位置を検出できた場合、前記第2検出部の検出結果に基づいて前記焦点調節光学系を移動させる焦点検出装置。
    The focus detection apparatus according to claim 1 or 2,
    Wherein the control unit, when it is detected that the shift amount by the first detection unit, based on the amount of deviation by moving the focal optics, when it is detected that the focus position by the second detector A focus detection apparatus that moves the focus adjustment optical system based on a detection result of the second detection unit.
  4. 請求項1から3のいずれかに記載の焦点検出装置であって、
    前記撮像素子は、焦点検出画素と撮像画素とを有し、
    前記第1検出部は、前記焦点検出画素から出力される信号に基づいて前記ずれ量を検出し、前記第2検出部は前記撮像画素から出力される信号に基づく画像のコントラストに基づいて前記合焦位置を検出する焦点検出装置。
    The focus detection apparatus according to any one of claims 1 to 3,
    The imaging element has a focus detection pixel and an imaging pixel,
    The first detection unit, based on the signal output from the pre-Symbol focus detection pixels to detect the shift amount, the second detector is based on the contrast of the image based on the signal output from the pre-Symbol imaging pixels A focus detection device for detecting the in- focus position .
  5. 請求項1から4のいずれかに記載の焦点検出装置であって、
    前記制御部は、前記特定部により特定の被写体が特定されている場合、前記第1検出部または前記第2検出部に前記特定の被写体前記撮像素子に合焦する前記焦点調節光学系の合焦位置を検出させる焦点検出装置。
    The focus detection apparatus according to any one of claims 1 to 4,
    Wherein, if a particular subject are specified by the specifying unit, the focal optics engagement of the specific subject in the first detector or the second detector is focused on the imaging device A focus detection device that detects the focal position.
  6. 請求項1から5のいずれかに記載の焦点検出装置であって、
    前記撮像素子から出力された信号に基づく画像から被写体を選択する選択部を備え、
    前記特定部は、前記選択部で選択された被写体を特定の被写体として特定する焦点検出装置。
    The focus detection device according to any one of claims 1 to 5,
    A selection unit for selecting a subject from an image based on a signal output from the image sensor;
    The focus detection device that specifies the subject selected by the selection unit as a specific subject.
  7. 請求項1から6のいずれかに記載の焦点検出装置であって、
    表示部を備え、
    前記表示部は、前記第1領域を示す画像を、前記光学系を介して得られる画像に重畳して表示する焦点検出装置。
    The focus detection apparatus according to any one of claims 1 to 6,
    With a display,
    The focus detection apparatus, wherein the display unit superimposes and displays an image indicating the first region on an image obtained through the optical system.
  8. 請求項1〜7のいずれかに記載の焦点検出装置を備える撮像装置。   An imaging device comprising the focus detection device according to claim 1.
JP2016028363A 2016-02-17 2016-02-17 Focus detection apparatus and imaging apparatus Active JP6183482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016028363A JP6183482B2 (en) 2016-02-17 2016-02-17 Focus detection apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016028363A JP6183482B2 (en) 2016-02-17 2016-02-17 Focus detection apparatus and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011146202A Division JP2013015559A (en) 2011-06-30 2011-06-30 Focus detector and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2016122210A JP2016122210A (en) 2016-07-07
JP6183482B2 true JP6183482B2 (en) 2017-08-23

Family

ID=56327421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016028363A Active JP6183482B2 (en) 2016-02-17 2016-02-17 Focus detection apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6183482B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6873779B2 (en) * 2017-03-28 2021-05-19 キヤノン株式会社 Imaging device, its control method, and control program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4795155B2 (en) * 2006-07-28 2011-10-19 キヤノン株式会社 Optical device, imaging device, and control method thereof
JP5098259B2 (en) * 2006-09-04 2012-12-12 株式会社ニコン camera
JP2008309882A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera
JP4957435B2 (en) * 2007-07-30 2012-06-20 株式会社ニコン Imaging device
JP4900134B2 (en) * 2007-08-16 2012-03-21 株式会社ニコン Focus adjustment device, camera
JP5176483B2 (en) * 2007-10-30 2013-04-03 株式会社ニコン Image recognition device, image tracking device, and imaging device
JP2010015024A (en) * 2008-07-04 2010-01-21 Canon Inc Image pickup apparatus, control method thereof, program and storage medium
JP5543098B2 (en) * 2008-11-14 2014-07-09 キヤノン株式会社 Imaging device
JP5390871B2 (en) * 2009-01-26 2014-01-15 キヤノン株式会社 Imaging apparatus and control method thereof
JP5234099B2 (en) * 2010-12-20 2013-07-10 株式会社ニコン Autofocus device
JP2013015559A (en) * 2011-06-30 2013-01-24 Nikon Corp Focus detector and imaging apparatus

Also Published As

Publication number Publication date
JP2016122210A (en) 2016-07-07

Similar Documents

Publication Publication Date Title
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP2013015559A (en) Focus detector and imaging apparatus
JP2012255910A (en) Imaging apparatus
JP2013050690A (en) Focus adjusting device and imaging apparatus
JP5966267B2 (en) Focus adjustment device and imaging device
JP6399140B2 (en) Imaging device
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP6187617B2 (en) Imaging device
JP5891668B2 (en) Focus adjustment device and imaging device
JP5929060B2 (en) Focus detection apparatus and imaging apparatus
JP6183482B2 (en) Focus detection apparatus and imaging apparatus
JP2013061579A (en) Focusing device and imaging apparatus
JP5966262B2 (en) Imaging device
JP6069817B2 (en) Focus adjustment device and imaging device provided with the same
JP5477344B2 (en) Focus adjustment device and imaging device provided with the same
JP6098690B2 (en) Lens barrel and camera body
JP2012247723A (en) Focus adjustment device and imaging apparatus
JP2012181448A (en) Focusing device and imaging apparatus
JP5821934B2 (en) Focus detection device, camera body, and camera
JP5423734B2 (en) Lens barrel and imaging device
JP5561246B2 (en) Focus adjustment device and imaging device provided with the same
JP5402997B2 (en) Focus adjustment device and imaging device provided with the same
JP2014052653A (en) Focus adjustment device and imaging device provided with the same
JP5454521B2 (en) Imaging device
JP6332372B2 (en) Focus adjustment device and imaging device provided with the same

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R150 Certificate of patent or registration of utility model

Ref document number: 6183482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250