JP2012247724A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012247724A
JP2012247724A JP2011121339A JP2011121339A JP2012247724A JP 2012247724 A JP2012247724 A JP 2012247724A JP 2011121339 A JP2011121339 A JP 2011121339A JP 2011121339 A JP2011121339 A JP 2011121339A JP 2012247724 A JP2012247724 A JP 2012247724A
Authority
JP
Japan
Prior art keywords
subject
focus
focus detection
pixel
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011121339A
Other languages
Japanese (ja)
Inventor
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011121339A priority Critical patent/JP2012247724A/en
Publication of JP2012247724A publication Critical patent/JP2012247724A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of satisfactorily taking images.SOLUTION: The imaging apparatus includes: a rolling shutter type imaging device 22 in which plural pixels are disposed in a horizontal direction and a vertical direction and accumulation start time of charges at each pixel varies depending on the position of the pixel in the vertical direction; a focus detection section 21 that detects a focus state of an imaging lens in a focus detection area in an imaging screen on the basis of the output from an imaging device 22; a lens position detection section 21 that detects the position of a focus adjusting lens 32; an object position prediction section 21 that predicts the position in an optical axis direction of an object at a predetermined time; an accumulation start time calculation section 21 that calculates the accumulation start time of a pixel corresponding to the focus detection area; an object position calculation section 21 that calculates the position of the object in the optical axis direction at the accumulation start time of the pixel corresponding to the focus detection area as the object prediction position; and a drive section 36 that drives a focus adjusting lens on the basis of the object prediction position.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来より、シャッターレリーズボタンを全押しされてから、露光が開始されるまでの間に、動体被写体が光軸方向に移動してまった場合でも、露光開始時に、動体被写体にピントが合うように、露光開始時の動体被写体の位置を予測し、該予測結果に基づいて、焦点調節用レンズの駆動を制御する撮像装置が知られている(たとえば、特許文献1)。   Conventionally, even if the moving subject moves in the optical axis direction after the shutter release button is fully pressed and before the exposure starts, the moving subject is focused at the start of exposure. An imaging apparatus that predicts the position of a moving subject at the start of exposure and controls the driving of a focus adjustment lens based on the prediction result is known (for example, Patent Document 1).

特開2009−128611号公報JP 2009-128611 A

しかしながら、ローリングシャッター方式の撮像素子を用いた場合、撮像素子内の垂直方向における画素の位置に応じて、各画素における電荷の蓄積開始時刻が異なるが、従来技術では、このような、垂直方向における画素の位置に応じた画素ごとの電荷の蓄積開始時刻のずれが考慮されていないため、焦点検出を行うための焦点検出エリアの位置によっては、動体被写体にピントの合った画像を撮影できない場合があった。   However, when a rolling shutter type image sensor is used, the charge accumulation start time in each pixel differs depending on the position of the pixel in the vertical direction in the image sensor. Since the shift of the charge accumulation start time for each pixel according to the pixel position is not taken into account, depending on the position of the focus detection area for performing focus detection, it may not be possible to capture an image focused on the moving subject. there were.

本発明が解決しようとする課題は、良好な画像を撮影することが可能な撮像装置を提供することである。   The problem to be solved by the present invention is to provide an imaging apparatus capable of capturing a good image.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In the following description, reference numerals corresponding to the drawings showing the embodiment of the present invention are given and described. However, the reference numerals are only for facilitating the understanding of the invention and are not intended to limit the invention. .

[1]本発明に係る撮像装置は、複数の画素が水平方向および垂直方向に二次元状に配列されており、垂直方向における画素の位置に応じて、各画素における電荷の蓄積開始時刻が異なるローリングシャッター方式の撮像素子(22)と、前記撮像素子からの出力に基づいて、撮像画面内の焦点検出エリアにおける、焦点調節用レンズ(32)を含む撮影レンズの焦点状態を検出する焦点検出部(21)と、前記焦点調節用レンズの位置を検出するレンズ位置検出部(35)と、所定時刻における被写体の光軸方向の位置を予測する被写体位置予測部(21)と、前記焦点検出エリアに対応する画素の前記撮像素子内における垂直方向の位置を検出し、前記焦点検出エリアに対応する画素の前記蓄積開始時刻を演算する蓄積開始時刻演算部(21)と、前記被写体位置予測部による予測結果に基づいて、前記焦点検出エリアに対応する画素の前記蓄積開始時刻における被写体の光軸方向の位置を、被写体予測位置として演算する被写体位置演算部(21)と、前記被写体位置演算部により算出された前記被写体予測位置に基づいて、前記焦点調節用レンズを駆動させる駆動部(36)と、を備えることを特徴とする。   [1] In the imaging apparatus according to the present invention, a plurality of pixels are arranged two-dimensionally in the horizontal direction and the vertical direction, and the charge accumulation start time in each pixel varies depending on the position of the pixel in the vertical direction. A rolling shutter type image pickup device (22) and a focus detection unit that detects the focus state of the photographing lens including the focus adjustment lens (32) in the focus detection area in the image pickup screen based on the output from the image pickup device. (21), a lens position detection unit (35) for detecting the position of the focus adjustment lens, a subject position prediction unit (21) for predicting the position of the subject in the optical axis direction at a predetermined time, and the focus detection area An accumulation start time calculation unit (detecting the vertical position of the pixel corresponding to the image sensor in the image sensor and calculating the accumulation start time of the pixel corresponding to the focus detection area) 1) and a subject position calculation unit that calculates a position in the optical axis direction of the subject at the accumulation start time of the pixel corresponding to the focus detection area as a subject predicted position based on a prediction result by the subject position prediction unit. 21) and a drive unit (36) for driving the focus adjustment lens based on the predicted subject position calculated by the subject position calculation unit.

[2]上記撮像装置に係る発明において、前記撮像素子(22)は、二次元状に配列された複数の撮像用画素(221)と、前記撮像用画素に混在して一次元状または二次元状に配列された複数の焦点検出用画素(222a,222b)とを有し、前記焦点検出部(21)は、前記焦点検出用画素の出力に基づいて、前記光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する位相差検出方式の焦点検出、および、前記撮像用画素の出力に基づいて、前記光学系による像のコントラストに関する評価値を算出し、算出した評価値に基づいて、前記光学系の焦点状態を検出するコントラスト検出方式の焦点検出のうち、少なくともいずれか一方の方式で焦点検出を行うことが可能であるように構成することができる。   [2] In the invention related to the imaging apparatus, the imaging element (22) includes a plurality of imaging pixels (221) arranged in a two-dimensional manner and a one-dimensional or two-dimensional configuration mixed in the imaging pixels. A plurality of focus detection pixels (222a, 222b) arranged in a shape, and the focus detection unit (21) is based on the output of the focus detection pixels and the amount of deviation of the image plane by the optical system Is used to calculate an evaluation value related to the contrast of the image by the optical system based on the focus detection of the phase difference detection method for detecting the focus state of the optical system and the output of the imaging pixel. Based on the evaluated value, focus detection can be performed by at least one of the contrast detection focus detections for detecting the focus state of the optical system.

[3]上記撮像装置に係る発明において、被写体が光軸方向において静止しているか否かを判定する判定部(21)をさらに備え、前記駆動部(36)は、前記判定部による判定の結果、被写体が光軸方向において静止していると判定された場合には、前記被写体予測位置に基づいた前記焦点調節用レンズの駆動処理を行わないように構成することができる。   [3] In the invention related to the imaging apparatus, the image pickup apparatus further includes a determination unit (21) that determines whether or not the subject is stationary in the optical axis direction, and the drive unit (36) is a result of the determination by the determination unit. When it is determined that the subject is stationary in the optical axis direction, the focus adjustment lens driving process based on the predicted subject position may not be performed.

[4]上記撮像装置に係る発明において、前記被写体位置予測部(21)による予測結果に基づいて、被写体の光軸方向の移動速度を演算する移動速度演算部(21)をさらに備え、前記駆動部は、前記焦点検出エリアに対応する画素の前記蓄積開始時刻後、前記焦点検出エリアに対応する画素において電荷の蓄積が行われている間、前記焦点調節用レンズ(32)を、前記被写体の光軸方向の移動速度に応じて、等速で駆動させるように構成することができる。   [4] The invention according to the imaging apparatus further includes a movement speed calculation unit (21) that calculates a movement speed of the subject in the optical axis direction based on a prediction result by the subject position prediction unit (21), and the drive The unit moves the focus adjustment lens (32) while the charge is being accumulated in the pixel corresponding to the focus detection area after the accumulation start time of the pixel corresponding to the focus detection area. It can be configured to be driven at a constant speed according to the moving speed in the optical axis direction.

[5]上記撮像装置に係る発明において、前記被写体位置演算部(21)は、前記被写体位置予測部(21)による予測結果に加え、前記画素の露光時間に基づいて、前記焦点検出エリアに対応する画素において電荷の蓄積が行われている間の所定時刻における、前記被写体の光軸方向の位置を、前記被写体予測位置として演算するように構成することができる。   [5] In the invention related to the imaging apparatus, the subject position calculation unit (21) corresponds to the focus detection area based on an exposure time of the pixel in addition to a prediction result by the subject position prediction unit (21). The position of the subject in the optical axis direction at a predetermined time while charge is being accumulated in the pixel to be calculated can be calculated as the subject predicted position.

本発明によれば、良好な画像を撮影することができる。   According to the present invention, a good image can be taken.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面における焦点検出エリアを示す正面図である。FIG. 2 is a front view showing a focus detection area on the imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is an enlarged front view showing one of the imaging pixels 221. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is an enlarged cross-sectional view showing one of the imaging pixels 221. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged cross-sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged cross-sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、本実施形態に係るカメラの動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the camera according to the present embodiment. 図10は、蓄積開始時刻Tsにおける被写体の像面位置を予測する方法を説明するための図である。FIG. 10 is a diagram for explaining a method of predicting the image plane position of the subject at the accumulation start time Ts. 図11は、本実施形態に係るカメラの動作を説明するための図である。FIG. 11 is a diagram for explaining the operation of the camera according to the present embodiment.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

≪第1実施形態≫
図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。
<< First Embodiment >>
FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, by rotating the rotating cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves straight along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by rotating the rotary cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the focus lens drive motor 36 as the drive source is the lens. The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by a transmission composed of a plurality of gears, for example, and when the drive shaft of the focus lens drive motor 36 is driven to rotate in any one direction, it is transmitted to the rotary cylinder at a predetermined gear ratio. Then, when the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves linearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is rotated in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the optical axis L1 direction correlates with the rotation angle of the rotating cylinder, and can be obtained by detecting the relative rotation angle of the rotating cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus calculated based on this information. The driving position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by a manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。本実施形態に係る撮像素子22は、その撮像面に複数の画素が水平方向および垂直方向に二次元状に配列されており、水平方向に配列された画素列(走査ライン)ごとに、順次シャッターを切るローリングシャッター方式により駆動する。このような撮像素子22としては、たとえば、CMOSイメージセンサを用いることができる。また、撮像素子22は、被写体からの光束を受光し、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。このようなメモリとしては着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。なお、撮像素子22の撮像面の前方には、赤外光をカットするための赤外線カットフィルタ、および画像の折り返しノイズを防止するための光学的ローパスフィルタが配置されている。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The imaging device 22 according to the present embodiment has a plurality of pixels arranged in a two-dimensional manner in the horizontal direction and the vertical direction on the imaging surface, and sequentially shutters each pixel row (scanning line) arranged in the horizontal direction. It is driven by a rolling shutter system that cuts off. As such an image sensor 22, for example, a CMOS image sensor can be used. The image sensor 22 receives a light beam from the subject, converts the received optical signal into an electrical signal, and sends the electrical signal to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. As such a memory, either a removable card type memory or a built-in type memory can be used. An infrared cut filter for cutting infrared light and an optical low-pass filter for preventing image aliasing noise are disposed in front of the imaging surface of the image sensor 22. Details of the structure of the image sensor 22 will be described later.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25や記録媒体であるメモリ(不図示)に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Are output to the liquid crystal driving circuit 25 of the electronic viewfinder 26 and a memory (not shown) as a recording medium. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による光学系の焦点状態の検出を行う。なお、焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographing optical system by the phase detection method and the focus state of the optical system by the contrast detection method based on the pixel data read from the image sensor 22. Do. A method for detecting the focus state will be described later.

操作部28は、シャッターレリーズボタン、および撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button and an input switch for the photographer to set various operation modes of the camera 1, and can switch between an autofocus mode and a manual focus mode. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。なお、実際の撮像素子22には、オプティカルブラック画素領域が存在するが、説明を簡略化するため、図2については記載を省略する。   FIG. 2 is a front view showing the imaging surface of the image sensor 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG. In addition, although the optical black pixel area | region exists in the actual image pick-up element 22, in order to simplify description, description is abbreviate | omitted about FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に、水平方向および垂直方向に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, in the imaging element 22 of the present embodiment, a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface in the horizontal direction and the vertical direction, and transmit the green wavelength region. A green pixel G having a color filter, a red pixel R having a color filter that transmits a red wavelength region, and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. It is. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as shown in the cross-sectional view of FIG. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system by the micro lens 2211, and receives the imaging light beam.

また、撮像素子22の撮像面には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a〜22eが設けられている。図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、水平方向に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, on the imaging surface of the imaging element 22, focus detection pixel rows 22 a to 22 e in which focus detection pixels 222 a and 222 b are arranged instead of the above-described imaging pixel 221 are provided. As shown in FIG. 3, one focus detection pixel column is configured by a plurality of focus detection pixels 222a and 222b being alternately arranged adjacent to each other in the horizontal direction. In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.

なお、図2に示す焦点検出画素列22a〜22eの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所、三箇所、あるいは四箇所とすることもでき、また、六箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、撮影者が操作部28を手動操作することにより、複数配置された各焦点検出画素列22a〜22e、または各焦点検出画素列22a〜22eの一部に対応する焦点検出エリアの中から、所望の焦点検出エリアを選択することもできる。   Note that the positions of the focus detection pixel rows 22a to 22e shown in FIG. 2 are not limited to the illustrated positions, and may be any one, two, three, or four locations, and more than six locations. It can also be arranged at the position. In actual focus detection, the photographer manually operates the operation unit 28 to correspond to a plurality of the focus detection pixel rows 22a to 22e or a part of the focus detection pixel rows 22a to 22e. A desired focus detection area can also be selected from the focus detection areas.

図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、水平方向に配列されることにより、図2に示す焦点検出画素列22a〜22eを構成する。なお、図3においては、16個の焦点検出画素222a,222bにより、焦点検出画素列を構成する例を示しているが、焦点検出画素列を構成する焦点検出画素の数は特に限定されない。   FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 5A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 5B, and a semiconductor of the image sensor 22 as shown in a cross-sectional view of FIG. 7B. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. As shown in FIG. 3, these focus detection pixels 222a and 222b are alternately arranged adjacent to each other in the horizontal direction to constitute focus detection pixel rows 22a to 22e shown in FIG. FIG. 3 shows an example in which the focus detection pixel array is configured by 16 focus detection pixels 222a and 222b, but the number of focus detection pixels configuring the focus detection pixel array is not particularly limited.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive light beams that pass through a predetermined region (for example, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.

また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 5A and 5B have a semicircular shape, the shapes of the photoelectric conversion units 2222a and 2222b are not limited thereto. Other shapes such as an elliptical shape, a rectangular shape, and a polygonal shape can also be used.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 and adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. 8 illustrates only the focus detection pixels 222a and 222b that are located in the vicinity of the photographing optical axis L1, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 8 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.

ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341, 342.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   As shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2. Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.

すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. The signal corresponding to is output.

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   Further, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a straight line as shown in FIG. 3, and the outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b are converted into the distance measurement pupil 341, respectively. Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出エリアにおける焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a focal plane corresponding to the current focal plane (the position corresponding to the position of the microlens array on the planned focal plane). The deviation of the focal plane in the detection area), that is, the defocus amount can be obtained.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based thereon are executed by the camera control unit 21.

また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算して焦点電圧を検出することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算して焦点電圧を検出することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained, for example, by extracting a high-frequency component of an image output from the imaging pixel 221 of the image sensor 22 using a high-frequency transmission filter and integrating the extracted high-frequency components to detect a focus voltage. It can also be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating them to detect the focus voltage.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed in which the position of the focus lens 32 is determined as the in-focus position. Note that this in-focus position is obtained when, for example, when the focus evaluation value is calculated while driving the focus lens 32, the focus evaluation value rises twice and then moves down twice. Can be obtained by performing an operation such as interpolation using the focus evaluation value.

次いで、本実施形態に係るカメラ1の動作例を説明する。図9は、第1実施形態に係るカメラ1の動作例を示すフローチャートである。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 9 is a flowchart illustrating an operation example of the camera 1 according to the first embodiment.

ステップS101では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれる。シャッターレリーズボタンが半押しされた場合は、テップS102に進み、一方、シャッターレリーズボタンが半押しされていない場合は、ステップS101で待機する。   In step S101, the camera control unit 21 determines whether or not the shutter release button provided in the operation unit 28 is half-pressed (the first switch SW1 is turned on). If the shutter release button is half-pressed, the process proceeds to step S102. On the other hand, if the shutter release button is not half-pressed, the process waits in step S101.

ステップS102では、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出処理が行われる。具体的には、まず、撮像素子22により、光学系からの光束の受光が行われ、カメラ制御部21により、撮像素子22の5つの焦点検出画素列22a〜22eを構成する各焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しが行われる。この場合、撮影者の手動操作により、特定の焦点検出エリアが選択されているときは、その焦点検出エリアに対応する焦点検出画素からのデータのみを読み出すような構成としてもよい。そして、カメラ制御部21は、読み出された一対の像データに基づいて像ズレ検出演算処理(相関演算処理)を実行し、5つの焦点検出画素列22a〜22eに対応する焦点検出エリアにおける像ズレ量を演算し、さらに像ズレ量をデフォーカス量に変換する。   In step S102, the camera control unit 21 performs a defocus amount calculation process using a phase difference detection method. Specifically, first, the image sensor 22 receives light from the optical system, and the camera control unit 21 configures the focus detection pixels 222a constituting the five focus detection pixel rows 22a to 22e of the image sensor 22. , 222b, a pair of image data corresponding to the pair of images is read out. In this case, when a specific focus detection area is selected by a photographer's manual operation, only data from focus detection pixels corresponding to the focus detection area may be read. Then, the camera control unit 21 performs image shift detection calculation processing (correlation calculation processing) based on the read pair of image data, and images in the focus detection areas corresponding to the five focus detection pixel rows 22a to 22e. The shift amount is calculated, and the image shift amount is converted into a defocus amount.

続くステップS103では、カメラ制御部21により、ステップS102で算出されたデフォーカス量と、エンコーダ35により検出されたフォーカスレンズ32の現在位置とに基づいて、デフォーカス量に応じてフォーカスレンズ32を駆動した場合の駆動後のフォーカスレンズ32のレンズ位置における像面位置が、被写体の像面位置として検出される。そして、カメラ制御部21は、検出した被写体の像面位置を、該被写体の像面位置を検出した時刻に関連付けて、カメラ制御部21のメモリに記憶する。ここで、図10は、被写体の像面位置の履歴の一例を示す図であり、被写体が無限遠側から至近側に移動している場面における、被写体の像面位置の履歴を例示している。図10に示す例では、時刻T1において、被写体の像面位置PT1が検出され、その後、時刻T2において、被写体の像面位置PT2が、時刻T1における被写体の像面位置PT1よりも至近側で検出される。同様に、時刻T3,T4において、被写体の像面位置PT3,PT4がそれぞれ検出される。そして、カメラ制御部21は、検出されたそれぞれの像面位置を、該像面位置を検出した時刻に関連付けて、カメラ制御部21のメモリに記憶することで、図10に示すように、時系列に沿った被写体の像面位置の履歴が、カメラ制御部21のメモリに記憶されることとなる。 In subsequent step S103, the camera control unit 21 drives the focus lens 32 according to the defocus amount based on the defocus amount calculated in step S102 and the current position of the focus lens 32 detected by the encoder 35. In this case, the image plane position at the lens position of the focus lens 32 after driving is detected as the image plane position of the subject. Then, the camera control unit 21 stores the detected image plane position of the subject in the memory of the camera control unit 21 in association with the time when the image plane position of the subject is detected. Here, FIG. 10 is a diagram illustrating an example of the history of the image plane position of the subject, and illustrates the history of the image plane position of the subject in a scene where the subject is moving from the infinity side to the close side. . In the example shown in FIG. 10, at time T1, is detected image plane position P T1 of the subject, then, at time T2, the image plane position P T2 of the object, near than the image plane position P T1 of the subject at time T1 Detected on the side. Similarly, the image plane positions P T3 and P T4 of the subject are detected at times T3 and T4, respectively. Then, the camera control unit 21 associates each detected image plane position with the time when the image plane position is detected and stores it in the memory of the camera control unit 21, as shown in FIG. The history of the image plane position of the subject along the series is stored in the memory of the camera control unit 21.

ステップS104では、カメラ制御部21により、ステップS102で算出されたデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動するためのレンズ駆動量の算出が行われ、算出されたレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出される。これにより、フォーカスレンズ駆動モータ36により、算出されたレンズ駆動量に基づいて、フォーカスレンズ32が駆動される。   In step S104, the camera control unit 21 calculates a lens driving amount for driving the focus lens 32 to the in-focus position based on the defocus amount calculated in step S102, and the calculated lens driving amount. Is sent to the focus lens drive motor 36 via the lens control unit 37. Thus, the focus lens driving motor 36 drives the focus lens 32 based on the calculated lens driving amount.

そして、ステップS105では、カメラ制御部21により、シャッターレリーズボタンの全押し(第2スイッチSW2のオン)がされたか否か判断される。第2スイッチSW2がオンの場合には、ステップS106に進み、一方、第2スイッチSW2がオンではない場合には、ステップS101に戻る。   In step S105, the camera control unit 21 determines whether or not the shutter release button is fully pressed (the second switch SW2 is turned on). When the second switch SW2 is on, the process proceeds to step S106, and when the second switch SW2 is not on, the process returns to step S101.

ステップS106では、カメラ制御部21により、ステップS103で得られた被写体の像面位置の履歴に基づいて、被写体が光軸方向に移動しているか否かの判断が行われる。被写体が光軸方向に移動していると判断された場合は、ステップS107に進み、一方、被写体が光軸方向に移動しておらず、被写体が静止していると判断された場合は、ステップS111に進む。なお、本実施形態において、カメラ制御部21は、たとえば、図10に示すように、被写体の像面位置が一定の光軸方向(図10に示す例では至近側)に移動している場合には、被写体が光軸方向に移動しているものと判断することができ、被写体の像面位置が移動していない場合や、被写体の像面位置が光軸方向に沿って前後に移動しているが、被写体の像面位置が一定の光軸方向に移動していない場合には、被写体は静止していると判断することができる。   In step S106, the camera control unit 21 determines whether the subject is moving in the optical axis direction based on the history of the image plane position of the subject obtained in step S103. If it is determined that the subject is moving in the optical axis direction, the process proceeds to step S107. On the other hand, if it is determined that the subject is not moving in the optical axis direction and the subject is stationary, step S107 is performed. Proceed to S111. In the present embodiment, for example, as illustrated in FIG. 10, the camera control unit 21 is configured when the image plane position of the subject is moving in a certain optical axis direction (the closest side in the example illustrated in FIG. 10). It can be determined that the subject is moving in the optical axis direction, and when the subject's image plane position has not moved, or the subject's image plane position has moved back and forth along the optical axis direction. However, when the image plane position of the subject has not moved in a certain optical axis direction, it can be determined that the subject is stationary.

ステップS107では、カメラ制御部21により、焦点検出エリアに対応する画素において、電荷の蓄積が開始される蓄積開始時刻Tsの算出が行われる。以下においては、図11を用いて、焦点検出エリアに対応する画素の蓄積開始時刻Tsの算出方法について説明する。   In step S107, the camera control unit 21 calculates the accumulation start time Ts at which charge accumulation is started in the pixels corresponding to the focus detection area. In the following, a method for calculating the accumulation start time Ts of the pixel corresponding to the focus detection area will be described with reference to FIG.

図11は、カメラ1の動作を説明するための図であり、図11(A)に示す撮像素子22における、各画素における電荷の蓄積開始時刻のずれを、図11(B)に示している。なお、図11(A)に示す撮像素子22は、光学系の焦点状態を検出し、画像を撮像するための画素からなる有効画素領域と、有効画素領域の画素の出力から暗電流ノイズを除去するための画素からなるオプティカルブラック画素領域とを有している。図11に示す例では、時刻tS2において、シャッターレリーズボタンが全押しされ、時刻Tpにおいて、カメラ制御部21により垂直同期信号が発せられる。これにより、時刻Tpから、撮像素子22の露光が開始され、撮像素子22の上部に位置する画素から、撮像素子22の下部に位置する画素に向かって、順に、電荷の蓄積が開始される。具体的には、時刻Tpにおいて、撮像素子22の画素のうち垂直方向の最も上部に位置するオプティカルブラック画素領域の画素において、電荷の蓄積が開始され、その後、時刻Taにおいて、有効画素領域の画素のうち垂直方向の最も上部に位置する画素において、電荷の蓄積が開始される。そして、有効画素領域の画素において、順次、電荷の蓄積が開始されるとともに、電荷の蓄積の開始から一定の露光時間texpが経過した画素は、電荷の蓄積を終了する。時刻Tbになると、有効画素領域の画素のうち垂直方向の最も下部に位置する画素において、電荷の蓄積が終了し、さらに、時刻Tcになると、撮像素子22の画素のうち垂直方向の最も下部に位置するオプティカルブラック画素領域の画素においても、電荷の蓄積が終了し、これにより、撮像素子22による露光が終了する。   FIG. 11 is a diagram for explaining the operation of the camera 1. FIG. 11B shows a shift in charge accumulation start time in each pixel in the image sensor 22 shown in FIG. . Note that the imaging element 22 illustrated in FIG. 11A detects the focus state of the optical system, and removes dark current noise from the effective pixel region including pixels for capturing an image and the output of the pixels in the effective pixel region. And an optical black pixel region composed of pixels for the purpose. In the example shown in FIG. 11, the shutter release button is fully pressed at time tS2, and a vertical synchronization signal is issued by the camera control unit 21 at time Tp. Thereby, exposure of the image sensor 22 is started from time Tp, and charge accumulation is started in order from the pixel located above the image sensor 22 toward the pixel located below the image sensor 22. Specifically, at time Tp, charge accumulation is started in the pixel of the optical black pixel region located at the top in the vertical direction among the pixels of the image sensor 22, and then, at time Ta, the pixel of the effective pixel region Charge accumulation is started in the pixel located at the top in the vertical direction. Then, in the pixels in the effective pixel region, charge accumulation is sequentially started, and the accumulation of the charge is completed for pixels for which a certain exposure time temp has elapsed from the start of charge accumulation. At time Tb, the charge accumulation is completed in the pixel located in the lowest vertical direction among the pixels in the effective pixel region, and further, at time Tc, the pixel in the image sensor 22 is located at the lowest in the vertical direction. Also in the pixels of the optical black pixel region that is positioned, the accumulation of electric charge is completed, and thus the exposure by the image sensor 22 is completed.

焦点検出エリアに対応する画素の蓄積開始時刻Tsは、このように、撮像素子22の垂直方向の画素の位置に応じて異なる、各画素における電荷の蓄積開始時刻のうち、焦点検出エリアに対応する画素における電荷の蓄積開始時刻であり、本実施形態においては、図11に示すように、焦点検出エリアに対応する画素のうち、垂直方向の中央に位置する画素が、電荷の蓄積を開始する時刻とする。   The accumulation start time Ts of the pixel corresponding to the focus detection area thus differs depending on the position of the pixel in the vertical direction of the image sensor 22 and corresponds to the focus detection area among the charge accumulation start times of each pixel. This is the charge accumulation start time in the pixel. In the present embodiment, as shown in FIG. 11, the time at which the pixel located in the center in the vertical direction among the pixels corresponding to the focus detection area starts charge accumulation. And

蓄積開始時刻Tsの算出方法は、特に限定されないが、本実施形態においては、下記式(1)に基づいて、蓄積開始時刻Tsを算出することができる。
Ts=Tp+tscan×(AFpos/Vsize) ・・・(1)
ここで、図11(B)に示すように、tscanは、垂直同期信号が発せられ、撮像素子22の画素のうち垂直方向の最も上部に位置する画素において、電荷の蓄積が開始される時刻Tpから、撮像素子22の画素のうち垂直方向の最も下部に位置する画素において、電荷の蓄積が開始される時刻までの時間である。また、Vsizeは、撮像素子22の垂直方向における画素数であり、AFposは、撮像素子22の画素のうち垂直方向において最も上部に位置する画素から、焦点検出エリアに対応する画素のうち垂直方向の中央に位置する画素までの画素数である。
The calculation method of the accumulation start time Ts is not particularly limited, but in the present embodiment, the accumulation start time Ts can be calculated based on the following formula (1).
Ts = Tp + tscan × (AFpos / Vsize) (1)
Here, as shown in FIG. 11B, tscan is a time Tp at which the vertical synchronization signal is generated, and charge accumulation is started in the pixel located at the top in the vertical direction among the pixels of the image sensor 22. To the time when charge accumulation is started in the pixel located at the lowest in the vertical direction among the pixels of the image sensor 22. Also, Vsize is the number of pixels in the vertical direction of the image sensor 22, and AFpos is the pixel in the vertical direction among the pixels corresponding to the focus detection area from the pixel located at the top in the vertical direction among the pixels of the image sensor 22. This is the number of pixels up to the pixel located at the center.

そして、ステップS108では、カメラ制御部21により、図11に示すように、シャッターレリーズボタンが全押しされた時刻tS2から、ステップS107で算出された蓄積開始時刻Tsまでの時間が、焦点検出エリアに対応する画素の蓄積遅れ時間TRとして算出される。   In step S108, as shown in FIG. 11, the time from the time tS2 when the shutter release button is fully pressed to the accumulation start time Ts calculated in step S107 is displayed in the focus detection area by the camera control unit 21. Calculated as the accumulation delay time TR of the corresponding pixel.

ステップS109では、カメラ制御部21により、蓄積開始時刻Tsにおける被写体の像面位置の予測が行われる。具体的には、カメラ制御部21は、ステップS103で取得した被写体の像面位置の履歴に基づいて、被写体の像面移動速度を算出し、算出した被写体の像面移動速度と、ステップS108で算出した蓄積遅れ時間TRとに基づいて、蓄積遅れ時間TRにおいて被写体が移動する像面移動量を算出する。そして、カメラ制御部21は、算出した被写体の像面移動量に基づいて、蓄積開始時刻Tsにおける被写体の像面位置を予測することができる。たとえば、図10に示す例において、カメラ制御部21は、算出した蓄積遅れ時間TRにおける被写体の像面移動量と、ステップS103で検出した最新の像面位置Pとに基づいて、蓄積開始時刻Tsにおける被写体の像面位置PTsを予測することができる。 In step S109, the camera control unit 21 predicts the image plane position of the subject at the accumulation start time Ts. Specifically, the camera control unit 21 calculates the image plane movement speed of the subject based on the history of the image plane position of the subject acquired in step S103, and calculates the image plane movement speed of the subject in step S108. Based on the calculated accumulation delay time TR, an image plane movement amount by which the subject moves during the accumulation delay time TR is calculated. The camera control unit 21 can predict the image plane position of the subject at the accumulation start time Ts based on the calculated image plane movement amount of the subject. For example, in the example shown in FIG. 10, the camera control unit 21, and the image plane moving amount of the subject in the storage delay time TR calculated, based on the latest position of the image plane P 4 detected in step S103, accumulation start time The image plane position PTs of the subject at Ts can be predicted.

ステップS110では、カメラ制御部21により、ステップS109で予測された蓄積開始時刻Tsにおける被写体の像面位置に対応するレンズ位置まで、フォーカスレンズ32を駆動するためのレンズ駆動量の算出が行われ、算出されたレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出される。これにより、フォーカスレンズ駆動モータ36により、算出されたレンズ駆動量に基づいて、蓄積開始時刻Tsにおける被写体の像面位置に対応するレンズ位置まで、フォーカスレンズ32が駆動されることとなる。   In step S110, the camera control unit 21 calculates a lens driving amount for driving the focus lens 32 to a lens position corresponding to the image plane position of the subject at the accumulation start time Ts predicted in step S109. The calculated lens driving amount is sent to the focus lens driving motor 36 via the lens control unit 37. Thus, the focus lens 32 is driven by the focus lens drive motor 36 to the lens position corresponding to the image plane position of the subject at the accumulation start time Ts based on the calculated lens drive amount.

そして、ステップS111では、撮像素子22により露光が開始され、画像の撮像が行われる。本実施形態では、図11に示すように、焦点検出エリアに対応する画素の露光が、蓄積開始時時刻Tsから開始され、蓄積開始時時刻Tsから所定の露光時間texpの間、電荷の蓄積が行われる。そして、カメラ制御部21により、蓄積された電荷に応じた画像データが、撮像素子22から読み出され、読み出された画像の画像データが、メモリ24に記憶される。   In step S111, exposure is started by the image sensor 22, and an image is captured. In this embodiment, as shown in FIG. 11, the exposure of the pixel corresponding to the focus detection area is started from the accumulation start time Ts, and the charge is accumulated for a predetermined exposure time temp from the accumulation start time Ts. Done. Then, the camera control unit 21 reads out image data corresponding to the accumulated charge from the image sensor 22, and the image data of the read image is stored in the memory 24.

以上のように、本実施形態では、焦点検出エリアに対応する画素の蓄積開始時刻Tsにおける被写体の像面位置を予測し、予測した被写体の像面位置に応じたレンズ位置まで、フォーカスレンズ32を駆動させて、画像の撮像を行う。これにより、本実施形態では、シャッターレリーズボタンが全押しされてから、焦点検出エリアに対応する画素の蓄積開始時刻Tsまでの蓄積遅れ時間TRの間に、被写体が光軸方向に移動し、被写体の像面位置が変化してしまった場合でも、被写体にピントの合った画像を撮像することができる。   As described above, in the present embodiment, the image plane position of the subject at the accumulation start time Ts of the pixel corresponding to the focus detection area is predicted, and the focus lens 32 is moved to the lens position corresponding to the predicted image plane position of the subject. The image is taken by driving. Thereby, in the present embodiment, the subject moves in the optical axis direction during the accumulation delay time TR from when the shutter release button is fully pressed until the accumulation start time Ts of the pixel corresponding to the focus detection area. Even when the image plane position changes, an image in focus on the subject can be captured.

≪第2実施形態≫
次いで、本発明の第2実施形態を説明する。本発明の第2実施形態は、図1に示す第1実施形態のカメラ1において、焦点検出エリアに対応する画素の蓄積開始時刻Tsにおける被写体の像面位置を予測し、予測した被写体の像面位置に対応するレンズ位置まで、フォーカスレンズ32を駆動させた後に、蓄積開始時刻Tsから、焦点検出エリアに対応する画素において電荷の蓄積が行われている間に、被写体の像面移動速度に応じて、フォーカスレンズ32を等速で駆動させる構成となっていること以外は、第1実施形態と同様の構成となっている。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described. The second embodiment of the present invention predicts the subject image plane position at the accumulation start time Ts of the pixel corresponding to the focus detection area in the camera 1 of the first embodiment shown in FIG. After the focus lens 32 is driven to the lens position corresponding to the position, the charge is accumulated in the pixel corresponding to the focus detection area from the accumulation start time Ts according to the image plane moving speed of the subject. The configuration is the same as that of the first embodiment except that the focus lens 32 is driven at a constant speed.

すなわち、第2実施形態では、第1実施形態と同様に、焦点検出エリアに対応する画素の蓄積開始時刻Tsにおける被写体の像面位置を予測し(ステップS109)、予測した被写体の像面位置に対応するレンズ位置に、フォーカスレンズ32を駆動する(ステップS110)。そして、カメラ制御部21は、焦点検出エリアに対応する画素の蓄積開始時刻Tsから、焦点検出エリアに対応する画素において電荷の蓄積が行われている間に、被写体の像面移動速度に応じて、フォーカスレンズ32を等速で駆動させながら、画像の撮像を行う(ステップS111)。たとえば、図11に示す例において、カメラ制御部21は、蓄積開始時刻Tsにおける被写体の像面位置に応じたレンズ位置に、フォーカスレンズ32を駆動させた後に、フォーカスレンズ32を、焦点検出エリアに対応する画素の蓄積開始時刻Tsから、焦点検出エリアに対応する画素の蓄積終了時刻Tgまでの間において、被写体の像面移動速度で駆動させながら、画像の撮像を行う。   That is, in the second embodiment, as in the first embodiment, the image plane position of the subject at the accumulation start time Ts of the pixel corresponding to the focus detection area is predicted (step S109), and the predicted image plane position of the subject is set. The focus lens 32 is driven to the corresponding lens position (step S110). Then, the camera control unit 21 responds to the moving speed of the image plane of the subject from the accumulation start time Ts of the pixel corresponding to the focus detection area while charge is being accumulated in the pixel corresponding to the focus detection area. Then, an image is taken while driving the focus lens 32 at a constant speed (step S111). For example, in the example shown in FIG. 11, the camera control unit 21 drives the focus lens 32 to the lens position corresponding to the image plane position of the subject at the accumulation start time Ts, and then moves the focus lens 32 to the focus detection area. From the corresponding pixel accumulation start time Ts to the pixel accumulation end time Tg corresponding to the focus detection area, an image is captured while being driven at the image plane moving speed of the subject.

このように、第2実施形態では、焦点検出エリアに対応する画素において電荷の蓄積が行われている間、被写体の像面移動速度に応じて、フォーカスレンズ32を等速で駆動させながら、画像の撮像を行う。これにより、第2実施形態では、第1実施形態の効果に加えて、焦点検出エリアに対応する画素において電荷の蓄積が行われている間における、被写体の像面位置の変化に追従して、画像を撮像することができるため、被写体にピントの合った画像をより適切に撮像することができる。   As described above, in the second embodiment, while charge is accumulated in the pixel corresponding to the focus detection area, the image is generated while driving the focus lens 32 at a constant speed according to the image plane moving speed of the subject. Image. Thereby, in the second embodiment, in addition to the effects of the first embodiment, following the change in the image plane position of the subject while charge is being accumulated in the pixel corresponding to the focus detection area, Since an image can be captured, an image in focus on the subject can be captured more appropriately.

≪第3実施形態≫
次いで、本発明の第3実施形態を説明する。本発明の第3実施形態は、図1に示す第1実施形態のカメラ1において、焦点検出エリアに対応する画素の露光時間内の所定時刻における被写体の像面位置を予測し、予測した被写体の像面位置に対応するレンズ位置まで、フォーカスレンズ32を駆動させる構成となっていること以外は、第1実施形態と同様の構成となっている。
«Third embodiment»
Next, a third embodiment of the present invention will be described. The third embodiment of the present invention predicts the subject image plane position at a predetermined time within the exposure time of the pixel corresponding to the focus detection area in the camera 1 of the first embodiment shown in FIG. The configuration is the same as that of the first embodiment except that the focus lens 32 is driven to the lens position corresponding to the image plane position.

すなわち、第3実施形態では、カメラ制御部21により、焦点検出エリアに対応する画素の蓄積開始時刻Tsと、画素の露光時間texpとに基づいて、焦点検出エリアに対応する画素の露光時間texp内の所定時刻が算出され、算出された時刻における被写体の像面位置が予測される(ステップS109)。たとえば、図11に示す例において、カメラ制御部21は、焦点検出エリアに対応する画素の蓄積開始時刻Tsから、焦点検出エリアに対応する画素の露光時間texpのうちの半分の時間が経過した時刻Teを算出する。そして、カメラ制御部21は、図10に示すように、被写体の像面位置の履歴に基づいて、算出した露光時間内の時刻Teにおける被写体の像面位置PTeを予測する。そして、予測された被写体の像面位置PTeに対応するレンズ位置に、フォーカスレンズ32が駆動され(ステップS110)、予測された被写体の像面位置PTeに対応するレンズ位置で、画像の撮像が行われる(ステップS111)。 That is, in the third embodiment, the camera control unit 21 uses the pixel accumulation start time Ts corresponding to the focus detection area and the pixel exposure time temp within the pixel exposure time temp corresponding to the focus detection area. The predetermined time is calculated, and the image plane position of the subject at the calculated time is predicted (step S109). For example, in the example illustrated in FIG. 11, the camera control unit 21 determines the time when half of the exposure time temp of the pixel corresponding to the focus detection area has elapsed from the accumulation start time Ts of the pixel corresponding to the focus detection area. Te is calculated. Then, the camera control unit 21, as shown in FIG. 10, based on the history of the image plane position of the subject, to predict the image plane position P Te of the object at time Te of the calculated the exposure time. Then, the lens position corresponding to the image plane position P Te of the predicted subject, the focus lens 32 is driven (step S110), the lens position corresponding to the image plane position P Te of the predicted subject captured image Is performed (step S111).

このように、第3実施形態では、焦点検出エリアに対応する画素の露光時間内の所定時刻における被写体の像面位置を予測し、予測した被写体の像面位置に対応するレンズ位置に、フォーカスレンズ32を駆動させて、画像の撮像を行う。これにより、第3実施形態では、たとえば、焦点検出エリアに対応する画素の露光時間texp内に、被写体の像面位置が、図10に示す像面位置PTgまで移動した場合であっても、フォーカスレンズ32を、焦点検出エリアに対応する画素の露光時間texp内の時刻Teにおける被写体の像面位置PTeまで駆動させることで、被写体の像面位置PTgと、フォーカスレンズのレンズ位置に対応する像面位置PTeとの距離(PTg−PTe)を、第1実施形態よりも小さくすることができるため、被写体にピントの合った画像をより適切に撮影することができる。 Thus, in the third embodiment, the image plane position of the subject at a predetermined time within the exposure time of the pixel corresponding to the focus detection area is predicted, and the focus lens is placed at the lens position corresponding to the predicted image plane position of the subject. 32 is driven to capture an image. Thus, in the third embodiment, for example, in the exposure time of the pixel corresponding to the focus detection area texp, image plane position of the object, even when moved to the image plane position P Tg shown in FIG. 10, the focus lens 32, by driving the image plane position P Te of the object at time Te within the exposure time of the pixels corresponding to the focus detection area texp, corresponding with the image plane position P Tg of the object, the lens position of the focus lens Since the distance (P Tg −P Te ) with respect to the image plane position P Te to be made can be made smaller than in the first embodiment, an image focused on the subject can be taken more appropriately.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

たとえば、上述した実施形態では、焦点検出エリアに対応する画素の蓄積開始時刻Tsにおける被写体の像面位置を予測し、予測した被写体の像面位置に基づいて、フォーカスレンズ32を駆動する構成を例示したが、この構成に限定されるものではなく、たとえば、焦点検出エリアに対応する画素の蓄積開始時刻Tsにおける被写体までの距離を予測し、予測した被写体までの距離に基づいて、フォーカスレンズ32を駆動する構成としてもよい。   For example, in the above-described embodiment, the configuration in which the subject image plane position at the accumulation start time Ts of the pixel corresponding to the focus detection area is predicted, and the focus lens 32 is driven based on the predicted subject image plane position is illustrated. However, the present invention is not limited to this configuration. For example, the distance to the subject at the accumulation start time Ts of the pixel corresponding to the focus detection area is predicted, and the focus lens 32 is adjusted based on the predicted distance to the subject. It may be configured to drive.

また、上述した実施形態では、デフォーカス量に基づいて、被写体の像面位置を検出し、検出した被写体の像面位置に基づいて、焦点検出エリアに対応する画素の蓄積開始時刻Tsにおける被写体の像面位置を予測する構成を例示したが、たとえば、コントラスト検出方式により算出した焦点評価値に基づいて、合焦位置を検出し、検出した合焦位置の履歴に基づいて、焦点検出エリアに対応する画素の蓄積開始時刻Tsにおける被写体の位置を予測する構成としてもよい。   In the above-described embodiment, the image plane position of the subject is detected based on the defocus amount, and the subject at the accumulation start time Ts of the pixel corresponding to the focus detection area is detected based on the detected image plane position of the subject. Although the configuration for predicting the image plane position is exemplified, for example, the focus position is detected based on the focus evaluation value calculated by the contrast detection method, and the focus detection area is supported based on the history of the detected focus position The position of the subject at the pixel accumulation start time Ts may be predicted.

なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 of the above-described embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a digital video camera, a single-lens reflex digital camera, a lens-integrated digital camera, and a camera for a mobile phone. May be.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
28…操作部
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel 222a, 222b ... Focus detection pixel 28 ... Operation part 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive motor 37 ... Lens Control unit

Claims (5)

複数の画素が水平方向および垂直方向に二次元状に配列されており、垂直方向における画素の位置に応じて、各画素における電荷の蓄積開始時刻が異なるローリングシャッター方式の撮像素子と、
前記撮像素子からの出力に基づいて、撮像画面内の焦点検出エリアにおける、焦点調節用レンズを含む撮影レンズの焦点状態を検出する焦点検出部と、
前記焦点調節用レンズの位置を検出するレンズ位置検出部と、
所定時刻における被写体の光軸方向の位置を予測する被写体位置予測部と、
前記焦点検出エリアに対応する画素の前記撮像素子内における垂直方向の位置を検出し、前記焦点検出エリアに対応する画素の前記蓄積開始時刻を演算する蓄積開始時刻演算部と、
前記被写体位置予測部による予測結果に基づいて、前記焦点検出エリアに対応する画素の前記蓄積開始時刻における被写体の光軸方向の位置を、被写体予測位置として演算する被写体位置演算部と、
前記被写体位置演算部により算出された前記被写体予測位置に基づいて、前記焦点調節用レンズを駆動させる駆動部と、を備えることを特徴とする撮像装置。
A plurality of pixels are arranged two-dimensionally in the horizontal direction and the vertical direction, and according to the position of the pixel in the vertical direction, an image pickup element of a rolling shutter system in which the charge accumulation start time in each pixel is different,
A focus detection unit that detects a focus state of a photographic lens including a focus adjustment lens in a focus detection area in an imaging screen based on an output from the imaging element;
A lens position detector for detecting the position of the focus adjustment lens;
A subject position prediction unit that predicts the position of the subject in the optical axis direction at a predetermined time;
An accumulation start time calculating unit that detects a vertical position of the pixel corresponding to the focus detection area in the image sensor and calculates the accumulation start time of the pixel corresponding to the focus detection area;
A subject position calculation unit that calculates a position of the subject in the optical axis direction at the accumulation start time of a pixel corresponding to the focus detection area as a subject predicted position based on a prediction result by the subject position prediction unit;
An image pickup apparatus comprising: a drive unit configured to drive the focus adjustment lens based on the subject predicted position calculated by the subject position calculation unit.
請求項1に記載の撮像装置であって、
前記撮像素子は、二次元状に配列された複数の撮像用画素と、前記撮像用画素に混在して一次元状または二次元状に配列された複数の焦点検出用画素とを有し、
前記焦点検出部は、前記焦点検出用画素の出力に基づいて、前記光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する位相差検出方式の焦点検出、および、前記撮像用画素の出力に基づいて、前記光学系による像のコントラストに関する評価値を算出し、算出した評価値に基づいて、前記光学系の焦点状態を検出するコントラスト検出方式の焦点検出のうち、少なくともいずれか一方の方式で焦点検出を行うことが可能であることを特徴とする撮像装置。
The imaging apparatus according to claim 1,
The imaging element has a plurality of imaging pixels arranged in a two-dimensional manner, and a plurality of focus detection pixels mixed in the imaging pixels and arranged in a one-dimensional or two-dimensional manner,
The focus detection unit detects a shift amount of an image plane by the optical system based on an output of the focus detection pixel, and detects a focus state of a phase difference detection method for detecting a focus state of the optical system; and Among the focus detections of the contrast detection method, the evaluation value related to the contrast of the image by the optical system is calculated based on the output of the imaging pixel, and the focus state of the optical system is detected based on the calculated evaluation value. An image pickup apparatus capable of performing focus detection by at least one of the methods.
請求項1または2に記載の撮像装置であって、
被写体が光軸方向において静止しているか否かを判定する判定部をさらに備え、
前記駆動部は、前記判定部による判定の結果、被写体が光軸方向において静止していると判定された場合には、前記被写体予測位置に基づいた前記焦点調節用レンズの駆動処理を行わないことを特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein:
A determination unit for determining whether or not the subject is stationary in the optical axis direction;
The drive unit does not perform the driving process of the focus adjustment lens based on the subject predicted position when it is determined that the subject is stationary in the optical axis direction as a result of the determination by the determination unit. An imaging apparatus characterized by the above.
請求項1〜3のいずれかに記載の撮像装置であって、
前記被写体位置予測部による予測結果に基づいて、被写体の光軸方向の移動速度を演算する移動速度演算部をさらに備え、
前記駆動部は、前記焦点検出エリアに対応する画素の前記蓄積開始時刻後、前記焦点検出エリアに対応する画素において電荷の蓄積が行われている間、前記焦点調節用レンズを、前記被写体の光軸方向の移動速度に応じて、等速で駆動させることを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 3,
Based on the prediction result by the subject position prediction unit, further comprising a movement speed calculation unit that calculates the movement speed of the subject in the optical axis direction,
After the accumulation start time of the pixel corresponding to the focus detection area, the driving unit moves the focus adjustment lens to the light of the subject while charge is being accumulated in the pixel corresponding to the focus detection area. An imaging apparatus that is driven at a constant speed according to a moving speed in an axial direction.
請求項1〜4のいずれかに記載の撮像装置であって、
前記被写体位置演算部は、前記被写体位置予測部による予測結果に加え、前記画素の露光時間に基づいて、前記焦点検出エリアに対応する画素において電荷の蓄積が行われている間の所定時刻における、前記被写体の光軸方向の位置を、前記被写体予測位置として演算することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 4,
The subject position calculation unit is based on the exposure time of the pixel in addition to the prediction result by the subject position prediction unit, and at a predetermined time during which charge is accumulated in the pixel corresponding to the focus detection area. An imaging apparatus, wherein the position of the subject in the optical axis direction is calculated as the subject predicted position.
JP2011121339A 2011-05-31 2011-05-31 Imaging apparatus Pending JP2012247724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011121339A JP2012247724A (en) 2011-05-31 2011-05-31 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011121339A JP2012247724A (en) 2011-05-31 2011-05-31 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012247724A true JP2012247724A (en) 2012-12-13

Family

ID=47468193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011121339A Pending JP2012247724A (en) 2011-05-31 2011-05-31 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012247724A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3047641A4 (en) * 2013-09-16 2017-03-08 Intel Corporation Camera and light source synchronization for object tracking

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085843A (en) * 2002-08-26 2004-03-18 Canon Inc Camera
JP2010101972A (en) * 2008-10-21 2010-05-06 Canon Inc Automatic focusing device and method
JP2010107711A (en) * 2008-10-30 2010-05-13 Panasonic Corp Focal point control device and imaging apparatus
JP2010107662A (en) * 2008-10-29 2010-05-13 Panasonic Corp Imaging apparatus, range-finding device and range-finding method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085843A (en) * 2002-08-26 2004-03-18 Canon Inc Camera
JP2010101972A (en) * 2008-10-21 2010-05-06 Canon Inc Automatic focusing device and method
JP2010107662A (en) * 2008-10-29 2010-05-13 Panasonic Corp Imaging apparatus, range-finding device and range-finding method
JP2010107711A (en) * 2008-10-30 2010-05-13 Panasonic Corp Focal point control device and imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3047641A4 (en) * 2013-09-16 2017-03-08 Intel Corporation Camera and light source synchronization for object tracking

Similar Documents

Publication Publication Date Title
WO2013015131A1 (en) Focus adjustment device and image capturing apparatus
JP5831070B2 (en) Imaging device
JP2013050690A (en) Focus adjusting device and imaging apparatus
JP6047861B2 (en) Focus adjustment device and camera body
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP5477344B2 (en) Focus adjustment device and imaging device provided with the same
JP5929060B2 (en) Focus detection apparatus and imaging apparatus
JP2014074855A (en) Focus adjustment device and imaging device
JP2012226247A (en) Focus detector and imaging apparatus
JP6127730B2 (en) Imaging device
JP5454521B2 (en) Imaging device
JP2012247724A (en) Imaging apparatus
JP2012247723A (en) Focus adjustment device and imaging apparatus
JP6035728B2 (en) Focus adjustment device and imaging device
JP6035777B2 (en) Imaging device
JP5899735B2 (en) interchangeable lens
JP5987285B2 (en) Focus adjustment device and imaging device
JP5982749B2 (en) Focus adjustment device and imaging device
JP5966283B2 (en) Camera body and camera
JP5370411B2 (en) Imaging device
JP2012181448A (en) Focusing device and imaging apparatus
JP5494594B2 (en) Lens barrel and camera body
JP5966273B2 (en) Imaging device
JP5961979B2 (en) Focus adjustment device and imaging device
JP5862087B2 (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150804