JP2019095810A - Focus adjustment device and imaging device - Google Patents

Focus adjustment device and imaging device Download PDF

Info

Publication number
JP2019095810A
JP2019095810A JP2019020809A JP2019020809A JP2019095810A JP 2019095810 A JP2019095810 A JP 2019095810A JP 2019020809 A JP2019020809 A JP 2019020809A JP 2019020809 A JP2019020809 A JP 2019020809A JP 2019095810 A JP2019095810 A JP 2019095810A
Authority
JP
Japan
Prior art keywords
range
focus
focusing
optical
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019020809A
Other languages
Japanese (ja)
Other versions
JP2019095810A5 (en
Inventor
朗 木下
Akira Kinoshita
朗 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019020809A priority Critical patent/JP2019095810A/en
Publication of JP2019095810A publication Critical patent/JP2019095810A/en
Publication of JP2019095810A5 publication Critical patent/JP2019095810A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

To provide a focus adjustment device that enables suitable focus adjustments.SOLUTION: A focus adjustment device comprises: a focus detection unit that relatively shifts first data by a signal output from a plurality of first focus detection pixels, and second data by a signal output from a plurality of second focus detection pixels to calculate a correlation value between the first data and the second data, and detects a focus state of an optical system having a focus adjustment optical system; and a control unit that performs drive control of the focus adjustment optical system in a first range according to a focus detection result of the focus detection unit. The focus detection unit is configured to: acquire information on the first range from the optical system; obtain a shift range in which the first data and the second data are relatively shifted from a second range greater than the first range; and calculate the correlation value in the shift range. The control unit is configured to perform the drive control of the focus adjustment optical system in the first range on the basis of the calculated correlation value.SELECTED DRAWING: Figure 1

Description

本発明は、焦点調節装置および撮像装置に関する。   The present invention relates to a focusing device and an imaging device.

従来より、複数の画素からなる一対の受光センサから一対の画素列データを読み出し、読み出した一対の画素列データの相関演算を行うことで、光学系の焦点状態を検出する技術が知られている(たとえば、特許文献1参照)。   Conventionally, there is known a technique for detecting a focus state of an optical system by reading out a pair of pixel array data from a pair of light receiving sensors consisting of a plurality of pixels and performing correlation operation on the read out pair of pixel array data (For example, refer to Patent Document 1).

特開平6−308378号公報Unexamined-Japanese-Patent No. 6-308378

しかしながら、従来技術では、たとえば、一対の受光センサを構成する画素の数が多く、一対の画素列データのデータ量が大きい場合には、相関演算に要する演算時間が長くなり、その結果、焦点検出に要する時間が長くなってしまうという問題があった。   However, in the prior art, for example, when the number of pixels constituting the pair of light receiving sensors is large and the data amount of the pair of pixel array data is large, the operation time required for the correlation operation becomes long, and as a result, focus detection The time required to

本発明が解決しようとする課題は、好適な焦点調節が可能な焦点調節装置を提供することである。   The problem to be solved by the present invention is to provide a focusing device capable of suitable focusing.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above-mentioned subject by the following solution means. Although the following description will be made with reference to the reference numerals corresponding to the drawings showing the embodiments of the present invention, these reference numerals are for the purpose of facilitating the understanding of the present invention and are not intended to limit the present invention. .

[1]本発明に係る焦点調節装置は、複数の第1焦点検出画素から出力された信号による第1データと、複数の第2焦点検出画素から出力された信号による第2データとを相対的にシフトさせて前記第1データと前記第2データとの相関値を算出して、焦点調節光学系を有する光学系の焦点状態を検出する焦点検出部と、前記焦点検出部の焦点検出結果により、第1範囲で焦点調節光学系を駆動制御する制御部と、を備え、前記焦点検出部は、前記光学系から前記第1範囲の情報を取得し、前記第1範囲より広い第2範囲から、前記第1データと前記第2データを相対的にシフトするシフト範囲を求め、前記シフト範囲で前記相関値を算出し、前記制御部は、算出された前記相関値に基づいて前記第1範囲で前記焦点調節光学系を駆動制御する。
[2]上記焦点調節装置に係る発明において、前記制御部は、前記相関値に基づいて前記焦点調節光学系を駆動させた場合に、前記焦点調節光学系が前記第1範囲よりも無限遠側に駆動することとなる場合、または、前記焦点調節光学系が前記第1範囲よりも至近側に駆動することとなる場合には、前記焦点調節光学系の駆動を禁止する。
[3]上記焦点調節装置に係る発明において、前記制御部は、前記相関値に基づいて前記焦点調節光学系を駆動させた場合に、前記焦点調節光学系が前記第1範囲よりも無限遠側に駆動することとなる場合には、前記焦点調節光学系の駆動を禁止し、前記焦点調節光学系が前記第1範囲よりも至近側に駆動することとなる場合には、前記焦点調節光学系の駆動を許可する。
[4]上記焦点調節装置に係る発明において、前記焦点検出部は、前記相関値の極値が得られるシフト量に基づいて前記光学系の像面のずれ量を算出し、前記相関値の極値が得られるシフト量が、前記第2範囲内のいずれかのレンズ位置に対応するシフト量となる前記シフト範囲において、前記第1データ及び前記第2データの相関演算を行う。
[5]上記焦点調節装置に係る発明において、前記焦点検出部は、前記第2範囲の端部に対応するシフト量において前記相関値の極値が得られるように、前記第2範囲を超えた範囲に対応する前記シフト範囲において、前記第1データ及び前記第2データの相関演算を行う。
[6]上記焦点調節装置に係る発明において、前記光学系による像を撮像する撮像部をさらに備え、前記第1焦点検出画素及び前記第2焦点検出画素を有する受光センサは、前記撮像部の受光面に備えられている。
[7]上記焦点調節装置に係る発明において、前記第1焦点検出画素は第1方向に配置され、前記第2焦点検出画素は前記1方向に配置されている。
[8]本発明に係る撮像装置は、上記焦点調節装置を備えている。
[1] A focusing device according to the present invention relatively compares first data of signals output from a plurality of first focus detection pixels and second data of signals output from a plurality of second focus detection pixels. And a focus detection unit that detects a focus state of an optical system having a focusing optical system by calculating a correlation value between the first data and the second data, and the focus detection result of the focus detection unit. And a control unit that drives and controls a focusing optical system in a first range, the focus detection unit acquires information of the first range from the optical system, and a second range wider than the first range Determining a shift range in which the first data and the second data are relatively shifted, calculating the correlation value in the shift range, and the control unit calculating the first range based on the calculated correlation value Drive control of the focusing optical system .
[2] In the invention according to the focusing device, when the control unit drives the focusing optical system on the basis of the correlation value, the focusing optical system is closer to the infinity side than the first range. When the optical system is driven or when the focusing optical system is driven closer to the first range, the driving of the focusing optical system is prohibited.
[3] In the invention relating to the focusing device, when the control unit drives the focusing optical system based on the correlation value, the focusing optical system is closer to the infinity side than the first range. Driving the focusing optical system, and driving the focusing optical system closer to the first range than the first range. Allow the driving of
[4] In the invention relating to the focus adjustment device, the focus detection unit calculates the amount of deviation of the image plane of the optical system based on the shift amount at which the extremum of the correlation value can be obtained, and The correlation calculation of the first data and the second data is performed in the shift range in which the shift amount for which a value is obtained is the shift amount corresponding to any lens position within the second range.
[5] In the invention according to the focus adjustment device, the focus detection unit exceeds the second range so that an extremum of the correlation value can be obtained in the shift amount corresponding to the end of the second range. A correlation operation of the first data and the second data is performed in the shift range corresponding to the range.
[6] In the invention relating to the focusing device described above, the light receiving sensor further includes an imaging unit configured to capture an image by the optical system, the light receiving sensor having the first focus detection pixel and the second focus detection pixel It is equipped on the surface.
[7] In the invention relating to the focusing device, the first focus detection pixel is disposed in a first direction, and the second focus detection pixel is disposed in the one direction.
[8] An imaging device according to the present invention includes the above-mentioned focusing device.

本発明によれば、好適な焦点調節を実現することができる。   According to the present invention, suitable focusing can be realized.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、フォーカスレンズの駆動範囲を説明するための図である。FIG. 2 is a diagram for explaining the drive range of the focus lens. 図3は、図1に示す撮像素子の撮像面を示す正面図である。FIG. 3 is a front view showing an imaging surface of the imaging device shown in FIG. 図4は、図3のIV部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 4 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the portion IV of FIG. 図5(A)は、撮像画素221の一つを拡大して示す正面図、図5(B)は、焦点検出画素222aの一つを拡大して示す正面図、図5(C)は、焦点検出画素222bの一つを拡大して示す正面図、図5(D)は、撮像画素221の一つを拡大して示す断面図、図5(E)は、焦点検出画素222aの一つを拡大して示す断面図、図5(F)は、焦点検出画素222bの一つを拡大して示す断面図である。5A is an enlarged front view of one of the imaging pixels 221, FIG. 5B is an enlarged front view of one of the focus detection pixels 222a, and FIG. FIG. 5D is a cross-sectional view showing one of the imaging pixels 221 in an enlarged manner, and FIG. 5E is a front view showing one of the focus detection pixels 222a. 5F is an enlarged sectional view of one of the focus detection pixels 222b. 図6は、焦点検出画素222a,222bの大きさを説明するための図である。FIG. 6 is a diagram for explaining the sizes of the focus detection pixels 222a and 222b. 図7は、従来の位相差検出モジュールに備えられているラインセンサを構成する各画素の大きさを説明するための図である。FIG. 7 is a diagram for explaining the size of each pixel constituting the line sensor provided in the conventional phase difference detection module. 図8は、図4のVIII-VIII線に沿う断面図である。FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 図9は、第1実施形態に係るカメラの動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the camera according to the first embodiment. 図10は、第1実施形態で設定されるシフト範囲を説明するための図である。FIG. 10 is a diagram for explaining the shift range set in the first embodiment. 図11は、第2実施形態に係るカメラの動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the camera according to the second embodiment. 図12は、第2実施形態で設定されるシフト範囲を説明するための図である。FIG. 12 is a diagram for explaining the shift range set in the second embodiment. 図13は、他の実施形態で設定されるシフト範囲を説明するための図である。FIG. 13 is a diagram for explaining a shift range set in another embodiment.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings.

≪第1実施形態≫
図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。
First Embodiment
FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. The digital camera 1 (hereinafter simply referred to as the camera 1) of the present embodiment is composed of a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4 There is.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that is detachable from the camera body 2. As shown in FIG. 1, the lens barrel 3 incorporates a photographing optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can move in the direction of the optical axis L1 to adjust the focal length of the imaging optical system. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotary cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, and a helicoid groove (helical groove) is formed on the inner peripheral surface of the rotary cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted in the helicoid groove. Then, by rotating the rotary cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves rectilinearly along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame moves rectilinearly in the direction of the optical axis L1 by rotating the rotary cylinder with respect to the lens barrel 3, but the focus lens drive motor 36 as its drive source is a lens The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by, for example, a transmission composed of a plurality of gears, and when the drive shaft of the focus lens drive motor 36 is rotationally driven in either direction, it is transmitted to the rotary cylinder with a predetermined gear ratio. Then, when the rotary cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves rectilinearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is driven to rotate in the reverse direction, the gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves rectilinearly in the direction opposite to the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the direction of the optical axis L1 is correlated with the rotation angle of the rotary cylinder, and therefore can be determined by detecting the relative rotation angle of the rotary cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   The encoder 35 according to the present embodiment detects a rotation of a rotating disk connected to the rotational drive of the rotating cylinder by an optical sensor such as a photo interrupter and outputs a pulse signal according to the number of rotations, or a fixed cylinder The encoder contacts on the surface of the flexible printed wiring board provided on either one of the rotating cylinder and the brush contact on the other are brought into contact with each other, and the moving amount of the rotating cylinder (in either the rotational direction or the optical axis direction) It is possible to use one that detects a change in the contact position according to (a) by a detection circuit.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the near end) to the end on the subject side (also referred to as the infinite end) by rotation of the rotary cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus based on this information. The drive position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The aperture 34 is configured to adjust the aperture diameter centered on the optical axis L1 in order to limit the light amount of the light flux passing through the imaging optical system and reaching the imaging device 22 and to adjust the blur amount. Adjustment of the aperture diameter by the aperture stop 34 is performed, for example, by transmitting an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by the manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the diaphragm 34 is detected by a diaphragm aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

また、レンズ制御部37は、フォーカスレンズ32の現在位置と、フォーカスレンズ32の駆動範囲の端部の位置とを検出し、検出した位置情報をレンズ情報としてカメラ制御部21に送信する。ここで、図2は、フォーカスレンズ32の駆動範囲を説明するための図である。本実施形態においては、フォーカスレンズ32の駆動範囲として、図2に示すように、駆動制御範囲、ソフトリミット範囲、および、ハードリミット範囲の異なる3種類の範囲が設けられている。駆動制御範囲は、レンズ鏡筒3の種別ごとに予め設定される範囲であり、ユーザにレンズ鏡筒3の撮影距離を保証する範囲である。すなわち、駆動制御範囲は、無限遠に存在する被写体に合焦可能なフォーカスレンズ32のレンズ位置である無限遠端位置から、レンズ鏡筒3が保証する最短撮影距離に存在する被写体に合焦可能なフォーカスレンズ32のレンズ位置である至近端位置までの範囲である。また、ハードリミット範囲は、レンズ鏡筒3においてフォーカスレンズ32の駆動が機械的・物理的に制限される範囲であり、レンズ鏡筒3の構造上、フォーカスレンズ32は無限遠側可動限界位置から無限遠側、および、至近側可動限界位置から至近側に駆動することはできない。また、ソフトリミット範囲は、フォーカスレンズ32を至近側可動限界位置または無限遠側可動限界位置まで駆動させた場合に、レンズ鏡筒3が機械的・物理的に故障してしまうことを防止するために、フォーカスレンズ32の駆動を制限する範囲であり、具体的には、オーバー至近端位置からオーバー無限遠端位置までの範囲である。レンズ制御部21は、これらの範囲の位置情報と、フォーカスレンズ32の現在位置とを含むレンズ情報を、カメラ制御部21に送信する。   The lens control unit 37 also detects the current position of the focus lens 32 and the position of the end of the drive range of the focus lens 32, and transmits the detected position information to the camera control unit 21 as lens information. Here, FIG. 2 is a diagram for explaining the drive range of the focus lens 32. As shown in FIG. In the present embodiment, as the drive range of the focus lens 32, as shown in FIG. 2, three types of ranges of a drive control range, a soft limit range, and a hard limit range are provided. The drive control range is a range set in advance for each type of lens barrel 3, and is a range for guaranteeing the user the photographing distance of the lens barrel 3. That is, the drive control range can be focused on the subject existing at the shortest shooting distance ensured by the lens barrel 3 from the infinity end position which is the lens position of the focus lens 32 capable of focusing on the subject existing at infinity. Range to the closest end position, which is the lens position of the focus lens 32. The hard limit range is a range in which the drive of the focus lens 32 in the lens barrel 3 is mechanically and physically limited, and the structure of the lens barrel 3 makes the focus lens 32 move from the infinity movable limit position. It is not possible to drive from the infinity side and the near side movable limit position to the near side. Also, the soft limit range is to prevent mechanical and physical failure of the lens barrel 3 when the focus lens 32 is driven to the near side movable limit position or the infinite distance side movable limit position. The driving range of the focus lens 32 is limited. Specifically, the driving range is from the over-close end position to the over-infinity end position. The lens control unit 21 transmits lens information including position information of these ranges and the current position of the focus lens 32 to the camera control unit 21.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるカメラメモリ24に記録される。なお、カメラメモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。撮像素子22の構造の詳細は後述する。   On the other hand, in the camera body 2, an imaging element 22 for receiving the light flux L1 from the imaging optical system is provided on a planned focal plane of the imaging optical system, and a shutter 23 is provided on the front surface thereof. The imaging device 22 is configured of a device such as a CCD or a CMOS, converts the received light signal into an electric signal, and sends it to the camera control unit 21. The photographed image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and the release button (provided in the operation unit 28) When the full depression (not shown) is performed, the photographed image information is recorded in the camera memory 24 which is a recording medium. The camera memory 24 can use any of a removable card type memory and a built-in type memory. Details of the structure of the imaging device 22 will be described later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image captured by the image sensor 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal drive circuit 25 for driving the same, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the photographed image information picked up by the image pickup device 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on this. Thus, the user can observe the current captured image through the eyepiece 27. A liquid crystal display may be provided on the back surface of the camera body 2 or the like instead of or in addition to the above observation optical system according to the optical axis L2, and a photographed image may be displayed on the liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 by the electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses the lens control unit 37. Send information such as the amount and aperture diameter. In addition, as described above, the camera control unit 21 reads out the pixel output from the imaging device 22 and generates image information by performing predetermined information processing on the read out pixel output as necessary, and the generated image information Are output to the liquid crystal drive circuit 25 and the memory 24 of the electronic viewfinder 26. Further, the camera control unit 21 controls the entire camera 1 such as correction of image information from the image pickup device 22 and detection of a focusing state of the lens barrel 3, an aperture adjusting state, and the like.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については、後述する。   Further, in addition to the above, the camera control unit 21 detects the focus state of the photographing optical system by the phase detection method based on the pixel data read from the imaging device 22 and detects the focus state of the photographing optical system by the contrast detection method. I do. A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタンなどの撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is an input switch for a photographer such as a shutter release button to set various operation modes of the camera 1, and can switch between an auto focus mode and a manual focus mode. The various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. Further, the shutter release button includes a first switch SW1 which is turned on when the button is half pressed, and a second switch SW2 which is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図3は、撮像素子22の撮像面を示す正面図、図4は、図3のIV部分を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 3 is a front view showing an imaging surface of the image sensor 22. FIG. 4 is a front view schematically showing an arrangement of focus detection pixels 222a and 222b by enlarging a portion IV of FIG.

本実施形態の撮像素子22は、図4に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 4, in the imaging element 22 of the present embodiment, a plurality of imaging pixels 221 are two-dimensionally arranged on a plane of an imaging surface, and a green pixel G having a color filter transmitting a green wavelength region And a red pixel R having a color filter transmitting the red wavelength region and a blue pixel B having a color filter transmitting the blue wavelength region are what is called a Bayer arrangement. That is, two green pixels are arranged on one diagonal line in adjacent four pixel groups 223 (a dense square lattice array), and one red pixel and one blue pixel are arranged on the other diagonal line. The imaging element 22 is configured by repeatedly arranging the pixel group 223 two-dimensionally on the imaging surface of the imaging element 22 in units of the pixel group 223 in which the Bayer arrangement is performed.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The arrangement of the unit pixel groups 223 may be, for example, a close hexagonal lattice arrangement, as well as the close square lattice shown in the drawing. Further, the configuration and arrangement of the color filter are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図5(A)は、撮像画素221の一つを拡大して示す正面図、図5(D)は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図5(D)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 5A is an enlarged front view showing one of the imaging pixels 221, and FIG. 5D is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and as shown in the cross-sectional view of FIG. 5D, on the surface of the semiconductor circuit substrate 2213 of the imaging element 22. The photoelectric conversion portion 2212 is fabricated, and the micro lens 2211 is formed on the surface thereof. The photoelectric conversion unit 2212 is shaped so as to receive the imaging light flux passing through the exit pupil (for example, F1.0) of the imaging optical system by the microlens 2211 and receives the imaging light flux.

また、撮像素子22の撮像面の中心、ならびに中心から左右対称位置の3箇所には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a,22b,22cが設けられている。そして、図4に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列(22a,22c,22c)に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, focus detection pixel arrays 22a, 22b, and 22c in which focus detection pixels 222a and 222b are arranged instead of the imaging pixels 221 described above at the center of the imaging surface of the imaging element 22 and at three positions symmetrical with respect to the center. Is provided. Then, as shown in FIG. 4, in one focus detection pixel row, a plurality of focus detection pixels 222a and 222b are arranged adjacent to each other and alternately arranged in one horizontal row (22a, 22c, 22c). There is. In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the positions of the green pixel G and the blue pixel B of the imaging pixel 221 in Bayer arrangement.

なお、図3に示す焦点検出画素列22a〜22cの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所にすることもでき、また、四箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列22a〜22cの中から、撮影者が操作部28を手動操作することにより所望の焦点検出画素列を、焦点検出エリアとして選択することもできる。   The positions of the focus detection pixel arrays 22a to 22c shown in FIG. 3 are not limited to the illustrated positions, but may be one or two, or may be disposed at four or more positions. it can. Further, at the time of actual focus detection, the photographer manually selects the desired focus detection pixel row as the focus detection area from the plurality of arranged focus detection pixel rows 22a to 22c by manually operating the operation unit 28. It can also be done.

図5(B)は、焦点検出画素222aの一つを拡大して示す正面図、図5(E)は、焦点検出画素222aの断面図である。また、図5(C)は、焦点検出画素222bの一つを拡大して示す正面図、図5(F)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(B)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図5(E)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(C)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図5(F)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図4に示すように、互いに隣接して交互に、横一列に配列されることにより、図3に示す焦点検出画素列22a〜22cを構成する。   FIG. 5 (B) is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5 (E) is a cross-sectional view of the focus detection pixel 222a. 5C is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 5F is a cross-sectional view of the focus detection pixel 222b. The focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a as shown in FIG. 5B, and as shown in the cross-sectional view of FIG. The photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and the micro lens 2221a is formed on the surface. Further, as shown in FIG. 5C, the focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b, and as shown in the cross sectional view of FIG. The photoelectric conversion portion 2222b is formed on the surface of the circuit board 2213, and the micro lens 2221b is formed on the surface. The focus detection pixels 222a and 222b are arranged adjacent to each other and alternately in a horizontal row, as shown in FIG. 4, to form focus detection pixel rows 22a to 22c shown in FIG.

ここで、各焦点検出画素222a,222bは、図6に示すように、その構造上、撮像画素221と略同一のサイズとする必要があるため、撮像画素221と略同一のサイズ、すなわち、縦幅L1および横幅L2がともに、通常、10μm以下程度の大きさに設定される。一方、従来の位相差検出モジュールに備えられるラインセンサ(位相差検出専用のセンサ)においては、図7に示すように、そのサイズに特に制約がないため、ラインセンサ50の各画素50aの大きさは、通常、縦幅L3が数百μm程度、横幅L4が数十μm〜数百μm程度の大きさに設定されている。すなわち、従来のラインセンサ50の各画素50aの大きさは、数百μm×数十μm〜数百μmであるのに対し、焦点検出画素222a,222bは、10μm四方以下のサイズに設定されている。なお、図6は、焦点検出画素222a,222bの画素の大きさを説明するための図であり、図7は、従来の位相差検出モジュールに備えられているラインセンサを構成する各画素の大きさを説明するための図である。   Here, as shown in FIG. 6, each focus detection pixel 222 a and 222 b needs to have substantially the same size as the imaging pixel 221 because of its structure, so the size is substantially the same as that of the imaging pixel 221, that is, vertical Both the width L1 and the width L2 are normally set to about 10 μm or less. On the other hand, in the line sensor (sensor dedicated to phase difference detection) provided in the conventional phase difference detection module, as shown in FIG. 7, the size of each pixel 50 a of the line sensor 50 is not limited because the size is not particularly limited. Generally, the vertical width L3 is set to about several hundreds μm, and the horizontal width L4 is set to several tens μm to several hundreds μm. That is, while the size of each pixel 50a of the conventional line sensor 50 is several hundreds μm × several tens μm to several hundreds μm, the focus detection pixels 222a and 222b are set to a size of 10 μm square or less There is. FIG. 6 is a diagram for explaining the sizes of the focus detection pixels 222a and 222b, and FIG. 7 is the size of each pixel constituting the line sensor provided in the conventional phase difference detection module. Is a diagram for explaining the

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have shapes that receive light beams passing through a predetermined area (for example, F2.8) of the exit pupil of the photographing optical system by the micro lenses 2221a and 2221b. Be done. Further, no color filter is provided in the focus detection pixels 222a and 222b, and the spectral characteristics thereof are obtained by integrating the spectral characteristics of the photodiode performing photoelectric conversion and the spectral characteristics of the infrared cut filter (not shown). ing. However, one of the same color filters as the imaging pixel 221, for example, a green filter may be provided.

また、図5(B)、図5(C)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b shown in FIGS. 5B and 5C are semicircular, but the shape of the photoelectric conversion units 2222a and 2222b is not limited thereto. And other shapes, for example, an oval shape, a rectangular shape, and a polygonal shape.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図4のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳350の測距瞳351,352から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳351,352から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 4 and is disposed in the vicinity of the photographing optical axis L1 and the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 emitted from the focusing pupils 351 and 352 of the exit pupil 350 are respectively received. Although FIG. 8 illustrates only one of the plurality of focus detection pixels 222a and 222b located in the vicinity of the photographing optical axis L1, other focus detection pixels other than the focus detection pixels shown in FIG. 8 are shown. Similarly, the light beams emitted from the pair of distance measuring pupils 351 and 352 are also received.

ここで、射出瞳350とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳351,352とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 350 is an image set at the position of the distance D in front of the microlenses 2221 a and 2221 b of the focus detection pixels 222 a and 222 b disposed on the planned focal plane of the imaging optical system. The distance D is a value uniquely determined according to the curvature of the micro lens, the refractive index, the distance between the micro lens and the photoelectric conversion part, and the like, and this distance D is referred to as a distance measurement pupil distance. Further, the ranging pupils 351 and 352 refer to images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳351,352の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222 a-1, 222 b-1, 222 a-2 and 222 b-2 coincides with the arrangement direction of the pair of distance measurement pupils 351 and 352.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳350上に投影され、その投影形状は測距瞳351,352を形成する。   Further, as shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 have a photographing optical system. It is placed near the planned focal plane of. The shape of each of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 disposed behind the microlenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 is The light is projected onto the exit pupil 350 separated by the distance measurement distance D from the lenses 2221a-1 and 2221b-1, and 2221a-2 and 2221b-2, and the projected shapes form distance measurement pupils 351 and 352.

すなわち、測距距離Dにある射出瞳350上で、各焦点検出画素の光電変換部の投影形状(測距瞳351,352)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   That is, on the exit pupil 350 located at the distance measurement distance D, the microlenses and photoelectric conversion units in each focus detection pixel are matched so that the projection shapes (distance measurement pupils 351, 352) of the photoelectric conversion units of each focus detection pixel match. The relative positional relationship of is determined, whereby the projection direction of the photoelectric conversion unit at each focus detection pixel is determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳351を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳351を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 which passes through the distance measurement pupil 351 and is directed to the microlens 2221a-1. Output a signal corresponding to the intensity of the image being Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measurement pupil 351, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 directed to the microlens 2221a-2. Output a signal corresponding to

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳352を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳352を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   In addition, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measurement pupil 352, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1 Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measurement pupil 352, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 directed to the microlens 2221b-2. Output a signal corresponding to

そして、上述した2種類の焦点検出画素222a,222bを、図4に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳351と測距瞳352とのそれぞれに対応した出力グループにまとめることにより、測距瞳351と測距瞳352とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データ(画素列データともいう)に対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出する。   Then, a plurality of the two types of focus detection pixels 222a and 222b described above are linearly arranged as shown in FIG. 4, and the output of the photoelectric conversion units 2222a and 2222b of each focus detection pixel 222a By combining the output groups corresponding to each of the focus detection pupils 352 and the focus detection pupil 352, the intensities of a pair of images formed on the focus detection pixel array by the focus detection light beams passing through the focus detection pupil 351 and the focus detection pupil 352, respectively. Data on the distribution is obtained. Then, image shift detection calculation processing such as correlation calculation processing or phase difference detection processing is performed on the intensity distribution data (also referred to as pixel array data) to detect an image shift amount by a so-called phase difference detection method.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出エリアにおける焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion operation according to the distance between the center of gravity of the pair of distance measuring pupils is performed on the obtained image shift amount to obtain the current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane) The deviation of the focal plane in the detection area can be determined.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。また、本実施形態において、カメラ制御部21は、位相差検出方式による像ズレ量の演算する際に、レンズ制御部37からレンズ情報を取得し、フォーカスレンズ32の現在の位置情報と、フォーカスレンズ32の駆動範囲の位置情報とに基づいて、像ズレ量を演算する。なお、位相差検出方式による像ズレ量の演算方法の詳細は後述する。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based on this are executed by the camera control unit 21. Further, in the present embodiment, the camera control unit 21 acquires lens information from the lens control unit 37 when calculating the image shift amount according to the phase difference detection method, and the current position information of the focus lens 32 and the focus lens The image shift amount is calculated based on the position information of the 32 drive ranges. The details of the calculation method of the image shift amount by the phase difference detection method will be described later.

また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22, and calculates the focus evaluation value based on the read pixel output. The focus evaluation value can be obtained, for example, by extracting the high frequency component of the image output from the imaging pixel 221 of the imaging device 22 using a high frequency transmission filter. It can also be determined by extracting high frequency components using two high frequency transmission filters having different cutoff frequencies.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed to obtain the position of the focus lens 32 as the in-focus position. It should be noted that, for example, when the focus evaluation value is calculated while driving the focus lens 32, the in-focus position is further lowered twice after the focus evaluation value rises twice. It can obtain | require by performing calculations, such as an interpolation method, using the focus evaluation value of.

次いで、本実施形態に係るカメラ1の動作例を説明する。図9は、本実施形態に係るカメラ1の動作を示すフローチャートである。なお、以下の処理は、カメラ1の電源がONされることにより開始される。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 9 is a flowchart showing the operation of the camera 1 according to the present embodiment. The following process is started when the power of the camera 1 is turned on.

まず、ステップS101では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれる。シャッターレリーズボタンが半押しされた場合は、ステップS102に進み、一方、シャッターレリーズボタンが半押しされていない場合は、ステップS101で待機する。   First, in step S101, the camera control unit 21 determines whether the shutter release button provided on the operation unit 28 has been half-pressed (the first switch SW1 is turned on). If the shutter release button is half pressed, the process proceeds to step S102. If the shutter release button is not half pressed, the process waits in step S101.

ステップS102では、カメラ制御部21により、レンズ制御部37から、レンズ情報の取得が行われる。具体的には、カメラ制御部21は、図2に示すように、フォーカスレンズ32の現在位置や、フォーカスレンズ32の駆動範囲を含むレンズ情報を取得する。   In step S102, the camera control unit 21 acquires lens information from the lens control unit 37. Specifically, as shown in FIG. 2, the camera control unit 21 acquires lens information including the current position of the focus lens 32 and the drive range of the focus lens 32.

そして、ステップS103では、カメラ制御部21により、ステップS102で取得したレンズ情報に基づいて、一対の画素列データのシフト範囲の設定が行われる。ここで、後述するステップS105の相関演算では、一対の画素列データをシフトさせながら、一対の画素列データの相関量を算出する相関演算が行われる。このステップS103で設定されるシフト範囲は、ステップS105の相関演算を行う際に、一対の画素列データをシフトさせることができる範囲となる。   Then, in step S103, the camera control unit 21 sets the shift range of the pair of pixel array data based on the lens information acquired in step S102. Here, in the correlation calculation of step S105 described later, the correlation calculation of calculating the correlation amount of the pair of pixel string data is performed while shifting the pair of pixel string data. The shift range set in step S103 is a range in which the pair of pixel string data can be shifted when performing the correlation calculation in step S105.

具体的には、カメラ制御部21は、まず、下記式(1)に示すように、ソフトリミット範囲のオーバー無限遠端位置PIと、フォーカスレンズ32の現在位置Pとの差に、像面変化係数r(フォーカスレンズ32の駆動による像面変化量/フォーカスレンズ32の実際の駆動量)を乗じることで、フォーカスレンズ32を現在位置からオーバー無限遠端位置PIまで駆動させた場合の像面変化量(デフォーカス量)を、無限遠側像面変化量Dとして算出する。
(PI−P)×r=D ・・・(1)
なお、本実施形態において、カメラ制御部21は、オーバー無限遠端位置PIとフォーカスレンズ32の現在位置Pとの差(PI−P)を、フォーカスレンズ32を現在位置Pからオーバー無限遠端位置PIまで駆動させるために必要なパルス数で算出することができる。またこの場合、像面変換係数rを、1パルス当たりの像面変化量として予め記憶することができる。
Specifically, as shown in the following equation (1), first, the camera control unit 21 sets the image plane to the difference between the soft limit range over infinity end position PI 1 and the current position P of the focus lens 32. An image when the focus lens 32 is driven from the current position to the over infinity end position PI 1 by multiplying the change coefficient r (image plane change amount by driving the focus lens 32 / actual drive amount of the focus lens 32) surface variation amount (defocus amount) is calculated as the infinite distance side image plane variation D 1.
(PI 1 −P) × r = D 1 (1)
In the present embodiment, the camera control unit 21 determines the difference (PI 1 -P) between the over-infinity end position PI 1 and the current position P of the focus lens 32 by using the focus lens 32 from the current position P to over-infinity. It can be calculated by the number of pulses necessary to drive to the end position PI 1 . Further, in this case, the image plane conversion coefficient r can be stored in advance as an image plane change amount per pulse.

さらに、カメラ制御部21は、下記式(2)に示すように、算出した無限遠側像面変化量Dと、一対の画素列データのシフト量を像面変化量(デフォーカス量)に変換するための変換係数kとに基づいて、フォーカスレンズ32を現在位置からオーバー無限遠端位置まで駆動させた場合の像面変化量に対応する画素列データのシフト量Sftを算出する。
/k=Sft ・・・(2)
なお、画素列データのシフト量に対する像面変化量の大きさは絞り34の開口径に応じて変化するため、変換係数kを、絞り34の開口径に応じて設定することが好適である。たとえば、絞り値がF5.6である場合には、変換係数kを、絞り値がF2.8の場合の変化係数の1/2の大きさに設定することができる。また、変換係数kとして、特定の絞り値(たとえばF2.8)に対応する値を予め設定しておき、変換係数kを用いて算出したシフト量を、絞り値に応じて補正する構成としてもよい。
Furthermore, as shown in the following equation (2), the camera control unit 21 sets the calculated infinity side image plane change amount D 1 and the shift amount of the pair of pixel array data to the image plane change amount (defocus amount). based on the transform coefficient k for converting, it calculates the shift amount Sft 1 pixel string data corresponding to the image surface variation of case of driving the focusing lens 32 from the current position to the over infinite end position.
D 1 / k = Sft 1 (2)
Since the magnitude of the image plane change amount with respect to the shift amount of the pixel string data changes in accordance with the aperture diameter of the diaphragm 34, it is preferable to set the conversion coefficient k in accordance with the aperture diameter of the diaphragm 34. For example, when the aperture value is F5.6, the conversion coefficient k can be set to a half of the change coefficient when the aperture value is F2.8. In addition, a value corresponding to a specific aperture value (for example, F2.8) is set in advance as the conversion coefficient k, and the shift amount calculated using the conversion coefficient k may be corrected according to the aperture value. Good.

さらに、カメラ制御部21は、下記式(3)に示すように、算出したシフト量Sftに、所定の検出マージンΔSを加えたシフト量を、画素列データのシフト範囲の無限遠側シフト量Srとして算出する。
Sft+ΔS=Sr ・・・(3)
ここで、後述するように、光学系の焦点状態を検出する場合、一対の画素列データの相関量が極小となるシフト量を求め、該シフト量に基づいて像面のずれ量を検出することとなるが、相関量が極小となっているか否かを判断するためには、相関量が極小となるシフト量の前後のシフト量において、相関量が極小となるシフト量よりも、相関量が大きいことを検出する必要がある。そのため、オーバー無限遠端位置に対応するシフト量Sftにおいて相関量が極小となる場合に、オーバー無限遠端位置に対応するシフト量Sftにおいて相関量が極小となっていると判断するためには、オーバー無限遠位置に対応するシフト量Sftよりも大きいシフト量まで、一対の画素間データをシフトさせる必要があり、そのため、カメラ制御部21は、オーバー無限遠位置に対応するシフト量Sftよりも検出マージンΔSだけ大きい無限遠側シフト量Srを算出する。
Furthermore, as shown in the following equation (3), the camera control unit 21 calculates the shift amount obtained by adding a predetermined detection margin ΔS to the calculated shift amount Sft 1 as an infinite distance shift amount of the shift range of the pixel string data. Calculated as Sr 1 .
Sft 1 + ΔS = Sr 1 (3)
Here, as described later, in the case of detecting the focus state of the optical system, a shift amount at which the correlation amount of a pair of pixel string data is minimized is obtained, and the shift amount of the image plane is detected based on the shift amount. However, in order to determine whether or not the correlation amount is minimized, the shift amount before and after the shift amount at which the correlation amount is minimized is smaller than the shift amount at which the correlation amount is minimized. You need to detect the big thing. Therefore, when a local minimum correlation amount in the shift amount Sft 1 corresponding to the over infinite end position, in order to determine the amount of correlation is a minimum in the shift amount Sft 1 corresponding to the over infinite end position Is required to shift the pair of inter-pixel data to a shift amount larger than the shift amount Sft 1 corresponding to the over-infinity position, so the camera control unit 21 shifts the shift amount Sft corresponding to the over-infinity position. An infinite distance shift amount Sr 1 larger than 1 by the detection margin ΔS is calculated.

同様に、カメラ制御部21は、ソフトリミット範囲のオーバー至近端位置PIと、フォーカスレンズ32の現在位置Pとに基づいて、至近側像面変化量Dを算出し、算出した至近側像面変化量Dに基づいて、オーバー至近端位置PIに対応する画素列データのシフト量Sftを算出し、算出したシフト量Sftに検出マージンΔSを加えた至近側シフト量Srを算出する。そして、カメラ制御部21は、無限遠側シフト量Srおよび至近側シフト量Srが得られるシフト量の範囲を、シフト範囲として設定する。 Similarly, the camera control unit 21, an over closest end position PI 2 software limit range, based on the current position P of the focusing lens 32, and calculate the near side image plane variation D 2, calculated close side based on the image plane variation D 2, and calculates the shift amount Sft 2 pixel column data corresponding to the over the closest end position PI 2, calculated shift amount Sft 2 near side shift amount plus detection margin ΔS in Sr Calculate 2 Then, the camera control unit 21, a shift amount in the range of infinity side shift amount Sr 1 and near side shift amount Sr 2 is obtained is set as a shift range.

ここで、図10は、第1実施形態に係るシフト範囲を説明するための図である。カメラ制御部21は、上記式(1)〜(3)に基づいて、フォーカスレンズ32の現在位置とオーバー無限遠端位置との距離(レンズ駆動量)を像面変化量に変換し、像面変化量をシフト量に変換することで、図10に示すように、オーバー無限遠端位置に対応するシフト量Sftを算出する。同様に、カメラ制御部21は、フォーカスレンズ32の現在位置とオーバー至近端位置との距離(レンズ駆動量)を像面変化量に変換し、像面変化量をシフト量に変換することで、図10に示すように、オーバー至近端位置に対応するシフト量Sftを算出する。さらに、カメラ制御部21は、図10に示すように、オーバー無限遠端位置に対応するシフト量Sftに検出マージンΔSを加えたシフト量を無限遠側シフト量Srとして算出するとともに、オーバー至近端位置に対応するシフト量Sftに検出マージンΔSを加えたシフト量を至近側シフト量Srとして算出する。そして、カメラ制御部21は、図10に示すように、無限遠側シフト量Srと至近側シフト量Srとが得られる範囲を、シフト範囲として設定する。 Here, FIG. 10 is a diagram for explaining the shift range according to the first embodiment. The camera control unit 21 converts the distance (lens drive amount) between the current position of the focus lens 32 and the over-infinity end position into an image plane change amount based on the above equations (1) to (3), and the image plane By converting the amount of change into the amount of shift, as shown in FIG. 10, the amount of shift Sft 1 corresponding to the over infinity end position is calculated. Similarly, the camera control unit 21 converts the distance between the current position of the focus lens 32 and the over-close end position (lens driving amount) into an image plane change amount, and converts the image plane change amount into a shift amount. as shown in FIG. 10, and calculates the shift amount Sft 2 corresponding to the over near end position. Further, as shown in FIG. 10, the camera control unit 21 calculates a shift amount obtained by adding the detection margin ΔS to the shift amount Sft 1 corresponding to the over infinite distance end position as the infinity distance shift amount Sr 1 and It calculates a shift amount obtained by adding the detection margin ΔS on the shift amount Sft 2 corresponding to the closest end position as close side shift Sr 2. Then, the camera control unit 21, as shown in FIG. 10, a range of infinity side shift Sr 1 and the near side shift Sr 2 is obtained is set as a shift range.

次いで、ステップS104では、カメラ制御部21により、焦点検出画素222a,222bにより出力された一対の画素列データの取得が行われる。ここで、焦点検出画素222a,222bは、図8に示すように、一対の測距瞳351,352の並び方向に配列されているため、各焦点検出画素列22a〜22cにおいて、測距瞳351に対応する複数の焦点検出画素222a(222a−1,222a−2,・・・)の出力からなる画素列データAと、測距瞳352に対応する複数の焦点検出画素222b(222b−1,222b−2,・・・)の出力からなる画素列データBとを出力する。カメラ制御部21は、焦点検出画素222a,222bから、このように出力された画素列データAおよび画素列データBを取得する。   Next, in step S104, the camera control unit 21 acquires the pair of pixel string data output from the focus detection pixels 222a and 222b. Here, as shown in FIG. 8, since the focus detection pixels 222 a and 222 b are arranged in the alignment direction of the pair of distance measurement pupils 351 and 352, the distance detection pupils 351 in the respective focus detection pixel arrays 22 a to 22 c. Pixel row data A consisting of the outputs of the plurality of focus detection pixels 222a (222a-1, 222a-2,...) Corresponding to a plurality of focus detection pixels 222b (222b-1, 222) corresponding to the focusing pupil 352 And the pixel column data B consisting of the output of 222 b-2. The camera control unit 21 acquires the pixel string data A and the pixel string data B thus output from the focus detection pixels 222 a and 222 b.

そして、ステップS105では、カメラ制御部21により、ステップS103で設定したシフト範囲内において、一対の画素列データの相関演算が行われる。具体的には、カメラ制御部21は、下記式(4)に示すように、ステップS104で取得した一対の画素列データAおよび画素列データBを互いにシフトさせながら、画素列データAと画素列データBとの相関量C(k)を算出する。
C(k)=Σ|a(n+i)−b(n)| …(4)
なお、上記式(4)において、Σ演算はnについての累積演算(相和演算)を示し、iは整数であり、焦点検出画素222aからなる画素列の画素間隔、または焦点検出画素222bからなる画素列の画素間隔を単位としたシフト量である。なお、上記式(4)の演算結果において、一対の画素列データの相関が高いシフト量において、相関量C(k)は極小(相関度が極大)になる。
Then, in step S105, the camera control unit 21 performs correlation calculation of the pair of pixel string data within the shift range set in step S103. Specifically, as shown in the following equation (4), the camera control unit 21 shifts the pair of pixel string data A and pixel string data B obtained in step S104 to each other while shifting the pixel string data A to the pixel string. An amount of correlation C (k) with data B is calculated.
C (k) = Σ | a (n + i) -b (n) | (4)
In the above equation (4), the Σ operation indicates the cumulative operation (phase-sum operation) for n, i is an integer, and the pixel interval of the pixel row consisting of the focus detection pixels 222a or the focus detection pixels 222b The shift amount is a unit of the pixel interval of the pixel column. In the calculation result of the equation (4), the correlation amount C (k) becomes minimum (the degree of correlation is maximum) in the shift amount where the correlation between the pair of pixel string data is high.

また、本実施形態では、上記式(4)に基づいて相関演算を行う際に、ステップS103で設定されたシフト範囲内で一対の画素列データをシフトさせながら、一対の画素列データの相関演算を行う。ここで、シフト範囲内で得られたシフト量に基づいてデフォーカス量を算出した場合、算出したデフォーカス量が示すフォーカスレンズ32の駆動位置は、オーバー無限遠端位置からオーバー至近端位置までの範囲内となるが、シフト範囲を超えて得られたシフト量に基づいてデフォーカス量を算出した場合、算出したデフォーカス量が示すフォーカスレンズ32の駆動位置は、オーバー無限遠端位置よりも無限遠側、または、オーバー至近端位置よりも至近側の位置となる。一方、フォーカスレンズ32をオーバー無限遠端位置よりも無限遠側に駆動させることはできず、同様に、フォーカスレンズ32をオーバー至近端位置よりも至近側に駆動させることができないため、たとえ一対の画素列データをシフト範囲を超えてシフトさせて一対の画素列データの相関量を演算しても、演算結果に基づいてフォーカスレンズ32を駆動させることはできない。そのため、一対の画素列データをシフト範囲を超えてシフトさせる必要はなく、むしろ、シフト範囲を越えて一対の画素列データをシフトさせて相関演算を行うことにより、相関演算の演算時間が長くなったり、ノイズによる誤検出が生じる可能性が高くなってしまう。本実施形態では、ステップS103で設定されたシフト範囲内で一対の画素列データの相関演算を行うことで、相関演算の演算時間の短縮や、ノイズによる誤検出の抑制を図ることができる。   Further, in the present embodiment, when the correlation operation is performed based on the equation (4), the correlation operation of the pair of pixel array data is performed while shifting the pair of pixel array data within the shift range set in step S103. I do. Here, when the defocus amount is calculated based on the shift amount obtained within the shift range, the drive position of the focus lens 32 indicated by the calculated defocus amount is from the over infinity position to the over close position position. If the defocus amount is calculated based on the shift amount obtained beyond the shift range, the drive position of the focus lens 32 indicated by the calculated defocus amount is higher than the over-infinity end position. It is a position closer to the infinity side or the over near end position. On the other hand, since the focus lens 32 can not be driven to the infinity side beyond the over infinity position, and similarly, the focus lens 32 can not be driven to the near side from the over close end position. The focus lens 32 can not be driven on the basis of the calculation result even if the pixel string data is shifted beyond the shift range to calculate the correlation amount between the pair of pixel string data. Therefore, it is not necessary to shift the pair of pixel string data over the shift range, but rather, shifting the pair of pixel string data over the shift range to perform the correlation operation increases the computation time of the correlation operation. Also, the possibility of false detection due to noise increases. In the present embodiment, by performing correlation calculation of a pair of pixel string data within the shift range set in step S103, it is possible to shorten the calculation time of the correlation calculation and suppress erroneous detection due to noise.

そして、カメラ制御部21は、算出した相関量C(k)に基づいて、相関量の極小値を算出する。本実施形態では、たとえば、以下の下記式(5)〜(8)に示す3点内挿の手法を用いて、連続的な相関量に対する極小値C(x)と、極小値C(x)を与えるシフト量xを算出することができる。なお、下記式に示すC(kj)は、上記式(4)で得られた相関量C(k)のうち、C(k−1)≧C(k)およびC(k+1)>C(k)の条件を満たす値である。
D={C(kj−1)−C(kj+1)}/2 …(5)
C(x)= C(kj)−|D| …(6)
x=kj+D/SLOP …(7)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)} …(8)
Then, the camera control unit 21 calculates the minimum value of the correlation amount based on the calculated correlation amount C (k). In the present embodiment, for example, the minimum value C (x) and the minimum value C (x) with respect to the continuous correlation amount using the method of three-point interpolation shown in the following formulas (5) to (8) below. Can be calculated. Note that C (kj) shown in the following equation is C (k-1) ≧ C (k) and C (k + 1)> C (k) in the correlation amount C (k) obtained by the above equation (4) It is a value that satisfies the condition of).
D = {C (kj-1) -C (kj + 1)} / 2 (5)
C (x) = C (kj)-| D | (6)
x = kj + D / SLOP (7)
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (8)

ステップS106では、カメラ制御部21により、ステップS105で算出されたシフト量x(相関量の極小値を与えるシフト量x)と、シフト量xを像面変化量(デフォーカス量)に変換するための変換係数kとに基づいて、デフォーカス量の算出が行われる。たとえば、カメラ制御部21は、下記式(9)に基づいて、デフォーカス量dfを算出することができる。
df=k・x …(9)
なお、上記式(9)に示す変換係数kは、上記式(2)に示す変換係数kと同じ係数となる。
In step S106, the camera control unit 21 converts the shift amount x (the shift amount x which gives the minimum value of the correlation amount) calculated in step S105 and the shift amount x into the image plane change amount (defocus amount). The defocus amount is calculated based on the conversion coefficient k of For example, the camera control unit 21 can calculate the defocus amount df based on the following equation (9).
df = k x (9)
The conversion coefficient k shown in the above equation (9) is the same coefficient as the conversion coefficient k shown in the above equation (2).

そして、続くステップS107では、カメラ制御部21により、デフォーカス量が算出できたか否かの判断が行われる。デフォーカス量を算出できた場合には、測距可能と判断して、ステップS108に進む。一方、デフォーカス量を算出できなかった場合には、測距不能と判断して、ステップS110に進む。なお、カメラ制御部21は、算出したデフォーカス量の信頼性の評価を行い、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合にも、デフォーカス量の算出ができなかったものとして扱い、ステップS110に進むこととする。カメラ制御部21は、たとえば、被写体のコントラストが低い場合、被写体が超低輝度被写体である場合、あるいは被写体が超高輝度被写体である場合などにおいて、デフォーカス量の信頼性が低いと判断することができる。   Then, in the subsequent step S107, the camera control unit 21 determines whether the defocus amount has been calculated. If the defocus amount can be calculated, it is determined that distance measurement is possible, and the process proceeds to step S108. On the other hand, when the defocus amount can not be calculated, it is determined that the distance measurement can not be performed, and the process proceeds to step S110. The camera control unit 21 evaluates the reliability of the calculated defocus amount, and the defocus amount can be calculated even if the defocus amount can be calculated, even if the reliability of the calculated defocus amount is low. It is treated as one that could not be calculated, and it proceeds to step S110. The camera control unit 21 determines that the reliability of the defocus amount is low, for example, when the contrast of the subject is low, when the subject is an ultra-low-brightness subject, or when the subject is an ultra-high-brightness subject. Can.

ステップS108では、カメラ制御部21により、ステップS105で算出したデフォーカス量が示すフォーカスレンズ32の駆動位置が、無限遠端位置よりも無限遠側、または、至近端位置よりも至近側の位置となるか否かの判断が行われる。ここで、図2に示す無限遠端位置は、フォーカスレンズ32のレンズ位置がこの無限遠端位置である場合に、無限遠に存在する被写体に合焦可能なレンズ位置である。一方、被写体は無限遠よりも無限遠側に存在することはないため、デフォーカス量が示すフォーカスレンズ32の駆動位置が無限遠端よりも無限遠側の位置である場合には、画素列データに生じたノイズなどによる合焦位置の誤検出の可能性があり、デフォーカス量が示すフォーカスレンズ32の駆動位置までフォーカスレンズ32を駆動させた場合に、ピントがぼけてしまう場合がある。また、図2に示す至近端位置は、フォーカスレンズ32のレンズ位置がこの至近端位置である場合に、レンズ鏡筒3の最短撮影距離に存在する被写体に合焦可能なレンズ位置であるため、デフォーカス量が示すフォーカスレンズ32の駆動位置が至近端よりも至近側の位置である場合には、同様に、画素列データに生じたノイズなどによる合焦位置の誤検出の可能性があり、デフォーカス量が示すフォーカスレンズ32の駆動位置までフォーカスレンズ322を駆動させた場合に、ピントがぼけてしまう場合がある。そこで、本実施形態では、フォーカスレンズ32が無限遠端位置よりも無限遠側の位置、または、至近端位置よりも至近側の位置まで駆動することを防止するために、デフォーカス量が示すフォーカスレンズ32の駆動位置が、無限遠端位置よりも無限遠側、または、至近端位置よりも至近側の位置となるか否かの判断を行う。そして、デフォーカス量が示すフォーカスレンズ32の駆動位置が、無限遠端位置よりも無限遠側である場合、または、至近端位置よりも至近側の位置である場合には、合焦位置の誤検出によりピントがぼけてしまうことを防止するために、フォーカスレンズ32を駆動させることなく、カメラ1の動作を終了する。一方、デフォーカス量が示すフォーカスレンズ32の駆動位置が、無限遠端位置よりも無限遠側の位置ではなく、かつ、至近端位置よりも至近側の位置でない場合には、ステップS109に進む。   In step S108, the camera control unit 21 causes the drive position of the focus lens 32 indicated by the defocus amount calculated in step S105 to be closer to the infinity end than the infinite distance end position or to the near end position than the close end position. It is determined whether or not Here, the infinite distance end position shown in FIG. 2 is a lens position capable of focusing on an object existing at infinity when the lens position of the focus lens 32 is this infinite distance end position. On the other hand, since the subject does not exist at infinity rather than infinity, the pixel array data is obtained when the drive position of the focus lens 32 indicated by the defocus amount is a position at infinity rather than the infinity end. When the focus lens 32 is driven to the drive position of the focus lens 32 indicated by the defocus amount, the focus may be blurred. Further, the closest end position shown in FIG. 2 is a lens position capable of focusing on the subject existing at the shortest photographing distance of the lens barrel 3 when the lens position of the focus lens 32 is this closest end position. Therefore, when the drive position of the focus lens 32 indicated by the defocus amount is at a position closer to the end than the close end, similarly, there is a possibility of erroneous detection of the in-focus position due to noise or the like generated in pixel column data. When the focus lens 322 is driven to the drive position of the focus lens 32 indicated by the defocus amount, the focus may be blurred. Therefore, in the present embodiment, the defocus amount is indicated to prevent the focus lens 32 from being driven to a position on the infinity side with respect to the infinity position or to a position closer to the position than the near end position. It is determined whether or not the drive position of the focus lens 32 is at a position on the infinity side of the infinity end position or on the near side of the close end position. Then, when the drive position of the focus lens 32 indicated by the defocus amount is at the infinity side of the infinite distance end position or at the close position side of the close end position, In order to prevent defocusing due to erroneous detection, the operation of the camera 1 is ended without driving the focus lens 32. On the other hand, when the drive position of the focus lens 32 indicated by the defocus amount is not at a position on the infinity side of the infinity position and at a position on the near side of the near end position, the process proceeds to step S109. .

ステップS109では、デフォーカス量に基づく合焦駆動が行なわれる。具体的には、カメラ制御部21により、ステップS105で算出したデフォーカス量から、フォーカスレンズ32を合焦位置まで駆動させるために必要となるレンズ駆動量の算出が行なわれ、算出されたレンズ駆動量が、レンズ制御部37を介して、レンズ駆動モータ36に送出される。そして、レンズ駆動モータ36は、カメラ制御部21により算出されたレンズ駆動量に基づいて、フォーカスレンズ32を合焦位置まで駆動させる。   In step S109, focusing drive based on the defocus amount is performed. Specifically, the lens drive amount required to drive the focus lens 32 to the in-focus position is calculated by the camera control unit 21 from the defocus amount calculated in step S105, and the lens drive calculated. The amount is sent to the lens drive motor 36 via the lens control unit 37. Then, the lens drive motor 36 drives the focus lens 32 to the in-focus position based on the lens drive amount calculated by the camera control unit 21.

一方、ステップS107で、デフォーカス量を算出できなかった場合には、ステップS110に進み、スキャン動作が実行される。ここで、スキャン動作とは、フォーカスレンズ駆動モータ36により、所定のスキャン範囲においてフォーカスレンズ32をスキャン駆動させながら、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出、および焦点評価値の算出を、所定の間隔で同時に行い、これにより、位相差検出方式による合焦位置の検出と、コントラスト検出方式による合焦位置の検出とを、所定の間隔で、同時に実行する動作である。   On the other hand, when the defocus amount can not be calculated in step S107, the process proceeds to step S110, and the scan operation is performed. Here, with the scan operation, while the focus lens drive motor 36 scans and drives the focus lens 32 in a predetermined scan range, the camera control unit 21 calculates the defocus amount by the phase difference detection method, and the focus evaluation value Is calculated simultaneously at a predetermined interval, whereby the detection of the in-focus position by the phase difference detection method and the detection of the in-focus position by the contrast detection method are simultaneously performed at the predetermined interval.

具体的には、カメラ制御部21は、レンズ制御部37にスキャン駆動開始指令を送出し、レンズ制御部37は、カメラ制御部21からの指令に基づき、フォーカスレンズ駆動モータ36を駆動させ、フォーカスレンズ32を光軸L1に沿ってスキャン駆動させる。なお、スキャン駆動を行う方向は特に限定されず、フォーカスレンズ32のスキャン駆動を、無限端から至近端に向かって行なってもよいし、あるいは、至近端から無限端に向かって行なってもよい。   Specifically, the camera control unit 21 sends a scan drive start command to the lens control unit 37, and the lens control unit 37 drives the focus lens drive motor 36 based on the command from the camera control unit 21 to perform focusing. The lens 32 is scan driven along the optical axis L1. The direction in which the scan drive is performed is not particularly limited, and the scan drive of the focus lens 32 may be performed from the infinite end to the close end, or even from the close end to the infinity end. Good.

そして、カメラ制御部21は、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の焦点検出画素222a,222bから一対の像に対応した一対の画素列データの読み出しを行い、これに基づき、位相差検出方式により、デフォーカス量の算出および算出されたデフォーカス量の信頼性の評価を行うとともに、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の撮像画素221から画素出力の読み出しを行い、これに基づき、焦点評価値を算出し、これにより、異なるフォーカスレンズ位置における焦点評価値を取得することで、コントラスト検出方式により合焦位置の検出を行う。   Then, the camera control unit 21 reads out a pair of pixel column data corresponding to a pair of images from the focus detection pixels 222a and 222b of the image sensor 22 at predetermined intervals while driving the focus lens 32. The defocus amount is calculated and the reliability of the calculated defocus amount is evaluated by the phase difference detection method, and the pixel output from the imaging pixel 221 of the imaging element 22 is performed at predetermined intervals while driving the focus lens 32. The focus evaluation value is calculated based on this, and the focus position is detected by the contrast detection method by acquiring the focus evaluation value at different focus lens positions.

ステップS111では、カメラ制御部21により、ステップS110のスキャン動作を行なった結果、合焦位置が検出できたか否かの判断が行われる。合焦位置が検出できた場合は、ステップS112に進み、合焦位置までフォーカスレンズ32の合焦駆動が行われる。一方、フォーカスレンズ32の駆動範囲の全域について、スキャン駆動しても合焦位置を検出できなかった場合には、合焦不能と判断して、このカメラ1の動作を終了する。   In step S111, as a result of performing the scanning operation of step S110, the camera control unit 21 determines whether the in-focus position has been detected. If the in-focus position can be detected, the process proceeds to step S112, and in-focus driving of the focus lens 32 is performed to the in-focus position. On the other hand, if the in-focus position can not be detected in the entire drive range of the focus lens 32 even by scan driving, it is determined that the in-focus is not possible, and the operation of the camera 1 is ended.

以上のように、第1実施形態においては、位相差により光学系の焦点状態を検出する際に、図2に示すように、フォーカスレンズ32の現在位置と、ソフトリミット範囲のオーバー無限遠端位置およびオーバー至近端位置との位置関係に基づいて、一対の画素列データをシフトさせるシフト範囲を設定する。そして、設定シフト範囲内において一対の画素列データをシフトさせて一対の画素列データの相関演算を行うことで、一対の画素列データをシフト可能な全範囲でシフトさせて一対の画素列データの相関演算を行う場合と比べて、一対の画素列データの相関演算を行う演算量を少なくすることができ、その結果、相関演算における演算時間を短縮することができるとともに、一対の画素列データに生じたノイズなどによる合焦位置の誤検出を抑制することができる。   As described above, in the first embodiment, when the focus state of the optical system is detected by the phase difference, as shown in FIG. 2, the current position of the focus lens 32 and the over infinity end position of the soft limit range. And a shift range in which the pair of pixel string data is shifted is set based on the positional relationship with the over-close end position. Then, the pair of pixel string data is shifted within the set shift range to perform the correlation operation on the pair of pixel string data, thereby shifting the pair of pixel string data in the entire shiftable range, and Compared to the case of performing the correlation operation, the amount of operation for performing the correlation operation of the pair of pixel string data can be reduced, and as a result, the operation time in the correlation operation can be shortened and It is possible to suppress false detection of the in-focus position due to the generated noise or the like.

特に、本実施形態では、図6および図7に示すように、撮像素子22の受光面に焦点検出画素222a,222bを備えており、各焦点検出画素222a,222bは、従来のラインセンサ50と比べて、画素の数が多いため、一対の画素列データのデータ容量は大きくなる。このような場合でも、本実施形態では、一対の画素列データをシフトさせるシフト範囲を設定し、該シフト範囲で一対の画素列データの相関演算を行うことで、一対の画素列データの相関演算を行う演算量を少なくすることができ、光学系の焦点状態に要する時間を短縮することができる。   In particular, in the present embodiment, as shown in FIG. 6 and FIG. 7, focus detection pixels 222 a and 222 b are provided on the light receiving surface of the imaging device 22, and each focus detection pixel 222 a and 222 b corresponds to the conventional line sensor 50. In comparison, since the number of pixels is large, the data capacity of the pair of pixel column data is large. Even in such a case, in the present embodiment, a shift range for shifting the pair of pixel string data is set, and the correlation operation of the pair of pixel string data is performed in the shift range to perform the correlation operation of the pair of pixel string data. The amount of computations to be performed can be reduced, and the time required for the focus state of the optical system can be shortened.

また、本実施形態では、デフォーカス量が示すフォーカスレンズ32の駆動位置が、無限遠端位置よりも無限遠側、または、至近端位置よりも至近側の位置となる場合には、フォーカスレンズ32を駆動させないように制御を行う。ここで、図2に示す無限遠端位置は、フォーカスレンズ32のレンズ位置がこの無限遠端位置である場合に、無限遠に存在する被写体に合焦可能なレンズ位置である一方、被写体は無限遠よりも無限遠側に存在することはないため、デフォーカス量が示すフォーカスレンズ32の駆動位置が無限遠端よりも無限遠側の位置である場合には、画素列データに生じたノイズなどによる合焦位置の誤検出の可能性があり、デフォーカス量が示すフォーカスレンズ32の駆動位置までフォーカスレンズ32を駆動させた場合に、ピントがぼけてしまう場合がある。また、デフォーカス量が示すフォーカスレンズ32の駆動位置が至近端よりも至近側の位置である場合も同様である。これに対して、本実施形態では、デフォーカス量が示すフォーカスレンズ32の位置が、無限遠端位置よりも無限遠側、または、至近端位置よりも至近側である場合には、フォーカスレンズ32の駆動を禁止することで、合焦位置の誤検出によりフォーカスレンズ32が合焦位置ではないレンズ位置に駆動してしまい、その結果、ピントがぼけてしまうことを有効に防止することができる。   Further, in the present embodiment, when the drive position of the focus lens 32 indicated by the defocus amount is at the infinity side of the infinity end position or at the close side of the close end position, the focus lens Control is performed so as not to drive 32. Here, when the lens position of the focusing lens 32 is at this infinite distance position, the infinite distance end position shown in FIG. If the drive position of the focus lens 32 indicated by the defocus amount is at a position on the infinity side of the infinity end because noise does not exist on the infinity side of far, noise etc. generated in the pixel column data In the case where the focus lens 32 is driven to the drive position of the focus lens 32 indicated by the defocus amount, the focus may be blurred. The same applies to the case where the drive position of the focus lens 32 indicated by the defocus amount is a position closer to the near end. On the other hand, in the present embodiment, when the position of the focus lens 32 indicated by the defocus amount is on the infinity side of the infinity end position or on the near side of the close end position, the focus lens By prohibiting the driving of 32, the focus lens 32 is driven to a lens position which is not the in-focus position due to an erroneous detection of the in-focus position, and as a result, it is possible to effectively prevent defocusing. .

≪第2実施形態≫
次に、本発明の第2実施形態を図面に基づいて説明する。第2実施形態では、図1に示すカメラ1において、図11に示すように、カメラ1が動作すること以外は、第1実施形態と同様である。以下において、図11を参照して、第2実施形態に係るカメラ1の動作について説明する。なお、図11は、第2実施形態に係るカメラ1の動作を示すフローチャートである。
Second Embodiment
Next, a second embodiment of the present invention will be described based on the drawings. The second embodiment is the same as the first embodiment except that the camera 1 operates as shown in FIG. 11 in the camera 1 shown in FIG. Hereinafter, the operation of the camera 1 according to the second embodiment will be described with reference to FIG. FIG. 11 is a flowchart showing the operation of the camera 1 according to the second embodiment.

まず、ステップS201では、第1実施形態のステップS101と同様に、シャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれ、シャッターレリーズボタンが半押しされた場合には、ステップS202に進み、レンズ情報の取得が行われる。一方、シャッターレリーズボタンが半押しされていない場合は、ステップS201で待機する。   First, in step S201, as in step S101 of the first embodiment, it is determined whether the shutter release button has been pressed halfway (the first switch SW1 has been turned on), and the shutter release button has been pressed halfway. In step S202, acquisition of lens information is performed. On the other hand, when the shutter release button has not been pressed halfway, the process waits in step S201.

ステップS203では、ステップS202で取得したレンズ情報に基づいて、後述するステップS205において一対の画素列データの相関演算を行う際に用いられるシフト範囲の設定が行われる。ここで、ステップS202で取得したレンズ情報には、フォーカスレンズ32の現在位置、無限端位置、および至近端位置の位置情報が含まれており、カメラ制御部21は、無限遠端位置から至近端位置までのフォーカスレンズ32の駆動範囲に対応するシフト範囲を設定する。ここで、図12は、第2実施形態におけるシフト範囲を説明するための図である。カメラ制御部21は、フォーカスレンズ32の現在位置と無限遠端位置との距離(レンズ駆動量)を像面変化量に変換し、像面変化量をシフト量に変換することで、図12に示すように、無限遠端位置に対応するシフト量Sft’を算出する。同様に、カメラ制御部21は、フォーカスレンズ32の現在位置と至近端位置との距離(レンズ駆動量)を像面変化量に変換し、該像面変化量をシフト量に変換することで、図12に示すように、至近端位置に対応するシフト量Sft’を算出する。さらに、カメラ制御部21は、図12に示すように、無限遠端位置に対応するシフト量Sft’に検出マージンΔSを加えたシフト量を無限遠側シフト量Sr’として算出するとともに、至近端位置に対応するシフト量Sft’に検出マージンΔSを加えたシフト量を至近側シフト量Sr’として算出する。そして、カメラ制御部21は、無限遠側シフト量Sr’と至近側シフト量Sr’とが得られる範囲を、シフト範囲として設定する。 In step S203, based on the lens information acquired in step S202, setting of a shift range used when performing correlation calculation of a pair of pixel string data in step S205 described later is performed. Here, the lens information acquired in step S202 includes position information of the current position, the infinite end position, and the near end position of the focus lens 32, and the camera control unit 21 determines from the infinity end position. A shift range corresponding to the drive range of the focus lens 32 up to the near end position is set. Here, FIG. 12 is a diagram for explaining the shift range in the second embodiment. The camera control unit 21 converts the distance between the current position of the focus lens 32 and the infinite distance end position (lens driving amount) into an image plane change amount, and converts the image plane change amount into a shift amount, as shown in FIG. As shown, the shift amount Sft 1 ′ corresponding to the infinite distance end position is calculated. Similarly, the camera control unit 21 converts the distance between the current position of the focus lens 32 and the near end position (lens driving amount) into an image plane change amount, and converts the image plane change amount into a shift amount. As shown in FIG. 12, the shift amount Sft 2 ′ corresponding to the closest end position is calculated. Further, as shown in FIG. 12, the camera control unit 21 calculates a shift amount obtained by adding the detection margin ΔS to the shift amount Sft 1 ′ corresponding to the infinite distance end position as the infinity distance shift amount Sr 1 ′. A shift amount obtained by adding the detection margin ΔS to the shift amount Sft 2 ′ corresponding to the closest end position is calculated as the closest shift amount Sr 2 ′. Then, the camera control unit 21 sets, as a shift range, a range in which the infinite distance shift amount Sr 1 ′ and the close shift amount Sr 2 ′ can be obtained.

そして、ステップS204では、焦点検出画素222a,222bにより出力された一対の画素列データの取得が行われ、ステップS205では、ステップS204で取得した一対の画素列データの相関演算が行われる。なお、第2実施形態では、ステップS203で設定されたシフト範囲内において一対の画素列データをシフトさせながら、一対の画素列データの相関量を算出し、算出した相関量が極小となるシフト量を算出する。   Then, in step S204, acquisition of the pair of pixel array data output by the focus detection pixels 222a and 222b is performed, and in step S205, correlation calculation of the pair of pixel array data acquired in step S204 is performed. In the second embodiment, while shifting the pair of pixel string data within the shift range set in step S203, the correlation amount of the pair of pixel string data is calculated, and the calculated correlation amount is minimized. Calculate

ステップS206,S207では、第1実施形態のステップS106,S107と同様に、ステップS205で算出されたシフト量に基づいて、デフォーカス量の算出が行われ(ステップS206)、デフォーカス量が算出できたか否かの判断が行われる(ステップS207)。そして、デフォーカス量が算出できた場合には、測距可能と判断され、ステップS208に進み、デフォーカス量に基づく合焦駆動が行なわれる。一方、デフォーカス量を算出できなかった場合には、スキャン動作を行うために、ステップS209に進み、スキャン動作が行われる。   In steps S206 and S207, as in steps S106 and S107 in the first embodiment, the defocus amount is calculated based on the shift amount calculated in step S205 (step S206), and the defocus amount can be calculated. It is determined whether or not it is (step S207). Then, if the defocus amount can be calculated, it is determined that distance measurement is possible, and the process proceeds to step S208, and focusing drive based on the defocus amount is performed. On the other hand, when the defocus amount can not be calculated, the process proceeds to step S209 to perform the scan operation, and the scan operation is performed.

そして、スキャン動作を行なった結果、合焦位置が検出できた場合には(ステップS210=Yes)、合焦位置までフォーカスレンズ32の合焦駆動が行われ(ステップS211)、一方、合焦位置を検出できなかった場合には(ステップS210=No)、合焦不能と判断して、カメラ1の動作を終了する。   When the in-focus position is detected as a result of the scan operation (step S210 = Yes), the in-focus drive of the focus lens 32 is performed to the in-focus position (step S211). Is not detected (step S210 = No), it is determined that focusing is impossible, and the operation of the camera 1 is ended.

以上のように、第2実施形態では、位相差により光学系の焦点状態を検出する際に、図2に示すように、フォーカスレンズ32の現在位置と、駆動制御範囲の無限遠端位置および至近端位置との位置関係に基づいて、一対の画素列データをシフトさせるシフト範囲を設定する。そして、設定したシフト範囲内で一対の画素列データをシフトさせながら、一対の画素列データの相関量を演算し、シフト範囲内で一対の画素列データの相関量が極小となるシフト量に基づいて、フォーカスレンズ32を無限遠端から至近端までの駆動制御範囲内で駆動させる。これにより、第2実施形態では、一対の画素列データの相関演算にかかる時間をより短縮することができるとともに、不要な演算を行わないことで、画素列データに含まれるノイズなどによる合焦位置の誤検出を有効に防止することができ、合焦位置の誤検出によりフォーカスレンズ32が合焦位置ではないレンズ位置に駆動してしまい、その結果、ピントがぼけてしまうことを有効に防止することができる。   As described above, in the second embodiment, when the focus state of the optical system is detected based on the phase difference, as shown in FIG. 2, the current position of the focus lens 32, the infinite distance end position of the drive control range, and Based on the positional relationship with the near end position, a shift range in which the pair of pixel string data is shifted is set. Then, the amount of correlation between the pair of pixel string data is calculated while shifting the pair of pixel string data within the set shift range, and the amount of correlation between the pair of pixel string data within the shift range is minimized. Thus, the focus lens 32 is driven within the drive control range from the infinity end to the close end. Thereby, in the second embodiment, the time required for the correlation calculation of the pair of pixel string data can be further shortened, and by not performing unnecessary calculations, the in-focus position due to noise or the like included in the pixel string data False detection of the focus position can be effectively prevented, and the focus lens 32 is driven to a lens position which is not the in-focus position due to the erroneous detection of the in-focus position, and as a result, defocusing is effectively prevented. be able to.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiments described above are described to facilitate the understanding of the present invention, and are not described to limit the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents that fall within the technical scope of the present invention.

たとえば、上述した第1実施形態では、一対の画素列データの相関量が極小となるシフト量に基づいてデフォーカス量を算出した場合に、算出したデフォーカス量が示すフォーカスレンズ32の駆動位置が、無限遠端よりも無限遠側の位置、または至近端よりも至近端側の位置である場合には、フォーカスレンズ32の駆動を禁止する構成を例示したが、この構成に限定されず、たとえば、デフォーカス量が示すフォーカスレンズ32の駆動位置が無限遠端よりも無限遠側の位置である場合には、フォーカスレンズ32の駆動を禁止し、一方、デフォーカス量が示すフォーカスレンズ32の駆動位置が至近端よりも至近端側の位置である場合には、フォーカスレンズ32を至近端を超えて駆動させる構成としてもよい。たとえば同じ種別のレンズ鏡筒3でもレンズ鏡筒3の個体差によっては、予め設定された至近端よりも至近側の位置で被写体に合焦することができる場合があり、このような場合に、至近端位置よりも至近側まで駆動させることで、被写体にピントを合わせることができる。なお、この場合も、無限遠よりも無限側に被写体は存在しないため、デフォーカス量が示すフォーカスレンズ32の駆動位置が無限遠端よりも無限遠側の位置にある場合には、フォーカスレンズ32を無限遠端位置を越えて駆動することは禁止する。   For example, in the first embodiment described above, when the defocus amount is calculated based on the shift amount at which the correlation amount of the pair of pixel string data is minimized, the drive position of the focus lens 32 indicated by the calculated defocus amount is In the case of a position closer to infinity than the end, or a position closer to the end than the near end, the configuration for prohibiting the drive of the focus lens 32 has been illustrated, but the present invention is not limited to this configuration. For example, when the drive position of the focus lens 32 indicated by the defocus amount is at a position closer to infinity than the infinite distance end, the drive of the focus lens 32 is prohibited, while the focus lens 32 indicated by the defocus amount is When the drive position of the lens is closer to the near end than the near end, the focus lens 32 may be driven beyond the near end. For example, depending on the individual differences of the lens barrel 3 even in the lens barrel 3 of the same type, it may be possible to focus on the subject at a position closer to the preset near end than in such a case The subject can be brought into focus by driving the camera to the near side of the near end position. Also in this case, since there is no subject on the infinity side than at infinity, if the drive position of the focus lens 32 indicated by the defocus amount is at the infinity side of the infinity end, the focus lens 32 is It is prohibited to drive over the infinite end position.

同様に、上述した第2実施形態では、図12に示すように、無限遠端位置に対応するシフト量Dft’に検出マージンΔSを加えた無限遠側シフト量Sr’および至近端位置に対応するシフト量Dft’に検出マージンΔSを加えた至近側シフト量Sr’が得られるシフト量の範囲を、シフト範囲として設定しているが、この構成に限定されず、たとえば、図13に示すように、至近側においては、オーバー至近端位置に対応するシフト量Dftに検出マージンΔSを加えた至近側シフト量Srを算出し、無限遠側シフト量Sr’と至近側シフト量Srとが得られるシフト量の範囲を、シフト範囲に設定する構成としてもよい。この場合も、予め設定された至近端よりも至近側の位置で被写体に合焦できるレンズ鏡筒3を装着した場合に、フォーカスレンズ32を至近端位置よりも至近側まで駆動させることができ、予め設定された至近端よりも至近側の位置で被写体に合焦することができる。 Similarly, in the second embodiment described above, as shown in FIG. 12, an infinite distance shift amount Sr 1 'and a near end position where the detection margin ΔS is added to the shift amount Dft 1 ' corresponding to the infinite distance end position Although the range of the shift amount in which the closest shift amount Sr 2 ′ obtained by adding the detection margin ΔS to the shift amount Dft 2 ′ corresponding to the shift amount is set as the shift range, it is not limited to this configuration. As shown in 13, on the near side, the near side shift amount Sr 2 is calculated by adding the detection margin ΔS to the shift amount Dft 2 corresponding to the over near end position, and the infinity side shift amount Sr 1 ′ The range of the shift amount in which the side shift amount Sr 2 is obtained may be set as the shift range. Also in this case, when the lens barrel 3 capable of focusing on the subject at a position closer to the near end than the preset close end is mounted, the focus lens 32 can be driven to the near side from the close end position. It is possible to focus on the subject at a position nearer than the preset near end.

なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 according to the embodiment described above is not particularly limited. For example, the present invention may be applied to other optical devices such as a digital video camera, a lens-integrated digital camera, and a camera for a mobile phone.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 digital camera 2 camera main body 21 camera control part 22 imaging element 221 imaging pixel 222a, 222b focus detection pixel 3 lens barrel 32 focus lens 36 focus lens drive motor 37 lens control section

Claims (8)

複数の第1焦点検出画素から出力された信号による第1データと、複数の第2焦点検出画素から出力された信号による第2データとを相対的にシフトさせて前記第1データと前記第2データとの相関値を算出して、焦点調節光学系を有する光学系の焦点状態を検出する焦点検出部と、
前記焦点検出部の焦点検出結果により、第1範囲で焦点調節光学系を駆動制御する制御部と、を備え、
前記焦点検出部は、前記光学系から前記第1範囲の情報を取得し、前記第1範囲より広い第2範囲から、前記第1データと前記第2データを相対的にシフトするシフト範囲を求め、前記シフト範囲で前記相関値を算出し、
前記制御部は、算出された前記相関値に基づいて前記第1範囲で前記焦点調節光学系を駆動制御する焦点調節装置。
The first data and the second data are shifted by relatively shifting the first data of the signals output from the plurality of first focus detection pixels and the second data of the signals output from the plurality of second focus detection pixels. A focus detection unit that detects a focus state of an optical system having a focusing optical system by calculating a correlation value with data;
And a controller configured to drive and control a focusing optical system in a first range according to the focus detection result of the focus detection unit.
The focus detection unit obtains information of the first range from the optical system, and obtains a shift range in which the first data and the second data are relatively shifted from a second range wider than the first range. Calculating the correlation value in the shift range,
The control unit is configured to drive and control the focusing optical system in the first range based on the calculated correlation value.
請求項1に記載の焦点調節装置であって、
前記制御部は、前記相関値に基づいて前記焦点調節光学系を駆動させた場合に、前記焦点調節光学系が前記第1範囲よりも無限遠側に駆動することとなる場合、または、前記焦点調節光学系が前記第1範囲よりも至近側に駆動することとなる場合には、前記焦点調節光学系の駆動を禁止する焦点調節装置。
The focusing device according to claim 1, wherein
When the control unit drives the focusing optical system based on the correlation value, the control optical system drives the focusing optical system closer to the infinity than the first range, or A focusing device that prohibits driving of the focusing optical system when the adjusting optical system is driven closer to the first range than the first range.
請求項1に記載の焦点調節装置であって、
前記制御部は、前記相関値に基づいて前記焦点調節光学系を駆動させた場合に、前記焦点調節光学系が前記第1範囲よりも無限遠側に駆動することとなる場合には、前記焦点調節光学系の駆動を禁止し、前記焦点調節光学系が前記第1範囲よりも至近側に駆動することとなる場合には、前記焦点調節光学系の駆動を許可する焦点調節装置。
The focusing device according to claim 1, wherein
When the control unit drives the focusing optical system based on the correlation value, the control unit drives the focusing optical system to an infinite distance side of the first range. A focusing device which prohibits driving of the adjusting optical system and permits driving of the focusing optical system when the focusing optical system is to be driven closer to the first range than the first range.
請求項1〜3のいずれかに記載の焦点調節装置において、
前記焦点検出部は、
前記相関値の極値が得られるシフト量に基づいて前記光学系の像面のずれ量を算出し、
前記相関値の極値が得られるシフト量が、前記第2範囲内のいずれかのレンズ位置に対応するシフト量となる前記シフト範囲において、前記第1データ及び前記第2データの相関演算を行う焦点調節装置。
The focusing device according to any one of claims 1 to 3.
The focus detection unit is
The amount of displacement of the image plane of the optical system is calculated based on the amount of shift from which the extremum of the correlation value is obtained,
The first data and the second data are correlated in the shift range where the shift amount at which the extremum of the correlation value is obtained is the shift amount corresponding to any lens position within the second range. Focusing device.
請求項4に記載の焦点調節装置において、
前記焦点検出部は、前記第2範囲の端部に対応するシフト量において前記相関値の極値が得られるように、前記第2範囲を超えた範囲に対応する前記シフト範囲において、前記第1データ及び前記第2データの相関演算を行う焦点調節装置。
In the focusing device according to claim 4,
The focus detection unit is configured to set the first range in the shift range corresponding to a range beyond the second range such that an extremum of the correlation value is obtained in a shift amount corresponding to an end of the second range. A focusing device for performing correlation calculation of data and the second data;
請求項1〜5のいずれかに記載の焦点調節装置において、
前記光学系による像を撮像する撮像部をさらに備え、
前記第1焦点検出画素及び前記第2焦点検出画素を有する受光センサは、前記撮像部の受光面に備えられている焦点調節装置。
In the focusing device according to any one of claims 1 to 5,
It further comprises an imaging unit for capturing an image by the optical system,
The light receiving sensor which has a said 1st focus detection pixel and a said 2nd focus detection pixel is a focus adjustment apparatus with which the light reception surface of the said imaging part is equipped.
請求項1〜6のいずれかに記載の焦点調節装置において、
前記第1焦点検出画素は第1方向に配置され、
前記第2焦点検出画素は前記1方向に配置された焦点調節装置。
In the focusing device according to any one of claims 1 to 6,
The first focus detection pixel is disposed in a first direction,
The focusing device according to claim 1, wherein the second focus detection pixel is disposed in the one direction.
請求項1〜6のいずれかに記載の焦点調節装置を備えた撮像装置。   An imaging apparatus comprising the focusing device according to any one of claims 1 to 6.
JP2019020809A 2019-02-07 2019-02-07 Focus adjustment device and imaging device Pending JP2019095810A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020809A JP2019095810A (en) 2019-02-07 2019-02-07 Focus adjustment device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020809A JP2019095810A (en) 2019-02-07 2019-02-07 Focus adjustment device and imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017032710A Division JP6477745B2 (en) 2017-02-23 2017-02-23 Focus adjustment device and imaging device

Publications (2)

Publication Number Publication Date
JP2019095810A true JP2019095810A (en) 2019-06-20
JP2019095810A5 JP2019095810A5 (en) 2019-07-25

Family

ID=66971649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020809A Pending JP2019095810A (en) 2019-02-07 2019-02-07 Focus adjustment device and imaging device

Country Status (1)

Country Link
JP (1) JP2019095810A (en)

Similar Documents

Publication Publication Date Title
WO2013035433A1 (en) Image capturing device
JP2013025144A (en) Focus adjustment device and imaging apparatus
JP5831070B2 (en) Imaging device
JP5966267B2 (en) Focus adjustment device and imaging device
JP5845660B2 (en) Focus detection apparatus and imaging apparatus
JP6399140B2 (en) Imaging device
JP2013003486A (en) Focus detector and imaging apparatus
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP6183482B2 (en) Focus detection apparatus and imaging apparatus
JP6098690B2 (en) Lens barrel and camera body
JP6098097B2 (en) Focus adjustment device, focus detection device, and imaging device
JP6477745B2 (en) Focus adjustment device and imaging device
JP5821934B2 (en) Focus detection device, camera body, and camera
JP2019095810A (en) Focus adjustment device and imaging device
JP6035728B2 (en) Focus adjustment device and imaging device
JP2012226247A (en) Focus detector and imaging apparatus
JP5966283B2 (en) Camera body and camera
JP2013011761A (en) Focus adjustment device and imaging apparatus having the same
JP5423734B2 (en) Lens barrel and imaging device
JP6477576B2 (en) Imaging device
JP2014052653A (en) Focus adjustment device and imaging device provided with the same
JP6127730B2 (en) Imaging device
JP5862087B2 (en) Focus adjustment device and imaging device
JP5545278B2 (en) Lens adapter and camera body
JP5961979B2 (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200331