JP2019095806A - Imaging apparatus and interchangeable lens - Google Patents

Imaging apparatus and interchangeable lens Download PDF

Info

Publication number
JP2019095806A
JP2019095806A JP2019020773A JP2019020773A JP2019095806A JP 2019095806 A JP2019095806 A JP 2019095806A JP 2019020773 A JP2019020773 A JP 2019020773A JP 2019020773 A JP2019020773 A JP 2019020773A JP 2019095806 A JP2019095806 A JP 2019095806A
Authority
JP
Japan
Prior art keywords
value
aperture value
imaging
focus
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019020773A
Other languages
Japanese (ja)
Inventor
宏明 高原
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019020773A priority Critical patent/JP2019095806A/en
Publication of JP2019095806A publication Critical patent/JP2019095806A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus capable of excellently photographing an image.SOLUTION: The imaging apparatus includes an imaging part which captures the image by an optical system having a diaphragm, a detection part which detects a deviation amount between a focusing position where the image by the optical system is focused and the imaging part on the basis of a signal outputted from the imaging part, and a control part which controls the diaphragm value of the diaphragm. The control part controls a second diaphragm value during performing imaging by the imaging part, for the detection part to detect the deviation amount to a first diaphragm value, when the first diaphragm value during performing imaging by the imaging part, to record the signal as image data is a first threshold or less.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置および交換レンズに関する。   The present invention relates to an imaging device and an interchangeable lens.

従来より、撮像素子に備えられた焦点検出画素の出力に基づいて、光学系の像面のずれ量を検出することで、光学系の焦点状態を検出する撮像装置が知られている。このような撮像装置として、たとえば、焦点検出を行う際にケラレが発生することを防止するために、光学系の絞り値を所定の絞り値よりも小さい値(開放側の値)に設定し、焦点検出を行う方法が知られている(たとえば、特許文献1)。   2. Description of the Related Art Conventionally, there has been known an image pickup apparatus which detects a focus state of an optical system by detecting a shift amount of an image plane of an optical system based on an output of focus detection pixels provided in an image pickup device. As such an imaging device, for example, in order to prevent occurrence of vignetting when performing focus detection, the aperture value of the optical system is set to a value smaller than a predetermined aperture value (value on the open side), A method for performing focus detection is known (e.g., Patent Document 1).

特開2010−217618号公報JP, 2010-217618, A

しかしながら、従来技術では、画像を本撮影するために、光学系の絞り値を、焦点検出時の絞り値から撮影絞り値へと変更した場合に、絞り値の変更に伴って光学系の像面が移動してしまい、その結果、被写体にピントの合った画像が撮影できない場合があった。   However, in the prior art, when the aperture value of the optical system is changed from the aperture value at the time of focus detection to the imaging aperture value in order to capture an image in real time, the image plane of the optical system As a result, there was a case where it was not possible to shoot an image in which the subject was in focus.

本発明が解決しようとする課題は、画像を良好に撮影することができる撮像装置又は交換レンズを提供することである。   The problem to be solved by the present invention is to provide an imaging device or an interchangeable lens capable of capturing an image well.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above-mentioned subject by the following solution means. Although the following description will be made with reference to the reference numerals corresponding to the drawings showing the embodiments of the present invention, these reference numerals are for the purpose of facilitating the understanding of the present invention and are not intended to limit the present invention. .

[1]本発明に係る撮像装置は、絞りを有する光学系による像を撮像して信号を出力する撮像部と、前記撮像部から出力された信号に基づいて、前記光学系による像が合焦する合焦位置と前記撮像部とのずれ量を検出する検出部と、前記絞りの絞り値を制御する制御部と、を備え、前記制御部は、前記信号を画像データとして記録するために前記撮像部が撮像を行う間の第1絞り値が第1閾値以下であるとき、前記検出部がずれ量を検出するために前記撮像部が撮像を行う間の第2絞り値を前記第1絞り値に制御する。
[2]上記撮像装置に係る発明において、前記制御部は、前記第1絞り値が前記第1閾値より大きいとき、前記第2絞り値を前記第1閾値に制御するように構成できる。
[3]上記撮像装置に係る発明において、前記制御部は、前記第1絞り値が前記第1閾値より小さい第2閾値以上であるとき、前記第2絞り値を前記第1絞り値に制御するように構成できる。
[4]上記撮像装置に係る発明において、前記制御部は、前記第1絞り値が前記第1閾値より大きく、前記信号に基づく画像が適正露出にならないとき、前記第1閾値以下、前記第2閾値以上の範囲で前記第2絞り値を制御するように構成できる。
[5]上記撮像装置に係る発明において、前記制御部は、前記第1絞り値が前記第1閾値以下、前記第2閾値以上であり、前記信号に基づく画像が適正露出にならないとき、前記第1絞り値以下、前記第2閾値以上の範囲で前記第2絞り値を制御するように構成できる。
[6]上記撮像装置に係る発明において、前記制御部は、前記第1絞り値が前記第2閾値以下であるとき、前記第2絞り値を前記第1絞り値に制御するように構成できる。
[7]上記撮像装置に係る発明において、前記光学系を有する交換レンズを装着可能な装着部と、交換レンズごとに前記第2閾値を記憶する記憶部と、を備えるように構成できる。
[8]上記撮像装置に係る発明において、前記光学系と、前記第2閾値を記憶する記憶部とを有する交換レンズを装着可能な装着部と、前記交換レンズから、前記第2閾値の情報を受信する受信部と、を備えるように構成できる。
[9]本発明に係る交換レンズは、上記撮像装置に装着可能な交換レンズであって、前記光学系と、前記第2閾値を記憶する記憶部と、前記第2閾値の情報を前記撮像装置に送信する送信部と、を備える。
[1] An image pickup apparatus according to the present invention is an image pickup section for picking up an image by an optical system having a diaphragm and outputting a signal, and an image by the optical system being focused based on a signal outputted from the image pickup section. A detection unit that detects an amount of deviation between the focusing position and the imaging unit; and a control unit that controls the aperture value of the aperture, the control unit recording the signal as image data. When the first aperture value during imaging by the imaging unit is less than or equal to the first threshold value, the second aperture value during imaging by the imaging unit is detected by the first aperture so that the detection unit detects the amount of displacement. Control to value.
[2] In the invention according to the imaging device, the control unit can be configured to control the second aperture value to the first threshold value when the first aperture value is larger than the first threshold value.
[3] In the invention according to the imaging device, the control unit controls the second aperture value to the first aperture value when the first aperture value is equal to or greater than a second threshold value smaller than the first threshold value. It can be configured as
[4] In the invention relating to the imaging device, the control unit may set the first aperture value or less, the second threshold value, or the second threshold value when the image based on the signal does not have a proper exposure when the first aperture value is larger than the first threshold. It can be configured to control the second aperture value in the range above the threshold value.
[5] In the invention according to the above-mentioned imaging device, the control unit is configured to set the first aperture value to a value equal to or less than the first threshold and equal to or more than the second threshold, and the image based on the signal is not properly exposed. The second aperture value can be controlled within a range of 1 aperture value or less and the second threshold value or more.
[6] In the invention according to the imaging device, the control unit can be configured to control the second aperture value to the first aperture value when the first aperture value is equal to or less than the second threshold.
[7] In the invention relating to the imaging device described above, it can be configured to include a mounting unit to which the interchangeable lens having the optical system can be mounted, and a storage unit that stores the second threshold for each interchangeable lens.
[8] In the invention relating to the above imaging apparatus, the information on the second threshold value is provided from the mounting unit on which the interchangeable lens having the optical system and the storage unit storing the second threshold can be mounted, and the interchangeable lens. And a receiving unit for receiving.
[9] The interchangeable lens according to the present invention is an interchangeable lens that can be mounted on the above-described imaging device, and the imaging device is the optical system, a storage unit that stores the second threshold, and information of the second threshold. And a transmitter for transmitting the

本発明によれば、画像を良好に撮影することができる。   According to the present invention, an image can be captured well.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面における焦点検出位置を示す正面図である。FIG. 2 is a front view showing a focus detection position on the imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing an arrangement of the focus detection pixels 222a and 222b by enlarging a portion III of FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is a front view showing one of the imaging pixels 221 in an enlarged manner. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is a cross-sectional view showing one of the imaging pixels 221 in an enlarged manner. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 図9は、本実施形態に係るカメラの動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the camera according to the present embodiment. 図10は、本実施形態において設定される焦点検出時の絞り値と、撮影絞り値との関係の一例を示す図である。FIG. 10 is a diagram showing an example of the relationship between the aperture value at the time of focus detection set in the present embodiment and the imaging aperture value. 図11は、ステップS118のスキャン動作実行処理を示すフローチャートである。FIG. 11 is a flowchart showing the scan operation execution process of step S118.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings.

図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. The digital camera 1 (hereinafter simply referred to as the camera 1) of the present embodiment is composed of a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4 There is.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that is detachable from the camera body 2. As shown in FIG. 1, the lens barrel 3 incorporates a photographing optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can move in the direction of the optical axis L1 to adjust the focal length of the imaging optical system. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotary cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, and a helicoid groove (helical groove) is formed on the inner peripheral surface of the rotary cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted in the helicoid groove. Then, by rotating the rotary cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves rectilinearly along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame moves rectilinearly in the direction of the optical axis L1 by rotating the rotary cylinder with respect to the lens barrel 3, but the focus lens drive motor 36 as its drive source is a lens The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by, for example, a transmission composed of a plurality of gears, and when the drive shaft of the focus lens drive motor 36 is rotationally driven in either direction, it is transmitted to the rotary cylinder with a predetermined gear ratio. Then, when the rotary cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves rectilinearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is driven to rotate in the reverse direction, the gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves rectilinearly in the direction opposite to the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the direction of the optical axis L1 is correlated with the rotation angle of the rotary cylinder, and therefore can be determined by detecting the relative rotation angle of the rotary cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   The encoder 35 according to the present embodiment detects a rotation of a rotating disk connected to the rotational drive of the rotating cylinder by an optical sensor such as a photo interrupter and outputs a pulse signal according to the number of rotations, or a fixed cylinder The encoder contacts on the surface of the flexible printed wiring board provided on either one of the rotating cylinder and the brush contact on the other are brought into contact with each other, and the moving amount of the rotating cylinder (in either the rotational direction or the optical axis direction) It is possible to use one that detects a change in the contact position according to (a) by a detection circuit.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the near end) to the end on the subject side (also referred to as the infinite end) by rotation of the rotary cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus based on this information. The drive position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された絞り値に応じた開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された撮影絞り値に応じた開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The aperture 34 is configured to adjust the aperture diameter centered on the optical axis L1 in order to limit the light amount of the light flux passing through the imaging optical system and reaching the imaging device 22 and to adjust the blur amount. Adjustment of the aperture diameter by the aperture stop 34 is performed, for example, by transmitting the aperture diameter according to the aperture value calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the aperture diameter corresponding to the set photographing aperture value is input from the camera control unit 21 to the lens control unit 37 by manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the diaphragm 34 is detected by a diaphragm aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。なお、撮像素子22の撮像面の前方には、赤外光をカットするための赤外線カットフィルタ、および画像の折り返しノイズを防止するための光学的ローパスフィルタが配置されている。撮像素子22の構造の詳細は後述する。   On the other hand, in the camera body 2, an imaging element 22 for receiving the light flux L1 from the imaging optical system is provided on a planned focal plane of the imaging optical system, and a shutter 23 is provided on the front surface thereof. The imaging device 22 is configured of a device such as a CCD or a CMOS, converts the received light signal into an electric signal, and sends it to the camera control unit 21. The photographed image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and the release button (provided in the operation unit 28) When the full depression (not shown) is performed, the photographed image information is recorded in the memory 24 which is a recording medium. The memory 24 can use any of a removable card type memory and a built-in type memory. An infrared cut filter for cutting infrared light and an optical low pass filter for preventing aliasing noise of an image are disposed in front of the imaging surface of the image sensor 22. Details of the structure of the imaging device 22 will be described later.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 by the electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses the lens control unit 37. Send information such as the amount and aperture diameter. In addition, as described above, the camera control unit 21 reads out the pixel output from the imaging device 22 and generates image information by performing predetermined information processing on the read out pixel output as necessary, and the generated image information Are output to the liquid crystal drive circuit 25 and the memory 24 of the electronic viewfinder 26. Further, the camera control unit 21 controls the entire camera 1 such as correction of image information from the image pickup device 22 and detection of a focusing state of the lens barrel 3, an aperture adjusting state, and the like.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による光学系の焦点状態の検出を行う。なお、焦点状態の検出方法については、後述する。   Further, in addition to the above, the camera control unit 21 detects the focus state of the photographing optical system by the phase detection method based on the pixel data read from the imaging device 22 and detects the focus state of the optical system by the contrast detection method. Do. In addition, the detection method of a focus state is mentioned later.

加えて、カメラ制御部21は、焦点検出を行う際における、光学系の絞り値の絞り込み側の制限値を、絞り込み側制限値として、メモリ29に予め記憶している。この絞り込み側制限値は、焦点検出を行う際に、たとえば、ケラレの発生を有効に防止することができ、良好な焦点検出精度を得ることができる絞り値のうち、最も絞り込み側の値とすることができる。   In addition, when performing focus detection, the camera control unit 21 stores in advance in the memory 29 the limit value on the stop side of the aperture value of the optical system as the stop side limit value. When the focus detection is performed, this narrowing-side limit value is, for example, the narrowing-side value among aperture values that can effectively prevent occurrence of vignetting and can obtain good focus detection accuracy. be able to.

さらに、カメラ制御部21は、レンズ鏡筒3の種別ごとに、光学系の焦点状態を検出する際における、光学系の絞り値の開放側の制限値を、開放側制限値として、メモリ29に予め記憶している。ここで、たとえば、光学系の焦点状態を検出する際の絞り値をF1.4とし、画像を本撮影する際の撮影絞り値をF2.8とした場合に、焦点検出後に本撮影を行うために、光学系の絞り値を、焦点検出を行う際の絞り値であるF1.4から撮影絞り値であるF2.8に変更した場合に、絞り値の変更に伴う光学系の像面の移動により、焦点検出時において検出された合焦位置が、画像の本撮影時における光学系の被写界深度から外れてしまい、焦点検出時にピントの合っていた被写体にピントの合った画像を撮影できない場合がある。特に、光学系の絞り値が開放側の値になるほど、この傾向は大きくなる。そこで、このような場合、たとえば、光学系の焦点状態を検出する際の絞り値を、F1.4にできないように、F2までに制限することで、絞り値の変更に伴う像面移動量を抑制し、光学系の絞り値を、焦点状態を検出する際の絞り値から撮影絞り値に変更した場合でも、被写体にピントの合った画像を撮影することができるようになる。開放側制限値は、このように、光学系の絞り値を、焦点検出時の絞り値から撮影絞り値に変更した場合でも、画像を良好に撮影することができる、光学系の絞り値の開放側の制限値であり、レンズ鏡筒3の種別に応じて決められる。   Furthermore, the camera control unit 21 sets the open limit value of the aperture value of the optical system to the memory 29 as the open limit value when detecting the focus state of the optical system for each type of lens barrel 3. It is stored in advance. Here, for example, when the f-number at the time of detecting the focus state of the optical system is F1.4 and the shooting f-number at the time of main photographing of the image is F2.8, the main photographing is performed after focus detection. When the f-number of the optical system is changed from f / 1.4 which is the f-number at the time of focus detection to F2.8 which is the photographing f-number, movement of the image plane of the optical system accompanying the change of the f-number. As a result, the in-focus position detected at the time of focus detection deviates from the depth of field of the optical system at the time of main shooting of the image, and an image in focus on the object in focus at the time of focus detection can not be shot There is a case. In particular, this tendency becomes greater as the aperture value of the optical system becomes a value on the open side. Therefore, in such a case, for example, by limiting the aperture value at the time of detecting the focus state of the optical system to F 1.4 so as not to be F 1.4, the image plane movement amount accompanying the change of the aperture value Even when the f-number of the optical system is changed from the f-number at the time of detecting the focus state to the photographing f-number, it is possible to capture an image in focus on the subject. In this way, even when the aperture value of the optical system is changed from the aperture value at the time of focus detection to the imaging aperture value, the open-side limit value can be used to successfully capture an image. The limit value on the side is determined according to the type of lens barrel 3.

また、本実施形態において、カメラ制御部21は、開放側制限値を、開放絞り値からの絞り段数として記憶している。たとえば、開放側制限値が絞り値(F値)でF2である場合において、開放絞り値がF1.2であり、光学系の絞り値を開放絞り値であるF1.2から開放側制限値であるF2に変更するための絞り34の絞り段数が2段である場合には、カメラ制御部21は、開放側制限値を、2段として記憶している。このように、開放側制限値を、開放絞り値からの絞り段数として記憶しておくことで、たとえば、ズームレンズのレンズ位置が変更された場合でも、ズームレンズのレンズ位置に応じた開放絞り値に基づいて、ズームレンズのレンズ位置に応じた開放側制限値を求めることができ、ズームレンズのレンズ位置ごとに、開放絞り値を記憶しておく必要がない。なお、上述した開放絞り値、開放側制限値、および絞り段数は一例であって、これらの値に限定されるものではない。   Further, in the present embodiment, the camera control unit 21 stores the open side limit value as the number of aperture steps from the open aperture value. For example, when the open limit value is F2 as the f-number (F value), the open f-number is F1.2 and the f-number of the optical system is changed from the open f-number F1.2 to the open-end limit value. When the number of stages of the diaphragm 34 for changing to a certain F2 is two, the camera control unit 21 stores the open side limit value as two stages. Thus, by storing the open-side limit value as the number of aperture steps from the open aperture value, for example, even when the lens position of the zoom lens is changed, the open aperture value according to the lens position of the zoom lens The open-side limit value corresponding to the lens position of the zoom lens can be obtained based on the above, and it is not necessary to store the open aperture value for each lens position of the zoom lens. The above-described open aperture value, open side limit value, and aperture stage number are merely examples, and the present invention is not limited to these values.

そして、カメラ制御部21は、メモリ29に記憶している開放側制限値と絞り込み側制限値とに基づいて、焦点検出を行う際の露出を制御する。なお、焦点検出時の露出制御の詳細については、後述する。   Then, the camera control unit 21 controls the exposure at the time of focus detection based on the open-side limit value and the narrow-down side limit value stored in the memory 29. The details of the exposure control at the time of focus detection will be described later.

操作部28は、シャッターレリーズボタンおよび撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button and an input switch for the photographer to set various operation modes of the camera 1 and can switch between an auto focus mode and a manual focus mode. The various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. Further, the shutter release button includes a first switch SW1 which is turned on when the button is half pressed, and a second switch SW2 which is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the imaging device 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging a portion III of FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, in the imaging device 22 of the present embodiment, a plurality of imaging pixels 221 are two-dimensionally arranged on a plane of an imaging surface, and a green pixel G having a color filter transmitting a green wavelength region And a red pixel R having a color filter transmitting the red wavelength region and a blue pixel B having a color filter transmitting the blue wavelength region are what is called a Bayer arrangement. That is, two green pixels are arranged on one diagonal line in adjacent four pixel groups 223 (a dense square lattice array), and one red pixel and one blue pixel are arranged on the other diagonal line. The imaging element 22 is configured by repeatedly arranging the pixel group 223 two-dimensionally on the imaging surface of the imaging element 22 in units of the pixel group 223 in which the Bayer arrangement is performed.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The arrangement of the unit pixel groups 223 may be, for example, a close hexagonal lattice arrangement, as well as the close square lattice shown in the drawing. Further, the configuration and arrangement of the color filter are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a sectional view. One imaging pixel 221 includes a microlens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and as shown in the cross-sectional view of FIG. 6, the photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the imaging device 22. 2212 is fabricated, and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is shaped so as to receive the imaging light flux passing through the exit pupil (for example, F1.0) of the imaging optical system by the microlens 2211 and receives the imaging light flux.

また、撮像素子22の撮像面の中心、ならびに中心から左右対称位置の3箇所には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a,22b,22cが設けられている。そして、図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列(22a,22c,22c)に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, focus detection pixel arrays 22a, 22b, and 22c in which focus detection pixels 222a and 222b are arranged instead of the imaging pixels 221 described above at the center of the imaging surface of the imaging element 22 and at three positions symmetrical with respect to the center. Is provided. Then, as shown in FIG. 3, in one focus detection pixel row, a plurality of focus detection pixels 222a and 222b are arranged adjacent to each other and alternately arranged in one horizontal row (22a, 22c, 22c). There is. In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the positions of the green pixel G and the blue pixel B of the imaging pixel 221 in Bayer arrangement.

なお、図2に示す焦点検出画素列22a〜22cの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所にすることもでき、また、四箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列22a〜22cの中から、撮影者が操作部28を手動操作することにより所望の焦点検出画素列を、焦点検出位置として選択することもできる。   The positions of the focus detection pixel arrays 22a to 22c shown in FIG. 2 are not limited to the illustrated positions, but may be one or two, or may be disposed at four or more positions. it can. Further, at the time of actual focus detection, the photographer selects a desired focus detection pixel row as a focus detection position by manually operating the operation unit 28 from among the plurality of arranged focus detection pixel rows 22a to 22c. It can also be done.

図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出画素列22a〜22cを構成する。   FIG. 5A is an enlarged front view of one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. The focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a as shown in FIG. 5A, and as shown in the cross sectional view of FIG. The photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and the micro lens 2221a is formed on the surface. Further, as shown in FIG. 5B, the focus detection pixel 222b is composed of a micro lens 2221b and a photoelectric conversion unit 2222b, and as shown in the cross sectional view of FIG. 7B, the semiconductor of the imaging device 22 is The photoelectric conversion portion 2222b is formed on the surface of the circuit board 2213, and the micro lens 2221b is formed on the surface. The focus detection pixels 222a and 222b are arranged adjacent to each other and alternately in a horizontal row, as shown in FIG. 3, to form the focus detection pixel rows 22a to 22c shown in FIG.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have shapes that receive light beams passing through a predetermined area (for example, F2.8) of the exit pupil of the photographing optical system by the micro lenses 2221a and 2221b. Be done. Further, no color filter is provided in the focus detection pixels 222a and 222b, and the spectral characteristics thereof are obtained by integrating the spectral characteristics of the photodiode performing photoelectric conversion and the spectral characteristics of the infrared cut filter (not shown). ing. However, one of the same color filters as the imaging pixel 221, for example, a green filter may be provided.

また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   Although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b shown in FIGS. 5A and 5B are semicircular, the shape of the photoelectric conversion units 2222a and 2222b is not limited thereto. And other shapes, for example, an oval shape, a rectangular shape, and a polygonal shape.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳350の測距瞳351,352から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳351,352から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3 and is disposed in the vicinity of the photographing optical axis L1 and the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 emitted from the focusing pupils 351 and 352 of the exit pupil 350 are respectively received. Although FIG. 8 illustrates only one of the plurality of focus detection pixels 222a and 222b located in the vicinity of the photographing optical axis L1, other focus detection pixels other than the focus detection pixels shown in FIG. 8 are shown. Similarly, the light beams emitted from the pair of distance measuring pupils 351 and 352 are also received.

ここで、射出瞳350とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳351,352とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 350 is an image set at the position of the distance D in front of the microlenses 2221 a and 2221 b of the focus detection pixels 222 a and 222 b disposed on the planned focal plane of the imaging optical system. The distance D is a value uniquely determined according to the curvature of the micro lens, the refractive index, the distance between the micro lens and the photoelectric conversion part, and the like, and this distance D is referred to as a distance measurement pupil distance. Further, the ranging pupils 351 and 352 refer to images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳351,352の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222 a-1, 222 b-1, 222 a-2 and 222 b-2 coincides with the arrangement direction of the pair of distance measurement pupils 351 and 352.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳350上に投影され、その投影形状は測距瞳351,352を形成する。   Further, as shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 have a photographing optical system. It is placed near the planned focal plane of. The shape of each of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 disposed behind the microlenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 is The light is projected onto the exit pupil 350 separated by the distance measurement distance D from the lenses 2221a-1 and 2221b-1, and 2221a-2 and 2221b-2, and the projected shapes form distance measurement pupils 351 and 352.

すなわち、測距距離Dにある射出瞳350上で、各焦点検出画素の光電変換部の投影形状(測距瞳351,352)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   That is, on the exit pupil 350 located at the distance measurement distance D, the microlenses and photoelectric conversion units in each focus detection pixel are matched so that the projection shapes (distance measurement pupils 351, 352) of the photoelectric conversion units of each focus detection pixel match. The relative positional relationship of is determined, whereby the projection direction of the photoelectric conversion unit at each focus detection pixel is determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳351を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳351を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 which passes through the distance measurement pupil 351 and is directed to the microlens 2221a-1. Output a signal corresponding to the intensity of the image being Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measurement pupil 351, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 directed to the microlens 2221a-2. Output a signal corresponding to

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳352を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳352を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   In addition, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measurement pupil 352, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1 Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measurement pupil 352, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 directed to the microlens 2221b-2. Output a signal corresponding to

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳351と測距瞳352とのそれぞれに対応した出力グループにまとめることにより、測距瞳351と測距瞳352とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the two types of focus detection pixels 222a and 222b described above are linearly arranged as shown in FIG. 3, and the output of the photoelectric conversion units 2222a and 2222b of each focus detection pixel 222a By combining the output groups corresponding to each of the focus detection pupils 352 and the focus detection pupil 352, the intensities of a pair of images formed on the focus detection pixel array by the focus detection light beams passing through the focus detection pupil 351 and the focus detection pupil 352, respectively. Data on the distribution is obtained. Then, by performing image shift detection calculation processing such as correlation calculation processing or phase difference detection processing on the intensity distribution data, it is possible to detect an image shift amount by a so-called phase difference detection method.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出エリアにおける焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion operation according to the distance between the center of gravity of the pair of distance measuring pupils is performed on the obtained image shift amount to obtain the current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane) The deviation of the focal plane in the detection area can be determined.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based on this are executed by the camera control unit 21.

また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22, and calculates the focus evaluation value based on the read pixel output. The focus evaluation value can be obtained, for example, by extracting the high frequency component of the image output from the imaging pixel 221 of the imaging device 22 using a high frequency transmission filter. It can also be determined by extracting high frequency components using two high frequency transmission filters having different cutoff frequencies.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed to obtain the position of the focus lens 32 as the in-focus position. It should be noted that, for example, when the focus evaluation value is calculated while driving the focus lens 32, the in-focus position is further lowered twice after the focus evaluation value rises twice. It can obtain | require by performing calculations, such as an interpolation method, using the focus evaluation value of.

次いで、本実施形態に係るカメラ1の動作例を説明する。図9は、本実施形態に係るカメラ1の動作例を示すフローチャートである。なお、以下の動作は、カメラ1の電源がオンされることにより開始される。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 9 is a flowchart showing an operation example of the camera 1 according to the present embodiment. The following operation is started when the power of the camera 1 is turned on.

まず、ステップS101では、カメラ制御部21により、レンズ鏡筒3の種別に対応する開放側制限値の取得が行われる。レンズ鏡筒3の種別に対応する開放側制限値を取得する方法は、特に限定されないが、たとえば、カメラ制御部21は、レンズ鏡筒3の種別を識別するためのレンズ識別情報を、レンズ制御部37から取得し、取得したレンズ識別情報に基づいて、レンズ鏡筒3の種別を識別する。そして、カメラ制御部21は、識別したレンズ鏡筒3の種別に対応する開放側制限値を、メモリ29から取得することができる。なお、本実施形態において、開放側制限値は、開放絞り値からの絞り込み段数として、メモリ29に記憶されているため、カメラ制御部21は、開放絞り値と開放絞り値からの絞り込み段数とに基づいて、焦点検出を行う際における光学系の絞り値の開放側の制限値(F値)を、開放側制限値として求める。   First, in step S101, the camera control unit 21 acquires the open-side limit value corresponding to the type of the lens barrel 3. The method of acquiring the open side limit value corresponding to the type of the lens barrel 3 is not particularly limited. For example, the camera control unit 21 controls the lens identification information for identifying the type of the lens barrel 3 as lens control The type of the lens barrel 3 is identified based on the lens identification information acquired from the unit 37 and acquired. Then, the camera control unit 21 can acquire the open side limit value corresponding to the identified type of the lens barrel 3 from the memory 29. In the present embodiment, since the open limit value is stored in the memory 29 as the number of steps from the open aperture, the camera control unit 21 sets the open aperture and the number of steps from the open aperture. Based on the open-side limit value (F value) of the aperture value of the optical system at the time of focus detection, the open-side limit value is determined.

ステップS102では、カメラ制御部21により、光学系の焦点状態を検出する際における、光学系の絞り値の絞り込み側の制限値が、絞り込み側制限値として、メモリ29から取得される。   In step S102, the camera control unit 21 acquires, from the memory 29, the limit value on the stop side of the aperture value of the optical system at the time of detecting the focus state of the optical system as the stop side limit value.

そして、ステップS103では、カメラ制御部21により、ステップS101で取得した開放側制限値と、ステップS102で取得した絞り込み側制限値とに基づいて、光学系の絞り値(F値)を、焦点検出を行うための絞り値に設定する処理が行われる。具体的には、カメラ制御部21は、画像を本撮影するために設定された撮影絞り値が、絞り込み側制限値よりも絞り込み側の値である場合には、光学系の絞り値を、絞り込み側制限値に設定する。ここで、図10は、焦点検出を行うために設定される絞り値と、撮影絞り値との関係の一例を示す図である。なお、図10に示す例では、開放絞り値がF1.2であり最大絞り値(最大F値)がF16であるレンズ鏡筒3において、開放側制限値がF2.8として取得され、絞り込み側制限値がF5.6として取得された場面を示している。たとえば、図10の(A)では、撮影絞り値がF16に設定されており、撮影絞り値であるF16が、絞り込み側制限値であるF5.6よりも絞り込み側の値であるため、カメラ制御部21は、光学系の絞り値を、絞り込み側制限値であるF5.6に設定する。また、図10の(B)では、撮影絞り値がF8であるため、図10の(A)と同様に、カメラ制御部21は、光学系の絞り値を、絞り込み側制限値であるF5.6に設定する。   Then, in step S103, the camera control unit 21 performs focus detection on the aperture value (F value) of the optical system based on the open side limit value acquired in step S101 and the narrowing side limit value acquired in step S102. Processing is performed to set the aperture value for performing. Specifically, the camera control unit 21 narrows down the aperture value of the optical system when the shooting aperture value set for the main shooting of the image is a value on the narrowing side rather than the narrowing limit value. Set to the side limit value. Here, FIG. 10 is a diagram showing an example of the relationship between the aperture value set to perform focus detection and the imaging aperture value. In the example shown in FIG. 10, in the lens barrel 3 in which the open aperture value is F1.2 and the maximum aperture value (maximum F value) is F16, the open side limit value is acquired as F2.8, and the narrowing side It shows a scene where the limit value is obtained as F5.6. For example, in (A) of FIG. 10, since the imaging aperture value is set to F16 and the imaging aperture value F16 is a value on the narrowing side rather than the narrowing limit value F5.6, the camera control is performed. The unit 21 sets the aperture value of the optical system to F5.6, which is the stop side limit value. Further, in FIG. 10B, since the imaging aperture value is F8, the camera control unit 21 sets the aperture value of the optical system to F5. Set to 6.

また、カメラ制御部21は、画像を本撮影するために設定された撮影絞り値が、絞り込み側制限値と同じ値または絞り込み側制限値よりも開放側の値である場合には、光学系の絞り値を、撮影絞り値に設定する。たとえば、図10の(C)では、撮影絞り値が絞込み側制限値と同じF5.6であるため、カメラ制御部21は、光学系の絞り値を、撮影絞り値であるF5.6に設定する。また、図10の(D)では、撮影絞り値がF4に設定されており、撮影絞り値であるF4が、絞り込み側制限値であるF5.6よりも開放側の値であるため、カメラ制御部21は、光学系の絞り値を、撮影絞り値であるF4に設定する。同様に、図10の(E)〜(G)においても、図10の(D)と同様に、撮影絞り値が絞り込み側制限値よりも開放側の値であるため、カメラ制御部21は、光学系の絞り値を、撮影絞り値に設定する。   In addition, when the shooting aperture value set for the main shooting of the image is the same value as the narrowing-down limit value or a value on the open side more than the narrow-down limit, the camera control unit 21 Set the aperture to the shooting aperture. For example, in (C) of FIG. 10, since the shooting aperture value is F5.6, which is the same as the stop-side limit value, the camera control unit 21 sets the aperture value of the optical system to F5.6, which is the shooting aperture value. Do. Further, in FIG. 10D, since the shooting aperture value is set to F4 and the shooting aperture value F4 is a value more on the open side than F5.6, which is the narrowing-down limit value, camera control is performed. The unit 21 sets the aperture value of the optical system to F4, which is a shooting aperture value. Similarly, in (E) to (G) in FIG. 10, as in the case of (D) in FIG. 10, since the shooting aperture value is an open side value more than the narrowing limit value, the camera control unit 21 Set the aperture of the optical system to the shooting aperture.

ステップS104では、カメラ制御部21により、撮影画面を複数の領域に分割し、分割した各領域ごとに測光を行う多分割測光(マルチパターン測光)が行われ、撮影画面全体の輝度値Bvが算出される。そして、カメラ制御部21により、算出された撮影画面全体の輝度値Bvに基づいて、撮影画面全体で適正露出が得られるように、受光感度Svおよび露光時間Tvのうち少なくとも一方が変更される。なお、ステップS104では、ステップS103で設定した絞り値に応じた絞りAvは固定したままで、受光感度Svおよび露光時間Tvのうち少なくとも一方を変更する。そして、変更された受光感度Sv、露光時間Tvに基づいて、たとえば、シャッター23のシャッタースピードや、撮像素子21の感度などを設定することで、撮像素子22に対する露出を制御する。   In step S104, the camera control unit 21 divides the shooting screen into a plurality of areas, performs multi-division photometry (multi-pattern photometry) that performs photometry for each divided area, and calculates the luminance value Bv of the entire shooting screen. Be done. Then, at least one of the light reception sensitivity Sv and the exposure time Tv is changed by the camera control unit 21 based on the calculated luminance value Bv of the entire photographing screen so that the appropriate exposure can be obtained over the entire photographing screen. In step S104, at least one of the light receiving sensitivity Sv and the exposure time Tv is changed while the aperture Av corresponding to the aperture value set in step S103 is fixed. Then, based on the changed light receiving sensitivity Sv and exposure time Tv, for example, the shutter speed of the shutter 23, the sensitivity of the imaging device 21 and the like are set to control the exposure of the imaging device 22.

ステップS105では、カメラ制御部21により、ステップS104の露出制御により、撮影画面全体で適正露出が得られたか否かの判断が行われる。受光感度Svや露光時間Tvの変更のみでは、撮影画面全体が適正露出とならない場合には、ステップS106に進み、一方、受光感度Svおよび露光時間Tvのうち少なくとも一方を変更することで、撮影画面全体で適正露出が得られた場合には、ステップS108に進む。   In step S105, the camera control unit 21 determines whether or not the proper exposure has been obtained over the entire photographing screen by the exposure control in step S104. If the entire photographed screen does not have a proper exposure only by changing the light receiving sensitivity Sv or the exposure time Tv, the process proceeds to step S106, while changing at least one of the light receiving sensitivity Sv and the exposure time Tv If the appropriate exposure is obtained overall, the process proceeds to step S108.

ステップS106では、受光感度Svや露光時間Tvの変更のみでは、撮影画面全体で適正露出が得られないと判断されているため、カメラ制御部21により、絞りAvの変更が行われる。具体的には、カメラ制御部21は、撮影絞り値が、絞り込み側制限値よりも絞り込み側の値である場合には、光学系の絞り値が、開放側制限値と絞り込み側制限値との範囲内となるように、撮影画面全体の輝度値Bvに基づいて、絞りAvを変更する。たとえば、図10の(A)では、撮影絞り値であるF16が、絞り込み側制限値であるF5.6よりも絞り込み側の値であるため、カメラ制御部21は、光学系の絞り値が、開放側制限値であるF2.8から絞り込み側制限値であるF5.6までの範囲内となるように、絞りAvを変更し、撮影画面全体で適正露出が得られるように露出制御を行う。図10の(B)も同様である。   In step S106, it is determined that the proper exposure can not be obtained over the entire shooting screen only by changing the light reception sensitivity Sv and the exposure time Tv. Therefore, the camera control unit 21 changes the aperture Av. Specifically, when the shooting aperture value is a value on the narrowing side rather than the narrowing-side limit value, the camera control unit 21 determines that the aperture value of the optical system is the open-side limit value and the narrowing-side limit value. The aperture Av is changed based on the luminance value Bv of the entire shooting screen so as to be within the range. For example, in (A) of FIG. 10, since the imaging aperture value F16 is a value on the narrowing side rather than the narrowing limit value F5.6, the camera control unit 21 sets the aperture value of the optical system to The aperture Av is changed so as to be within the range from F2.8, which is the open side limit value, to F5.6, which is the narrowing down side limit value, and exposure control is performed so as to obtain appropriate exposure over the entire shooting screen. The same applies to (B) of FIG.

また、カメラ制御部21は、撮影絞り値が、絞り込み側制限値と同じ値または絞り込み側制限値よりも開放側の値である場合には、光学系の絞り値が、開放側制限値と撮影絞り値との範囲内となるように、撮影画面全体の輝度値Bvに基づいて、絞りAvを変更する。たとえば、図10の(C)では、撮影絞り値であるF5.6が、絞り込み側制限値であるF5.6と同じ値であるため、カメラ制御部21は、光学系の絞り値が、開放側制限値であるF2.8から撮影絞り値であるF5.6までの範囲内となるように、絞りAvを変更する。また、図10の(D)では、撮影絞り値であるF4が、絞り込み側制限値であるF5.6よりも開放側の値であるため、カメラ制御部21は、光学系の絞り値が、開放側制限値であるF2.8から撮影絞り値であるF4までの範囲内となるように、絞りAvを変更する。   Further, when the shooting aperture value is the same value as the narrowing limit value or a value on the opening side more than the narrowing limit value, the camera control unit 21 sets the aperture value of the optical system to the open limit value and shooting. The aperture Av is changed based on the luminance value Bv of the entire shooting screen so as to be within the range with the aperture value. For example, in (C) of FIG. 10, since the shooting aperture value F5.6 is the same value as F5.6 which is the narrowing-down limit value, the camera control unit 21 sets the aperture value of the optical system open. The aperture Av is changed so as to be within the range from the side limit value F2.8 to the shooting aperture value F5.6. Further, in (D) of FIG. 10, since the photographing aperture value F4 is a value more on the open side than F5.6, which is the narrowing limit value, the camera control unit 21 sets the aperture value of the optical system to The aperture Av is changed so as to be within the range from F2.8, which is the open side limit value, to F4, which is the shooting aperture value.

なお、カメラ制御部21は、撮影絞り値が、開放側制限値と同じ値または開放側制限値よりも開放側の値である場合には、光学系の絞り値を、撮影絞り値のままとする。たとえば、図10の(E)では、撮影絞り値であるF2.8が、開放側制限値であるF2.8と同じ値であるため、カメラ制御部21は、光学系の絞り値を、撮影絞り値であるF2.8のままとする。図10の(F)〜(G)でも同様である。また、本実施形態において、カメラ制御部21は、たとえば、図10の(A)〜(D)に示すように、絞りAvを所定の絞り値の範囲内で変更することができる場合には、撮影画面全体の輝度値Bvが再度変化した場合でも、絞りAvを再び変更しなくてもよいように、絞りAvを、開放側に、若干、余裕をもって変更する。   When the shooting aperture value is the same as the opening limit value or a value on the opening side more than the opening limit value, the camera control unit 21 assumes that the aperture value of the optical system remains the shooting aperture value. Do. For example, in (E) of FIG. 10, since the imaging aperture value F2.8 is the same value as the open side limit value F2.8, the camera control unit 21 captures the aperture value of the optical system. Leave the aperture value at F2.8. The same applies to (F) to (G) in FIG. Further, in the present embodiment, for example, as shown in (A) to (D) of FIG. 10, the camera control unit 21 can change the aperture Av within the range of a predetermined aperture value. Even when the luminance value Bv of the entire photographing screen changes again, the diaphragm Av is changed slightly to the open side with some margin so that the diaphragm Av need not be changed again.

ステップS107では、カメラ制御部21により、ステップS106で変更された絞りAvにおいて、撮影画面全体で適正露出が得られるように、受光感度Svおよび露光時間Tvが決定される。具体的には、カメラ制御部21は、ステップS104と同様に、撮影画面全体でマルチパターン測光を行い、撮影画面全体の輝度値Bvを算出する。そして、カメラ制御部21は、算出した輝度値Bvと、ステップS106で変更された絞りAvとに基づいて、撮影画面全体で適正露出が得られる受光感度Svおよび露光時間Tvを決定し、決定した受光感度Svおよび露光時間Tvと、ステップS106で変更された絞りAvとに基づいて、撮像素子22に対する露出を制御する。   In step S107, the light reception sensitivity Sv and the exposure time Tv are determined by the camera control unit 21 so that the appropriate exposure can be obtained over the entire shooting screen with the aperture Av changed in step S106. Specifically, as in step S104, the camera control unit 21 performs multi-pattern photometry on the entire shooting screen, and calculates the luminance value Bv of the entire shooting screen. Then, based on the calculated brightness value Bv and the aperture Av changed in step S106, the camera control unit 21 determines and determines the light reception sensitivity Sv and the exposure time Tv at which the appropriate exposure can be obtained over the entire shooting screen. The exposure to the image sensor 22 is controlled based on the light receiving sensitivity Sv and the exposure time Tv, and the aperture Av changed in step S106.

そして、ステップS108では、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出処理が行われる。具体的には、まず、撮像素子22により、光学系からの光束の受光が行われ、カメラ制御部21により、撮像素子22の3つの焦点検出画素列22a〜22cを構成する各焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しが行われる。この場合、撮影者の手動操作により、特定の焦点検出位置が選択されているときは、その焦点検出位置に対応する焦点検出画素からのデータのみを読み出すような構成としてもよい。そして、カメラ制御部21は、読み出された一対の像データに基づいて像ズレ検出演算処理(相関演算処理)を実行し、3つの焦点検出画素列22a〜22cに対応する焦点検出位置における像ズレ量を演算し、さらに像ズレ量をデフォーカス量に変換する。また、カメラ制御部21は、算出したデフォーカス量について、その信頼性の評価を行う。たとえば、カメラ制御部21は、一対の像データの一致度やコントラストなどに基づいて、デフォーカス量の信頼性を判断することができる。   Then, in step S108, the camera control unit 21 performs calculation processing of the defocus amount by the phase difference detection method. Specifically, first, light reception from the optical system is performed by the imaging device 22, and each focus detection pixel 222 a constituting the three focus detection pixel arrays 22 a to 22 c of the imaging device 22 by the camera control unit 21. , 222b to read a pair of image data corresponding to the pair of images. In this case, when a specific focus detection position is selected by the manual operation of the photographer, only data from focus detection pixels corresponding to the focus detection position may be read out. Then, the camera control unit 21 executes image shift detection calculation processing (correlation calculation processing) based on the read pair of image data, and images at focus detection positions corresponding to the three focus detection pixel arrays 22a to 22c. The shift amount is calculated, and the image shift amount is converted into the defocus amount. The camera control unit 21 also evaluates the reliability of the calculated defocus amount. For example, the camera control unit 21 can determine the reliability of the defocus amount based on the degree of coincidence or contrast of the pair of image data.

ステップS109では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれる。シャッターレリーズボタンが半押しされた場合は、ステップS110に進む。一方、シャッターレリーズボタンが半押しされていない場合は、ステップS104に戻り、シャッターレリーズボタンが半押しされるまで、露出制御と、デフォーカス量の算出とが繰り返し実行される。   In step S109, the camera control unit 21 determines whether the shutter release button provided on the operation unit 28 has been half-pressed (the first switch SW1 is turned on). If the shutter release button has been half-pressed, the process proceeds to step S110. On the other hand, when the shutter release button is not half-pressed, the process returns to step S104, and exposure control and calculation of the defocus amount are repeatedly executed until the shutter release button is half-pressed.

ステップS110では、カメラ制御部21により、位相差検出形式によりデフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS111に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS115に進む。なお、本実施形態においては、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合には、デフォーカス量が算出できなかったものとして扱い、ステップS115に進むこととする。本実施形態においては、たとえば、被写体のコントラストが低い場合、被写体が超低輝度被写体である場合、あるいは被写体が超高輝度被写体である場合などにおいて、デフォーカス量の信頼性が低いと判断される。   In step S110, the camera control unit 21 determines whether the defocus amount has been calculated by the phase difference detection method. If the defocus amount can be calculated, it is determined that distance measurement is possible, and the process proceeds to step S111. If the defocus amount can not be calculated, it is determined that the distance measurement is not possible, and the process proceeds to step S115. . In the present embodiment, even if the defocus amount can be calculated, if the reliability of the calculated defocus amount is low, the defocus amount can not be calculated and the process proceeds to step S115. To be. In the present embodiment, for example, it is determined that the reliability of the defocus amount is low when the contrast of the subject is low, when the subject is an ultra-low-brightness subject, or when the subject is an ultra-high-brightness subject, .

ステップS111では、カメラ制御部21により、ステップS108で算出されたデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行われ、算出されたレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出される。これにより、フォーカスレンズ駆動モータ36により、算出されたレンズ駆動量に基づいて、フォーカスレンズ32の駆動が行われる。   In step S111, the camera control unit 21 calculates the lens driving amount necessary to drive the focus lens 32 to the in-focus position based on the defocus amount calculated in step S108. The lens drive amount is sent to the focus lens drive motor 36 via the lens control unit 37. As a result, the focus lens drive motor 36 drives the focus lens 32 based on the calculated lens drive amount.

ステップS112では、カメラ制御部21により、シャッターレリーズボタンの全押し(第2スイッチSW2のオン)がされたか否か判断される。第2スイッチSW2がオンの場合には、ステップS113に進み、一方、第2スイッチSW2がオンではない場合には、ステップS104に戻る。   In step S112, the camera control unit 21 determines whether the shutter release button has been fully pressed (the second switch SW2 is turned on). If the second switch SW2 is on, the process proceeds to step S113. If the second switch SW2 is not on, the process returns to step S104.

ステップS113では、画像の本撮影を行うために、カメラ制御部21により、光学系の絞り値を撮影絞り値に設定する処理が行われる。たとえば、図10の(A)において、カメラ制御部21は、画像を本撮影するために、光学系の絞り値を、焦点検出時の絞り値(開放側制限値であるF2.8から絞り込み側制限値であるF5.6の範囲内)から、撮影絞り値であるF16に変更する。同様に、図10の(B)〜(G)に示す例においても、光学系の絞り値を、焦点検出を行うための絞り値から、画像を本撮影するための撮影絞り値に変更する。そして、続くステップS114では、ステップS113で設定された絞り値で、撮像素子22により画像の本撮影が行われ、撮影された画像の画像データが、メモリ24に記憶される。   In step S113, in order to perform the main photographing of the image, the camera control unit 21 performs a process of setting the aperture value of the optical system to the photographing aperture value. For example, in (A) of FIG. 10, in order to capture an image, the camera control unit 21 sets the aperture value of the optical system to the aperture value at the time of focus detection. From the limiting value within the range of F5.6), the shooting aperture value is changed to F16. Similarly, also in the examples shown in (B) to (G) of FIG. 10, the aperture value of the optical system is changed from the aperture value for performing focus detection to the imaging aperture value for performing the main photographing of the image. Then, in the subsequent step S114, the image pickup device 22 performs the main photographing of the image with the aperture value set in step S113, and the image data of the photographed image is stored in the memory 24.

一方、ステップS110でデフォーカス量が算出できないと判断された場合には、焦点検出に適した露出とするために、ステップS115に進む。ステップS115では、カメラ制御部21により、焦点検出に適した露出が得られるように、焦点検出用の露出制御が行われる。具体的には、カメラ制御部21は、撮像素子22の出力に基づいて、焦点検出エリア(図2に示す焦点検出画素列22a,22b,22c)をそれぞれ含む所定領域内においてスポット測光を行い、焦点検出エリアを含む所定領域内の輝度値SpotBvを算出する。そして、カメラ制御部21は、算出した輝度値SpotBvに基づいて、焦点検出に適した露出(例えば、適正露出よりも1段明るい露出)が得られるように、受光感度Sv、露光時間Tv、および絞りAvを決定する。なお、ステップS115の焦点検出用の露出制御においても、ステップS104〜S107と同様に、カメラ制御部21は、受光感度Svおよび露光時間Tvを優先的に変更し、受光感度Svおよび露光時間Tvの変更のみでは、焦点検出に適した露出を得ることができない場合に限り、ステップS101,102で取得した開放側制限値および絞り込み側制限値に基づいて、絞りAvを変更する。すなわち、カメラ制御部21は、図10の(A)〜(B)に示す例のように、撮影絞り値が、絞り込み側制限値よりも絞り込み側の値である場合には、光学系の絞り値が、開放側制限値と絞り込み側制限値との範囲内となるように、焦点検出エリアを含む所定領域内の輝度値SpotBvに基づいて、絞りAvを変更する。また、図10の(C)〜(D)に示すように、撮影絞り値が、絞り込み側制限値と同じ値または絞り込み側制限値よりも開放側の値である場合には、光学系の絞り値が、開放側制限値と撮影絞り値との範囲内となるように、焦点検出エリアを含む所定領域内の輝度値SpotBvに基づいて、絞りAvを変更し、さらに、図10の(E)〜(G)に示すように、撮影絞り値が、開放側制限値と同じ値または開放側制限値よりも開放側の値である場合には、光学系の絞り値を、撮影絞り値のままとする。   On the other hand, if it is determined in step S110 that the defocus amount can not be calculated, the process proceeds to step S115 in order to obtain an exposure suitable for focus detection. In step S115, the camera control unit 21 performs exposure control for focus detection so as to obtain an exposure suitable for focus detection. Specifically, the camera control unit 21 performs spot photometry in a predetermined area including the focus detection areas (the focus detection pixel arrays 22a, 22b, and 22c shown in FIG. 2) based on the output of the imaging device 22, and The luminance value SpotBv in a predetermined area including the focus detection area is calculated. Then, the camera control unit 21 determines the light receiving sensitivity Sv, the exposure time Tv, and the like so that an exposure suitable for focus detection (for example, an exposure brighter than the appropriate exposure) can be obtained based on the calculated brightness value SpotBv. Determine the aperture Av. In the exposure control for focus detection in step S115, as in steps S104 to S107, the camera control unit 21 preferentially changes the light reception sensitivity Sv and the exposure time Tv to obtain the light reception sensitivity Sv and the exposure time Tv. The aperture Av is changed based on the open side limit value and the narrowing side limit value acquired in steps S101 and S102 only when the change is not sufficient to obtain an exposure suitable for focus detection. That is, as shown in (A) and (B) of FIG. 10, the camera control unit 21 controls the aperture of the optical system when the photographing aperture value is a value on the narrowing side rather than the narrowing limit value. The aperture Av is changed based on the luminance value SpotBv in a predetermined area including the focus detection area so that the value is within the range between the open-side limit value and the narrow-down side limit value. Further, as shown in (C) to (D) of FIG. 10, when the imaging aperture value is the same value as the narrowing limit value or a value on the opening side than the narrowing limit value, the aperture of the optical system The aperture Av is changed based on the luminance value SpotBv in the predetermined area including the focus detection area so that the value is within the range between the open-side limit value and the imaging aperture value, and further, (E) in FIG. As shown in (G), when the shooting aperture value is the same value as the opening limit value or a value closer to the opening limit than the opening limit value, the aperture value of the optical system remains the shooting aperture value. I assume.

ステップS116では、カメラ制御部21により、焦点検出に適した露出で得られた画像データに基づいて、デフォーカス量の算出が行われ、続くステップS117では、カメラ制御部21により、焦点検出に適した露出で得られた画像データに基づいて、デフォーカス量を算出できたか否かの判断が行われる。デフォーカス量を算出できた場合は、ステップS111に進み、算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動処理が行わる。一方、焦点検出に適した露出で得られた画像データを用いても、デフォーカス量が算出できなかった場合は、ステップS118に進み、後述するスキャン動作実行処理が行われる。なお、ステップS117においても、ステップS110と同様に、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合には、デフォーカス量が算出できなかったものとして扱う。   In step S116, the camera control unit 21 calculates the defocus amount based on the image data obtained by the exposure suitable for focus detection, and in the subsequent step S117, the camera control unit 21 is suitable for focus detection. Based on the image data obtained by the exposure, it is determined whether the defocus amount has been calculated. If the defocus amount can be calculated, the process proceeds to step S111, and drive processing of the focus lens 32 is performed based on the calculated defocus amount. On the other hand, when the defocus amount can not be calculated even if the image data obtained by the exposure suitable for focus detection is used, the process proceeds to step S118, and a scan operation execution process described later is performed. Also in step S117, as in step S110, even when the defocus amount can be calculated, if the reliability of the calculated defocus amount is low, the defocus amount can not be calculated. .

ステップS118では、カメラ制御部21により、スキャン動作を実行するためのスキャン動作実行処理が行なわれる。ここで、スキャン動作とは、フォーカスレンズ駆動モータ36により、フォーカスレンズ32をスキャン駆動させながら、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出、および焦点評価値の算出を、所定の間隔で同時に行い、これにより、位相差検出方式による合焦位置の検出と、コントラスト検出方式による合焦位置の検出とを、所定の間隔で、同時に実行する動作である。以下においては、図11を参照して、本実施形態に係るスキャン動作実行処理を説明する。なお、図11は、本実施形態に係るスキャン動作実行処理を示すフローチャートである。   In step S118, the camera control unit 21 performs a scan operation execution process for executing a scan operation. Here, with the scan operation, while the focus lens drive motor 36 scans and drives the focus lens 32, the camera control unit 21 determines the calculation of the defocus amount by the phase difference detection method and the calculation of the focus evaluation value. At the same time, the detection of the in-focus position by the phase difference detection method and the detection of the in-focus position by the contrast detection method are simultaneously performed at predetermined intervals. In the following, with reference to FIG. 11, a scan operation execution process according to the present embodiment will be described. FIG. 11 is a flowchart showing a scan operation execution process according to the present embodiment.

まず、ステップS201では、カメラ制御部21により、スキャン動作の開始処理が行われる。具体的には、カメラ制御部21は、レンズ制御部37にスキャン駆動開始指令を送出し、レンズ制御部37は、カメラ制御部21からの指令に基づき、フォーカスレンズ駆動モータ36を駆動させ、フォーカスレンズ32を光軸L1に沿ってスキャン駆動させる。なお、スキャン駆動を行う方向は特に限定されず、フォーカスレンズ32のスキャン駆動を、無限端から至近端に向かって行なってもよいし、あるいは、至近端から無限端に向かって行なってもよい。   First, in step S201, the camera control unit 21 performs processing for starting a scanning operation. Specifically, the camera control unit 21 sends a scan drive start command to the lens control unit 37, and the lens control unit 37 drives the focus lens drive motor 36 based on the command from the camera control unit 21 to perform focusing. The lens 32 is scan driven along the optical axis L1. The direction in which the scan drive is performed is not particularly limited, and the scan drive of the focus lens 32 may be performed from the infinite end to the close end, or even from the close end to the infinity end. Good.

そして、カメラ制御部21は、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しを行い、これに基づき、位相差検出方式により、デフォーカス量の算出および算出されたデフォーカス量の信頼性の評価を行うとともに、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の撮像画素221から画素出力の読み出しを行い、これに基づき、焦点評価値を算出し、これにより、異なるフォーカスレンズ位置における焦点評価値を取得することで、コントラスト検出方式により合焦位置の検出を行う。   Then, while driving the focus lens 32, the camera control unit 21 reads out a pair of image data corresponding to the pair of images from the focus detection pixels 222a and 222b of the image sensor 22 at predetermined intervals. While the defocus amount is calculated and the reliability of the calculated defocus amount is evaluated by the phase difference detection method, the pixel output of the imaging pixel 221 of the imaging element 22 is performed at predetermined intervals while driving the focus lens 32. Based on this read out, the focus evaluation value is calculated, and the focus evaluation value at different focus lens positions is acquired, thereby detecting the in-focus position by the contrast detection method.

ステップS202では、カメラ制御部21により、スキャン動作を行なった結果、位相差検出方式により、デフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS205に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS203に進む。   In step S202, as a result of performing the scan operation, the camera control unit 21 determines whether the defocus amount has been calculated by the phase difference detection method. If the defocus amount can be calculated, it is determined that distance measurement is possible, and the process proceeds to step S205. On the other hand, if the defocus amount can not be calculated, it is determined that the distance measurement is not possible, and the process proceeds to step S203. .

ステップS203では、カメラ制御部21により、スキャン動作を行なった結果、コントラスト検出方式により、合焦位置の検出ができたか否かの判定が行なわれる。コントラスト検出方式により、合焦位置の検出ができた場合には、ステップS207に進み、一方、合焦位置の検出ができなかった場合には、ステップS204に進む。   In step S203, as a result of performing the scan operation, the camera control unit 21 determines whether the in-focus position has been detected by the contrast detection method. If the in-focus position can be detected by the contrast detection method, the process proceeds to step S207. On the other hand, if the in-focus position can not be detected, the process proceeds to step S204.

ステップS204では、カメラ制御部21により、スキャン動作を、フォーカスレンズ32の駆動可能範囲の全域について行なったか否かの判定が行なわれる。フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作を行なっていない場合には、ステップS202に戻り、ステップS202〜S204を繰り返すことにより、スキャン動作、すなわち、フォーカスレンズ32をスキャン駆動させながら、位相差検出方式によるデフォーカス量の算出、およびコントラスト検出方式による合焦位置の検出を、所定の間隔で同時に実行する動作を継続して行なう。一方、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行を完了している場合には、ステップS208に進む。   In step S204, the camera control unit 21 determines whether the scan operation has been performed on the entire drivable range of the focus lens 32 or not. When the scan operation is not performed for the entire drivable range of the focus lens 32, the process returns to step S202, and the steps S202 to S204 are repeated to perform the scan operation, that is, to drive the focus lens 32 while scanning. The operation of simultaneously executing the calculation of the defocus amount by the phase difference detection method and the detection of the in-focus position by the contrast detection method at predetermined intervals is continued. On the other hand, if execution of the scan operation has been completed for the entire drivable range of the focus lens 32, the process proceeds to step S208.

そして、スキャン動作を実行した結果、ステップS202において、位相差検出方式により、デフォーカス量が算出できたと判定された場合には、ステップS205に進み、ステップS205において、位相差検出方式により算出されたデフォーカス量に基づく、合焦動作が行なわれる。   When it is determined in step S202 that the defocus amount has been calculated by the phase difference detection method as a result of executing the scan operation, the process proceeds to step S205, and the phase difference detection method is calculated in step S205. A focusing operation is performed based on the defocus amount.

すなわち、ステップS205では、カメラ制御部21により、まず、スキャン動作の停止処理が行なわれた後、算出されたデフォーカス量から、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行なわれ、算出されたレンズ駆動量が、レンズ制御部37を介して、レンズ駆動モータ36に送出される。そして、レンズ駆動モータ36は、カメラ制御部21により算出されたレンズ駆動量に基づいて、フォーカスレンズ32を合焦位置まで駆動させる。フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS206に進み、ステップS206において、カメラ制御部21により、合焦と判定される。   That is, in step S205, after the stop processing of the scanning operation is first performed by the camera control unit 21, the lens drive necessary to drive the focus lens 32 to the in-focus position from the calculated defocus amount The amount is calculated, and the calculated lens driving amount is sent to the lens drive motor 36 via the lens control unit 37. Then, the lens drive motor 36 drives the focus lens 32 to the in-focus position based on the lens drive amount calculated by the camera control unit 21. When driving of the focus lens 32 to the in-focus position is completed, the process proceeds to step S206, and in step S206, the camera control unit 21 determines that the in-focus state is achieved.

また、スキャン動作を実行した結果、ステップS203において、コントラスト検出方式により、合焦位置が検出できたと判定された場合には、ステップS207に進み、コントラスト検出方式により検出された合焦位置に基づく、フォーカスレンズ32の駆動動作が行なわれる。   If it is determined in step S203 that the in-focus position has been detected by the contrast detection method as a result of performing the scan operation, the process proceeds to step S207, and based on the in-focus position detected by the contrast detection method The drive operation of the focus lens 32 is performed.

すなわち、カメラ制御部21により、スキャン動作の停止処理が行なわれた後、コントラスト検出方式により検出された合焦位置に基づいて、フォーカスレンズ32を、合焦位置まで駆動させるレンズ駆動処理が行なわれる。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS206に進み、カメラ制御部21により、合焦と判定される。   That is, after the processing for stopping the scanning operation is performed by the camera control unit 21, the lens driving processing for driving the focus lens 32 to the in-focus position is performed based on the in-focus position detected by the contrast detection method. . When the drive of the focus lens 32 to the in-focus position is completed, the process proceeds to step S206, and the camera control unit 21 determines that the in-focus state is achieved.

一方、ステップS204において、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行が完了していると判定された場合には、ステップS208に進む。ステップS208では、スキャン動作を行なった結果、位相差検出方式およびコントラスト検出方式のいずれの方式によっても、焦点検出を行うことができなかったため、スキャン動作の終了処理が行なわれ、次いで、ステップS209に進み、カメラ制御部21により、合焦不能と判定される。   On the other hand, if it is determined in step S204 that the execution of the scan operation has been completed for the entire drivable range of the focus lens 32, the process proceeds to step S208. In step S208, as a result of performing the scan operation, focus detection can not be performed by any of the phase difference detection method and the contrast detection method, so the scan operation end processing is performed, and then in step S209. The process proceeds, and the camera control unit 21 determines that focusing is impossible.

そして、ステップS118のスキャン動作実行処理が終了した後は、ステップS119に進み、カメラ制御部21により、スキャン動作実行処理での合焦判定の結果に基づいて、合焦したか否かの判定が行われる。スキャン動作実行処理において、合焦と判定された場合は(ステップS206)、ステップS112に進む。一方、合焦不能と判定された場合は(ステップS209)、ステップS120に進み、ステップS120で、合焦不能表示が行なわれる。合焦不能表示は、たとえば、電子ビューファインダ26により行われる。   Then, after the scan operation execution process of step S118 is completed, the process proceeds to step S119, and it is determined by the camera control unit 21 whether or not the in-focus state is obtained based on the result of the in-focus determination in the scan operation execution process. To be done. In the scan operation execution process, when it is determined that the image is in focus (step S206), the process proceeds to step S112. On the other hand, if it is determined that the in-focus state can not be obtained (step S209), the process proceeds to step S120, and the in-focus state is displayed in step S120. The out-of-focus indication is performed, for example, by the electronic viewfinder 26.

以上のように、本実施形態では、焦点検出を行う際における、光学系の絞り値の開放側の制限値である開放側制限値を、レンズ鏡筒3の種別ごとに、カメラ本体2のメモリ29に記憶しており、カメラ制御部21は、カメラ本体2に装着されたレンズ鏡筒3に対応する開放側制限値を、メモリ29から取得する。また、本実施形態では、焦点検出を行う際における、光学系の絞り値の絞り込み側の制限値である絞り込み側制限値を、カメラ本体2のメモリ29に記憶しており、カメラ制御部21は、絞り込み側制限値を、メモリ29から取得する。そして、カメラ制御部21は、取得した開放側制限値および絞り込み側制限値に基づいて、焦点検出を行う際における光学系の絞り値を設定する。具体的には、画像を本撮影する際の撮影絞り値が、絞り込み側制限値よりも絞り込み側の値である場合には、焦点検出を行う際における光学系の絞り値を、開放側制限値と絞り込み側制限値との範囲内において設定する。このように、本実施形態では、焦点検出を行う際における光学系の絞り値を、開放側制限値よりも絞り込み側の値に制限することで、画像を本撮影するために、光学系の絞り値を、焦点検出時の絞り値から画像を本撮影するための撮影絞り値に変更した場合でも、光学系の絞り値の変更に伴う光学系の像面の移動量を所定値以下とすることができ、その結果、焦点検出において検出された合焦位置を、画像の本撮影時における光学系の被写界深度の範囲内とすることができ、被写体にピントが合った画像を撮影することができる。   As described above, in the present embodiment, the open side limit value, which is the limit value on the open side of the aperture value of the optical system when performing focus detection, is stored in the memory of the camera body 2 for each type of lens barrel 3. The camera control unit 21 acquires from the memory 29 the open side limit value corresponding to the lens barrel 3 mounted on the camera body 2. Further, in the present embodiment, when the focus detection is performed, the narrowing-side limit value, which is the narrowing limit value of the aperture value of the optical system at the time of focus detection, is stored in the memory 29 of the camera body 2. , And the narrowing side limit value is acquired from the memory 29. Then, the camera control unit 21 sets the aperture value of the optical system at the time of focus detection based on the acquired open side limit value and narrowing side limit value. Specifically, when the shooting aperture value at the time of main imaging of the image is a value on the narrowing side rather than the narrowing limit value, the aperture value of the optical system at the time of focus detection is the open side limit value. It sets in the range of and the narrowing-down limit value. As described above, in the present embodiment, the aperture value of the optical system at the time of focus detection is limited to a value on the narrowing side rather than the open side limit value, so that the aperture of the optical system can be photographed. Even when the aperture value at focus detection is changed to the shooting aperture value for capturing an image, the movement amount of the image plane of the optical system accompanying the change of the aperture value of the optical system should be equal to or less than a predetermined value. As a result, the in-focus position detected in the focus detection can be made within the range of the depth of field of the optical system at the time of main photographing of the image, and the image in focus on the subject can be photographed. Can.

また、本実施形態では、画像を本撮影する際の撮影絞り値が、絞り込み側制限値よりも絞り込み側の値である場合には、焦点検出を行う際における光学系の絞り値を、絞り込み側制限値よりも開放側の値に制限することで、焦点検出時にケラレが発生することを有効に防止することができ、光学系の焦点状態を適切に検出することができる。さらに、本実施形態では、撮影絞り値が、絞り込み側制限値よりも開放側の値である場合には、焦点検出を行う際における光学系の絞り値を、開放側制限値と撮影絞り値との範囲内において設定することで、焦点検出を行う際における光学系の絞り値を、撮影絞り値よりも絞り込み側の値とならないように制限し、これにより、画像を本撮影する際に、画像を本撮影する際の被写界深度が、焦点検出を行う際の被写界深度よりも浅くなってしまい、画像を本撮影する際に、焦点検出時にピントを合わせた被写体が、光学系の被写界深度から外れてしまうことを有効に防止することができ、その結果、被写体にピントの合った画像を良好に撮影することができる。   Further, in the present embodiment, when the shooting aperture value at the time of main photographing of the image is a value on the narrowing side rather than the narrowing limit value, the aperture value of the optical system at the time of focus detection is the narrowing side. By limiting to the value on the open side rather than the limit value, the occurrence of vignetting at the time of focus detection can be effectively prevented, and the focus state of the optical system can be appropriately detected. Furthermore, in the present embodiment, when the shooting aperture value is a value on the open side more than the narrowing limit value, the aperture value of the optical system at the time of focus detection is the open side limit value and the shooting aperture value. By setting in the range of, the aperture value of the optical system at the time of performing focus detection is limited so as not to be a value on the side of reduction rather than the imaging aperture value, whereby the image is captured when the image is captured. The depth of field at the time of main shooting becomes shallower than the depth of field at the time of focus detection, and the subject focused at the time of focus detection at the time of main shooting of an image Deviation from the depth of field can be effectively prevented, and as a result, an image in focus on the subject can be photographed well.

さらに、本実施形態では、レンズ鏡筒3が開放側制限値を有していない場合でも、レンズ鏡筒3の種別ごとに、開放側制限値を記憶しているため、開放側制限値を有していないレンズ鏡筒3を使用する場合でも、使用するレンズ鏡筒3に対応する開放側制限値を取得することができ、これにより、焦点検出時の絞り値を、開放側制限値に基づく適切な値に設定することができる。   Furthermore, in the present embodiment, even when the lens barrel 3 does not have the open side limit value, the open side limit value is stored for each type of the lens barrel 3, so there is an open side limit value. Even when the lens barrel 3 not used is used, the open side limit value corresponding to the lens barrel 3 to be used can be acquired, whereby the aperture value at the time of focus detection is based on the open side limit value. It can be set to an appropriate value.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiments described above are described to facilitate the understanding of the present invention, and are not described to limit the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents that fall within the technical scope of the present invention.

たとえば、上述した実施形態では、メモリ29から、レンズ鏡筒3に対応する開放側制限値を取得し、取得した開放側制限値に基づいて、焦点検出時における、光学系の絞り値を設定する構成を例示したが、この構成に加えて、たとえば、メモリ29に、レンズ鏡筒3に対応する開放側制限値が記憶されていない場合には、光学系の絞り値を、開放絞り値に設定して、焦点検出を行う構成としてもよい。また、光学系の絞り値を開放絞り値に設定して焦点検出を行った場合には、この焦点検出結果に基づいて、フォーカスレンズ32を駆動させている際に、前記光学系の絞り値を、たとえば、撮影絞り値に変更して、再度、焦点検出を行う構成としてもよい。このように、光学系の絞り値を開放絞り値に設定して、焦点検出を行うことで、被写体の輝度が低い場合でも、光学系の焦点状態を適切に検出することができるとともに、フォーカスレンズ32の駆動中に、光学系の絞り値を撮影絞り値に設定して、焦点検出を行うことで、絞り値の変更に伴う像面の変化により、焦点検出にピントを合わせた被写体が、撮影時にピントが合わなくなってしまうことを有効に防止することができ、被写体にピントの合った画像を適切に撮影することができる。   For example, in the embodiment described above, the open limit value corresponding to the lens barrel 3 is acquired from the memory 29, and the aperture value of the optical system at the time of focus detection is set based on the acquired open limit value. Although the configuration has been exemplified, in addition to this configuration, for example, when the open side limit value corresponding to the lens barrel 3 is not stored in the memory 29, the aperture value of the optical system is set to the open aperture value. It may be configured to perform focus detection. When focus detection is performed by setting the aperture value of the optical system to the open aperture value, when the focus lens 32 is driven based on the result of the focus detection, the aperture value of the optical system is adjusted. For example, the focus may be detected again by changing the imaging aperture value. As described above, by setting the aperture value of the optical system to the open aperture value and performing focus detection, the focus state of the optical system can be appropriately detected even when the luminance of the object is low, and the focus lens By setting the f-number of the optical system to the shooting f-number during drive of 32 and performing focus detection, the subject whose focus is detected with focus detection is shot by the change of the image plane accompanying the change of the f-number. It is possible to effectively prevent an occasional out-of-focus condition, and it is possible to properly capture an image in-focus on a subject.

また、上述した実施形態では、メモリ29から、開放側制限値を取得する構成を例示したが、この構成に加えて、たとえば、レンズ鏡筒3が開放側制限値を記憶している場合には、レンズ制御部37を介して、レンズ鏡筒3から、レンズ鏡筒3に記憶された開放側制限値を取得する構成としてもよい。   In the embodiment described above, the configuration for obtaining the open limit value from the memory 29 is exemplified, but in addition to this configuration, for example, when the lens barrel 3 stores the open limit value, The open limit value stored in the lens barrel 3 may be acquired from the lens barrel 3 via the lens control unit 37.

さらに、上述した実施形態では、開放側制限値を、レンズ鏡筒3の種別ごとに、メモリ29に記憶している構成を例示したが、この構成に加えて、たとえば、開放側制限値を、レンズ鏡筒の種別に対応づけて、インターネット通信回線を介して、外部サーバから受信することで、開放側制限値の更新(ファームアップ)を可能とする構成としてもよい。   Furthermore, in the above-described embodiment, the configuration in which the open limit value is stored in the memory 29 for each type of lens barrel 3 has been illustrated, but in addition to this configuration, for example, the open limit value may be It is also possible to make it possible to update (firm-up) the open-side limit value by receiving from an external server via the Internet communication line in association with the type of lens barrel.

なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 according to the above-described embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a digital video camera, a single-lens reflex digital camera, a lens integrated digital camera, and a camera for mobile phones. May be

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
28…操作部
29…メモリ
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 digital camera 2 camera main body 21 camera control part 22 imaging element 221 imaging pixel 222a, 222b focus detection pixel 28 operation part 29 memory 3 lens barrel 32 focus lens 36 focus lens drive motor 37: Lens control unit

Claims (9)

絞りを有する光学系による像を撮像して信号を出力する撮像部と、
前記撮像部から出力された信号に基づいて、前記光学系による像が合焦する合焦位置と前記撮像部とのずれ量を検出する検出部と、
前記絞りの絞り値を制御する制御部と、を備え、
前記制御部は、前記信号を画像データとして記録するために前記撮像部が撮像を行う間の第1絞り値が第1閾値以下であるとき、前記検出部がずれ量を検出するために前記撮像部が撮像を行う間の第2絞り値を前記第1絞り値に制御する撮像装置。
An imaging unit that captures an image by an optical system having a diaphragm and outputs a signal;
A detection unit that detects a shift amount between a focusing position at which an image by the optical system is focused and the imaging unit based on a signal output from the imaging unit;
A control unit that controls the aperture value of the aperture;
The control unit is configured to detect the amount of deviation when the first aperture value is equal to or less than a first threshold while the imaging unit performs imaging in order to record the signal as image data. An imaging device configured to control a second aperture value to the first aperture value while the unit is performing imaging.
請求項1に記載の撮像装置であって、
前記制御部は、前記第1絞り値が前記第1閾値より大きいとき、前記第2絞り値を前記第1閾値に制御する撮像装置。
The imaging apparatus according to claim 1,
An imaging device configured to control the second aperture value to the first threshold value when the first aperture value is larger than the first threshold value;
請求項1または2に記載の撮像装置であって、
前記制御部は、前記第1絞り値が前記第1閾値より小さい第2閾値以上であるとき、前記第2絞り値を前記第1絞り値に制御する撮像装置。
The imaging device according to claim 1 or 2,
An imaging device configured to control the second aperture value to the first aperture value when the first aperture value is equal to or greater than a second threshold value smaller than the first threshold value;
請求項3に記載の撮像装置であって、
前記制御部は、前記第1絞り値が前記第1閾値より大きく、前記信号に基づく画像が適正露出にならないとき、前記第1閾値以下、前記第2閾値以上の範囲で前記第2絞り値を制御する撮像装置。
The imaging apparatus according to claim 3,
When the first aperture value is larger than the first threshold and the image based on the signal does not have a proper exposure, the control unit controls the second aperture value within the range equal to or less than the first threshold and greater than the second threshold. Imaging device to control.
請求項3または4に記載の撮像装置であって、
前記制御部は、前記第1絞り値が前記第1閾値以下、前記第2閾値以上であり、前記信号に基づく画像が適正露出にならないとき、前記第1絞り値以下、前記第2閾値以上の範囲で前記第2絞り値を制御する撮像装置。
The imaging apparatus according to claim 3 or 4,
The controller controls the first aperture value to be equal to or less than the first threshold and equal to or more than the second threshold, and equal to or less than the first aperture value and equal to or more than the second threshold when an image based on the signal is not properly exposed. An imaging device for controlling the second aperture value in a range.
請求項3から請求項5のいずれか一項に記載の撮像装置であって、
前記制御部は、前記第1絞り値が前記第2閾値以下であるとき、前記第2絞り値を前記第1絞り値に制御する撮像装置。
An imaging apparatus according to any one of claims 3 to 5, wherein
The imaging device controls the second aperture value to the first aperture value when the first aperture value is equal to or less than the second threshold.
請求項3から請求項6のいずれか一項に記載の撮像装置において、
前記光学系を有する交換レンズを装着可能な装着部と、
交換レンズごとに前記第2閾値を記憶する記憶部と、を備える撮像装置。
The imaging apparatus according to any one of claims 3 to 6,
A mounting portion on which the interchangeable lens having the optical system can be mounted;
And a storage unit configured to store the second threshold for each interchangeable lens.
請求項3から請求項6のいずれか一項に記載の撮像装置において、
前記光学系と、前記第2閾値を記憶する記憶部とを有する交換レンズを装着可能な装着部と、
前記交換レンズから、前記第2閾値の情報を受信する受信部と、を備える撮像装置。
The imaging apparatus according to any one of claims 3 to 6,
A mounting unit on which an interchangeable lens having the optical system and a storage unit storing the second threshold can be mounted;
An image pickup apparatus comprising: a receiving unit configured to receive information of the second threshold from the interchangeable lens.
請求項3から請求項8のいずれか一項に記載の撮像装置に装着可能な交換レンズであって、
前記光学系と、
前記第2閾値を記憶する記憶部と、
前記第2閾値の情報を前記撮像装置に送信する送信部と、を備える交換レンズ。
An interchangeable lens mountable on the imaging device according to any one of claims 3 to 8,
The optical system,
A storage unit that stores the second threshold;
A transmitter configured to transmit information of the second threshold to the imaging device.
JP2019020773A 2019-02-07 2019-02-07 Imaging apparatus and interchangeable lens Pending JP2019095806A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020773A JP2019095806A (en) 2019-02-07 2019-02-07 Imaging apparatus and interchangeable lens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020773A JP2019095806A (en) 2019-02-07 2019-02-07 Imaging apparatus and interchangeable lens

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016084058A Division JP6477576B2 (en) 2016-04-19 2016-04-19 Imaging device

Publications (1)

Publication Number Publication Date
JP2019095806A true JP2019095806A (en) 2019-06-20

Family

ID=66971616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020773A Pending JP2019095806A (en) 2019-02-07 2019-02-07 Imaging apparatus and interchangeable lens

Country Status (1)

Country Link
JP (1) JP2019095806A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096796A (en) * 2006-10-13 2008-04-24 Nikon Corp Automatic focusing device and camera
JP2010262173A (en) * 2009-05-08 2010-11-18 Sony Corp Imaging apparatus and photographic lens unit
JP2011022386A (en) * 2009-07-16 2011-02-03 Canon Inc Imaging apparatus and control method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096796A (en) * 2006-10-13 2008-04-24 Nikon Corp Automatic focusing device and camera
JP2010262173A (en) * 2009-05-08 2010-11-18 Sony Corp Imaging apparatus and photographic lens unit
JP2011022386A (en) * 2009-07-16 2011-02-03 Canon Inc Imaging apparatus and control method therefor

Similar Documents

Publication Publication Date Title
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP2013050691A (en) Imaging apparatus
JP6477744B2 (en) interchangeable lens
JP5760792B2 (en) Focus adjustment device and imaging device
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP5796388B2 (en) Focus detection apparatus and imaging apparatus
JP5454521B2 (en) Imaging device
JP2013015806A (en) Focus detector and imaging apparatus
JP6098690B2 (en) Lens barrel and camera body
JP5966283B2 (en) Camera body and camera
JP6183482B2 (en) Focus detection apparatus and imaging apparatus
JP5821934B2 (en) Focus detection device, camera body, and camera
JP5423734B2 (en) Lens barrel and imaging device
JP2019095806A (en) Imaging apparatus and interchangeable lens
JP5370411B2 (en) Imaging device
JP6477576B2 (en) Imaging device
JP5982749B2 (en) Focus adjustment device and imaging device
JP2019095809A (en) Imaging apparatus
JP5545278B2 (en) Lens adapter and camera body
JP6477630B2 (en) Imaging device
JP5434992B2 (en) Imaging device
JP5494594B2 (en) Lens barrel and camera body
JP5961979B2 (en) Focus adjustment device and imaging device
JP2019095808A (en) Imaging apparatus
JP5966273B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407