JP5454521B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5454521B2
JP5454521B2 JP2011146205A JP2011146205A JP5454521B2 JP 5454521 B2 JP5454521 B2 JP 5454521B2 JP 2011146205 A JP2011146205 A JP 2011146205A JP 2011146205 A JP2011146205 A JP 2011146205A JP 5454521 B2 JP5454521 B2 JP 5454521B2
Authority
JP
Japan
Prior art keywords
focus
optical system
unit
aperture value
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011146205A
Other languages
Japanese (ja)
Other versions
JP2013015561A (en
Inventor
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2011146205A priority Critical patent/JP5454521B2/en
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to CN201210177599.7A priority patent/CN102809877B/en
Priority to CN201610251874.3A priority patent/CN105892004A/en
Priority to CN201610251491.6A priority patent/CN105866917A/en
Priority to US13/485,361 priority patent/US9769370B2/en
Publication of JP2013015561A publication Critical patent/JP2013015561A/en
Application granted granted Critical
Publication of JP5454521B2 publication Critical patent/JP5454521B2/en
Priority to US15/705,617 priority patent/US10362212B2/en
Priority to US16/503,755 priority patent/US20190335086A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来より、撮像素子に備えられた焦点検出画素の出力に基づいて、光学系の像面のずれ量を検出することで、光学系の焦点状態を検出する撮像装置が知られている。このような撮像装置として、たとえば、焦点検出時のケラレの発生を防止するために、焦点検出を行う際に、光学系の絞り値が所定値以下となるにように、絞りを制御する方法が知られている(たとえば、特許文献1)。   2. Description of the Related Art Conventionally, there has been known an image pickup apparatus that detects a focus state of an optical system by detecting a shift amount of an image plane of the optical system based on an output of a focus detection pixel provided in the image pickup element. As such an imaging apparatus, for example, in order to prevent the occurrence of vignetting during focus detection, there is a method of controlling the aperture so that the aperture value of the optical system is equal to or less than a predetermined value when performing focus detection. Known (for example, Patent Document 1).

特開2010−217618号公報JP 2010-217618 A

しかしながら、従来技術では、画像を本撮影する際の撮影絞り値が、焦点検出を行う際の絞り値よりも小さく(画像を本撮影する際の開口サイズが、焦点検出を行う際の開口サイズよりも大きく)なる場合があり、このような場合に、画像を撮影する際の被写界深度が、焦点検出を行う際の被写界深度よりも浅くなってしまい、焦点検出時にピントの合っていた被写体に、画像を本撮影する際に、ピントが合わなくなってしまう場合があった。   However, in the prior art, the shooting aperture value when the actual image is captured is smaller than the aperture value when the focus detection is performed (the aperture size when the image is captured is larger than the aperture size when the focus detection is performed). In such a case, the depth of field when shooting an image becomes shallower than the depth of field when performing focus detection, and the focus is in focus during focus detection. In some cases, the subject may not be in focus when the image is actually captured.

本発明が解決しようとする課題は、画像を良好に撮影することができる撮像装置を提供することである。   The problem to be solved by the present invention is to provide an imaging apparatus capable of capturing an image satisfactorily.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In the following description, reference numerals corresponding to the drawings showing the embodiment of the present invention are given and described. However, the reference numerals are only for facilitating the understanding of the invention and are not intended to limit the invention. .

[1]本発明に係る撮像装置は、光学系による像を撮像し、撮像した像に対応する画像信号を出力する撮像部(22)と、前記撮像部の受光面に備えられた焦点検出画素(222a,222b)の出力に基づいて、前記光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する焦点検出部(21)と、前記光学系を通過し、前記撮像部の受光面に入射する光束を制限する絞り(34)を制御する絞り制御部(21)と、前記光学系の絞り値、露光時間、及び、撮像感度のうち少なくとも1つを用いて前記撮像部に対する露出制御を行う露出制御部(21)と、を備え、前記絞り制御部は、前記焦点検出部により焦点検出を行う場合であり、前記焦点検出部により焦点状態を検出する前には、前記光学系の絞り値が、前記所定の絞り値以下、かつ、光学系による像を本撮影する際の撮影絞り値以下の値である第1絞り値になるように前記絞りを制御する第1制御を行い、前記露出制御部は、前記第1制御を行った後であって前記焦点検出部により焦点状態を検出する前に、前記露光時間及び前記撮像感度を変更することで適正な露出制御ができるときには、前記光学系の絞り値を前記第1絞り値から変更せずに露出制御を行い、前記第1制御を行った後であって前記焦点検出部により焦点状態を検出する前に、前記露光時間及び前記撮像感度を変更しても適正な露出制御ができないときには、前記光学系の絞り値を前記第1絞り値から前記撮影絞り値以下の値である第2絞り値に変更して露出制御を行うことを特徴とする。
[1] An image pickup apparatus according to the present invention picks up an image by an optical system, outputs an image signal corresponding to the picked-up image, and a focus detection pixel provided on a light receiving surface of the image pickup unit. Based on the output of (222a, 222b), by detecting the shift amount of the image plane by the optical system, the focus detection unit (21) for detecting the focus state of the optical system, and the optical system, By using at least one of an aperture value, an exposure time, and an imaging sensitivity of the optical system, an aperture control unit (21) that controls an aperture (34) that limits a light beam incident on a light receiving surface of the imaging unit An exposure control unit (21) for performing exposure control on the imaging unit, wherein the aperture control unit performs focus detection by the focus detection unit , and before the focus state is detected by the focus detection unit. , the optical system of the aperture value, the Constant aperture value or less, and performs the first control for controlling the aperture such that the first aperture is a value of the photographing aperture following the time of the shooting an image by an optical system, the exposure control unit When the appropriate exposure control can be performed by changing the exposure time and the imaging sensitivity after performing the first control and before detecting the focus state by the focus detection unit , the aperture of the optical system The exposure control is performed without changing the value from the first aperture value, and the exposure time and the imaging sensitivity are changed after the first control is performed and before the focus state is detected by the focus detection unit. If proper exposure control is not possible, exposure control is performed by changing the aperture value of the optical system from the first aperture value to a second aperture value that is equal to or smaller than the photographing aperture value. .

[2]上記撮像装置に係る発明において、前記光学系の駆動制御をする駆動制御部(37)と、前記露出制御部が撮影画面の全体が適正露出になるように露出制御をしたときに、前記焦点検出部の検出結果の信頼性があるか否かを判断する判断部(21)と、を備え、前記駆動制御部は、前記判断部により前記焦点検出部(21)の検出結果の信頼性があると判断されたときには、前記光学系の駆動制御を行い、前記判断部により前記焦点検出部の検出結果の信頼性があると判断されないときには、前記光学系の駆動制御を行わず、前記露出制御部(21)は、前記判断部により前記焦点検出部の検出結果の信頼性があると判断されないときには、前記適正露出よりも明るい露出が得られるように露出制御を行うように構成することができる。 [2] In the invention related to the imaging apparatus, when the exposure control is performed so that the entire exposure screen is properly exposed by the drive control unit (37) that controls the drive of the optical system and the exposure control unit, A determination unit (21) that determines whether or not the detection result of the focus detection unit is reliable, and the drive control unit uses the determination unit to trust the detection result of the focus detection unit (21). When it is determined that the optical system is driven, the drive control of the optical system is performed. When the determination unit does not determine that the detection result of the focus detection unit is reliable, the drive control of the optical system is not performed. The exposure control unit (21) is configured to perform exposure control so that an exposure brighter than the appropriate exposure is obtained when the determination unit does not determine that the detection result of the focus detection unit is reliable. Can

[3]上記撮像装置に係る発明において、前記絞り制御部(21)は、前記光学系の絞り値を固定したまま、焦点検出に適した露出が得られない場合に、前記光学系の絞り値を、前記撮影絞り値以下の範囲内で変更するように構成することができる。
[3] In the invention relating to the imaging apparatus, the aperture controller (21) may stop the aperture value of the optical system when an exposure suitable for focus detection cannot be obtained with the aperture value of the optical system fixed. Can be changed within the range of the photographing aperture value or less.

[4]
上記撮像装置に係る発明において、焦点調節光学系(32)を光軸方向に駆動させることで、前記光学系の焦点調節を行う焦点調節部(36)と、前記焦点調節部による焦点調節を起動する起動部(28)と、をさらに備え、前記露出制御部(21)は、前記起動部により、前記焦点調節の起動が行われる前から、前記露出制御を行うように構成することができる。
[4]
In the invention relating to the imaging apparatus, the focus adjustment optical system (32) is driven in the optical axis direction to activate the focus adjustment unit (36) for adjusting the focus of the optical system and the focus adjustment by the focus adjustment unit. The exposure control unit (21) may be configured to perform the exposure control before the focus adjustment is activated by the activation unit.

[5]上記撮像装置に係る発明において、前記焦点検出部(21)により焦点検出を行う際に、前記撮像部(22)により繰り返し撮像された像に対応するスルー画像を表示する表示部(26)をさらに備えるように構成することができる。   [5] In the invention relating to the imaging apparatus, when focus detection is performed by the focus detection unit (21), a display unit (26) that displays a through image corresponding to an image repeatedly captured by the imaging unit (22). ).

[6]上記撮像装置に係る発明において、動画撮影モードを設定可能なモード設定部(28)をさらに備え、前記絞り制御部(21)は、前記動画撮影モードが設定されている場合には、前記光学系の絞り値を、前記撮影絞り値に設定するように構成することができる。   [6] In the invention relating to the imaging apparatus, the image pickup apparatus further includes a mode setting unit (28) capable of setting a moving image shooting mode, and the aperture control unit (21), when the moving image shooting mode is set, The aperture value of the optical system can be set to the shooting aperture value.

[7]上記撮像装置に係る発明において、前記絞り制御部(21)は、前記光学系による像を本撮影する際に、前記光学系の絞り値を、前記撮影絞り値に設定するように構成することができる。   [7] In the invention relating to the imaging apparatus, the aperture control unit (21) is configured to set the aperture value of the optical system to the imaging aperture value when the image is captured by the optical system. can do.

本発明によれば、画像を良好に撮影することができる。   According to the present invention, an image can be taken satisfactorily.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面における焦点検出位置を示す正面図である。FIG. 2 is a front view showing a focus detection position on the imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is an enlarged front view showing one of the imaging pixels 221. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is an enlarged cross-sectional view showing one of the imaging pixels 221. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged cross-sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged cross-sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、本実施形態に係るカメラの動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the camera according to the present embodiment. 図10は、ステップS118のスキャン動作実行処理を示すフローチャートである。FIG. 10 is a flowchart showing the scan operation execution process in step S118.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, by rotating the rotating cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves straight along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by rotating the rotary cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the focus lens drive motor 36 as the drive source is the lens. The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by a transmission composed of a plurality of gears, for example, and when the drive shaft of the focus lens drive motor 36 is driven to rotate in any one direction, it is transmitted to the rotary cylinder at a predetermined gear ratio. Then, when the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves linearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is rotated in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the optical axis L1 direction correlates with the rotation angle of the rotating cylinder, and can be obtained by detecting the relative rotation angle of the rotating cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus calculated based on this information. The driving position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された絞り値に応じた開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された撮影絞り値に応じた開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an aperture diameter corresponding to the aperture value calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the aperture diameter corresponding to the set photographing aperture value is input from the camera control unit 21 to the lens control unit 37 by manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。なお、撮像素子22の撮像面の前方には、赤外光をカットするための赤外線カットフィルタ、および画像の折り返しノイズを防止するための光学的ローパスフィルタが配置されている。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The image sensor 22 is composed of a device such as a CCD or CMOS, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. As the memory 24, any of a removable card type memory and a built-in type memory can be used. An infrared cut filter for cutting infrared light and an optical low-pass filter for preventing image aliasing noise are disposed in front of the imaging surface of the image sensor 22. Details of the structure of the image sensor 22 will be described later.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Is output to the liquid crystal driving circuit 25 and the memory 24 of the electronic viewfinder 26. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographic optical system by the phase detection method and the focus state of the photographic optical system by the contrast detection method based on the pixel data read from the image sensor 22. I do. A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタン、動画撮影ボタン、および撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。また、操作部28は、静止画撮影モード/動画撮影モードの切換が行えるようにもなっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button, a moving image shooting button, and an input switch for the photographer to set various operation modes of the camera 1, and can switch between an autofocus mode and a manual focus mode. The operation unit 28 can also switch between the still image shooting mode / moving image shooting mode. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the image sensor 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the III part of FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, the imaging element 22 of the present embodiment includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmit a green wavelength region. A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as shown in the cross-sectional view of FIG. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system by the micro lens 2211, and receives the imaging light beam.

また、撮像素子22の撮像面の中心、ならびに中心から左右対称位置の3箇所には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a,22b,22cが設けられている。そして、図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列(22a,22c,22c)に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, focus detection pixel rows 22a, 22b, and 22c in which focus detection pixels 222a and 222b are arranged in place of the above-described imaging pixels 221 at the center of the image pickup surface of the image pickup element 22 and three positions that are symmetrical from the center. Is provided. As shown in FIG. 3, one focus detection pixel column includes a plurality of focus detection pixels 222 a and 222 b that are alternately arranged adjacent to each other in a horizontal row (22 a, 22 c, 22 c). Yes. In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.

なお、図2に示す焦点検出画素列22a〜22cの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所にすることもでき、また、四箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列22a〜22cの中から、撮影者が操作部28を手動操作することにより所望の焦点検出画素列を、焦点検出位置として選択することもできる。   Note that the positions of the focus detection pixel rows 22a to 22c shown in FIG. 2 are not limited to the illustrated positions, and may be any one or two, or may be arranged at four or more positions. it can. In actual focus detection, the photographer manually operates the operation unit 28 from among a plurality of focus detection pixel rows 22a to 22c, and selects a desired focus detection pixel row as a focus detection position. You can also

図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出画素列22a〜22cを構成する。   FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 5A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 5B, and a semiconductor of the image sensor 22 as shown in a cross-sectional view of FIG. 7B. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. Then, as shown in FIG. 3, these focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row, thereby forming focus detection pixel rows 22a to 22c shown in FIG.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive a light beam that passes through a predetermined region (eg, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.

また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 5A and 5B have a semicircular shape, the shapes of the photoelectric conversion units 2222a and 2222b are not limited thereto. Other shapes such as an elliptical shape, a rectangular shape, and a polygonal shape can also be used.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. 8 illustrates only the focus detection pixels 222a and 222b that are located in the vicinity of the photographing optical axis L1, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 8 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.

ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341, 342.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   As shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.

すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. The signal corresponding to is output.

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   Further, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a straight line as shown in FIG. 3, and the outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b are converted into the distance measurement pupil 341, respectively. Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a focal plane corresponding to the current focal plane (the position corresponding to the position of the microlens array on the planned focal plane) The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based thereon are executed by the camera control unit 21.

また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算して焦点電圧を検出することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算して焦点電圧を検出することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained, for example, by extracting a high-frequency component of an image output from the imaging pixel 221 of the image sensor 22 using a high-frequency transmission filter and integrating the extracted high-frequency components to detect a focus voltage. It can also be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating them to detect the focus voltage.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed in which the position of the focus lens 32 is determined as the in-focus position. Note that this in-focus position is obtained when, for example, when the focus evaluation value is calculated while driving the focus lens 32, the focus evaluation value rises twice and then moves down twice. Can be obtained by performing an operation such as interpolation using the focus evaluation value.

次いで、本実施形態に係るカメラ1の動作例を説明する。図9は、本実施形態に係るカメラ1の動作例を示すフローチャートである。なお、以下の動作は、カメラ1の電源がオンされることにより開始される。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 9 is a flowchart showing an operation example of the camera 1 according to the present embodiment. The following operation is started when the camera 1 is turned on.

まず、ステップS101では、カメラ制御部21により、動画像の撮影が行われているか否かの判断が行われる。本実施形態において、カメラ制御部21は、たとえば、撮影者により操作部28に備えられた動画撮影ボタンが押下され、動画像の撮影が開始された場合に、または、動画撮影モードにおいて、撮影者により、動画像の撮影を開始するためのボタン(たとえば、シャッターレリーズボタン)が押下され、動画像の撮影が開始された場合に、動画像の撮影が行われていると判断することができる。動画像の撮影が行われていると判断された場合は、ステップS121に進み、一方、動画像の撮影が行われていないと判断された場合は、ステップS102に進む。   First, in step S101, the camera control unit 21 determines whether a moving image is being captured. In the present embodiment, the camera control unit 21 is configured such that, for example, when a moving image shooting button provided in the operation unit 28 is pressed by the photographer and moving image shooting starts or in the moving image shooting mode, Thus, when a button for starting moving image shooting (for example, a shutter release button) is pressed and moving image shooting is started, it can be determined that moving image shooting is being performed. If it is determined that a moving image has been shot, the process proceeds to step S121. If it is determined that a moving image has not been shot, the process proceeds to step S102.

ステップS102では、カメラ制御部21により、光学系の絞り値(F値)を、焦点検出を行うための絞り値に設定するための処理が行われる。具体的には、カメラ制御部21は、画像を本撮影するために設定された撮影絞り値が、良好な焦点検出の精度を得ることができる、焦点検出に適した絞り値よりも大きい(絞り込まれている)場合には、光学系の絞り値を、焦点検出に適した絞り値に設定する。たとえば、焦点検出に適した絞り値がF5.6であり、撮影絞り値がF16である場合には、カメラ制御部21は、光学系の絞り値を、焦点検出に適した絞り値であるF5.6に設定する。また、カメラ制御部21は、撮影絞り値が、焦点検出に適した絞り値以下である場合には、光学系の絞り値を、撮影絞り値に設定する。たとえば、焦点検出に適した絞り値がF5.6であり、撮影絞り値がF4.0である場合には、カメラ制御部21は、光学系の絞り値を、撮影絞り値であるF4.0に設定する。設定された絞り値は、カメラ制御部21から、レンズ制御部37に送信され、絞り34の開口径が、設定された絞り値に応じて調節されることとなる。なお、撮影者により、絞り優先モードや、マニュアル露出モードなどの露出設定モードが選択されている場合には、カメラ制御部21は、撮影者により設定された撮影絞り値を、そのまま、光学系の絞り値として設定する。   In step S102, the camera control unit 21 performs a process for setting the aperture value (F value) of the optical system to an aperture value for performing focus detection. Specifically, the camera control unit 21 has a shooting aperture value set for actual shooting of an image larger than an aperture value suitable for focus detection that can obtain good focus detection accuracy (narrowing down). The aperture value of the optical system is set to an aperture value suitable for focus detection. For example, when the aperture value suitable for focus detection is F5.6 and the shooting aperture value is F16, the camera control unit 21 sets the aperture value of the optical system to F5 which is an aperture value suitable for focus detection. Set to .6. The camera control unit 21 sets the aperture value of the optical system to the imaging aperture value when the imaging aperture value is equal to or smaller than the aperture value suitable for focus detection. For example, when the aperture value suitable for focus detection is F5.6 and the shooting aperture value is F4.0, the camera control unit 21 sets the aperture value of the optical system to F4.0, which is the shooting aperture value. Set to. The set aperture value is transmitted from the camera control unit 21 to the lens control unit 37, and the aperture diameter of the aperture 34 is adjusted according to the set aperture value. When the photographer has selected an aperture setting mode such as an aperture priority mode or a manual exposure mode, the camera control unit 21 uses the photographing aperture value set by the photographer as it is in the optical system. Set as the aperture value.

ステップS103では、カメラ制御部21による、スルー画像の生成、および観察光学系の電子ビューファインダ26による、スルー画像の表示が行われる。具体的には、撮像素子22により露光動作が行なわれ、カメラ制御部21により、撮像画素221の画素データの読み出しが行なわれる。そして、カメラ制御部21は、読み出した画素データに基づきスルー画像を生成し、生成されたスルー画像は液晶駆動回路25に送出され、観察光学系の電子ビューファインダ26に表示される。そして、これにより、接眼レンズ27を介して、ユーザは被写体の動画を視認することが可能となる。   In step S103, the camera control unit 21 generates a through image, and the through image is displayed by the electronic viewfinder 26 of the observation optical system. Specifically, an exposure operation is performed by the imaging element 22, and pixel data of the imaging pixel 221 is read by the camera control unit 21. Then, the camera control unit 21 generates a through image based on the read pixel data, and the generated through image is sent to the liquid crystal driving circuit 25 and displayed on the electronic viewfinder 26 of the observation optical system. As a result, the user can view the moving image of the subject through the eyepiece lens 27.

ステップS104では、カメラ制御部21により、撮影画面を複数の領域に分割し、分割した各領域ごとに測光を行う多分割測光(マルチパターン測光)が行われ、撮影画面全体の輝度値Bvが算出される。そして、カメラ制御部21により、算出された撮影画面全体の輝度値Bvに基づいて、撮影画面全体で適正露出が得られるように、露出制御値のうち、受光感度Svおよび露光時間Tvのうち少なくとも一方が変更される。なお、ステップS104では、ステップS102で設定した絞り値に応じた絞りAvは固定したままで、受光感度Svおよび露光時間Tvのうち少なくとも一方を変更する。そして、変更された受光感度Sv、露光時間Tvに基づいて、たとえば、シャッター23のシャッタースピードや、撮像素子21の感度などを設定することで、撮像素子22に対する露出を制御する。   In step S104, the camera control unit 21 divides the shooting screen into a plurality of regions, and performs multi-division metering (multi-pattern metering) in which metering is performed for each of the divided regions, and the luminance value Bv of the entire shooting screen is calculated. Is done. Then, at least one of the light receiving sensitivity Sv and the exposure time Tv among the exposure control values so that a proper exposure can be obtained on the entire shooting screen based on the calculated brightness value Bv of the entire shooting screen. One is changed. In step S104, at least one of the light receiving sensitivity Sv and the exposure time Tv is changed while the aperture Av corresponding to the aperture value set in step S102 is fixed. Then, based on the changed light reception sensitivity Sv and exposure time Tv, for example, the exposure to the image sensor 22 is controlled by setting the shutter speed of the shutter 23, the sensitivity of the image sensor 21, and the like.

ステップS105では、カメラ制御部21により、ステップS104の露出制御により、撮影画面全体で適正露出が得られたか否かの判断が行われる。受光感度Svや露光時間Tvの変更のみでは、撮影画面全体が適正露出とならない場合には、ステップS106に進み、一方、受光感度Svおよび露光時間Tvのうち少なくとも一方を変更することで、撮影画面全体で適正露出が得られた場合には、ステップS108に進む。   In step S105, the camera control unit 21 determines whether or not an appropriate exposure has been obtained on the entire shooting screen by the exposure control in step S104. If only the change in the light receiving sensitivity Sv and the exposure time Tv does not provide proper exposure of the entire shooting screen, the process proceeds to step S106. If proper exposure is obtained as a whole, the process proceeds to step S108.

ステップS106では、受光感度Svや露光時間Tvの変更のみでは、撮影画面全体で適正露出が得られないと判断されているため、カメラ制御部21により、絞りAvの変更が行われる。具体的には、カメラ制御部21は、撮影画面全体の輝度値Bvに基づいて、絞りAvを算出し、光学系の絞り値を、算出した絞りAvに応じた値に変更する。また、本実施形態において、カメラ制御部21は、光学系の絞り値が、撮影絞り値以下の範囲内となるように、絞りAvを変更する。さらに、カメラ制御部21は、たとえ撮影画面全体の輝度値Bvが変わってしまった場合でも、再度、絞りAvを変更しなくてもよいように、絞りAvを、光学系の絞り値が小さくなる方向(開口サイズが大きくなる方向)に、若干、余裕をもって変更する。   In step S106, it is determined that a proper exposure cannot be obtained over the entire photographing screen only by changing the light receiving sensitivity Sv and the exposure time Tv, so the camera control unit 21 changes the aperture Av. Specifically, the camera control unit 21 calculates the aperture Av based on the luminance value Bv of the entire shooting screen, and changes the aperture value of the optical system to a value corresponding to the calculated aperture Av. In the present embodiment, the camera control unit 21 changes the aperture Av so that the aperture value of the optical system is within the range of the imaging aperture value or less. Further, the camera control unit 21 reduces the aperture Av and the aperture value of the optical system so that the aperture Av does not need to be changed again even if the luminance value Bv of the entire shooting screen has changed. Change slightly in the direction (direction in which the opening size increases) with some margin.

ステップS107では、カメラ制御部21により、ステップS106で変更された絞りAvにおいて、撮影画面全体で適正露出が得られるように、受光感度Svおよび露光時間Tvが決定される。具体的には、カメラ制御部21は、ステップS104と同様に、撮影画面全体でマルチパターン測光を行い、撮影画面全体の輝度値Bvを算出する。そして、カメラ制御部21は、算出した輝度値Bvと、ステップS106で変更された絞りAvとに基づいて、撮影画面全体で適正露出が得られる受光感度Svおよび露光時間Tvを決定し、決定した受光感度Svおよび露光時間Tvと、ステップS106で変更された絞りAvとに基づいて、撮像素子22に対する露出を制御する。   In step S107, the camera control unit 21 determines the light receiving sensitivity Sv and the exposure time Tv so that a proper exposure can be obtained on the entire photographing screen at the aperture Av changed in step S106. Specifically, as in step S104, the camera control unit 21 performs multi-pattern photometry over the entire shooting screen and calculates the luminance value Bv of the entire shooting screen. Then, the camera control unit 21 determines and determines the light receiving sensitivity Sv and the exposure time Tv with which appropriate exposure can be obtained over the entire photographing screen based on the calculated luminance value Bv and the aperture Av changed in step S106. Based on the light receiving sensitivity Sv and the exposure time Tv, and the aperture Av changed in step S106, the exposure to the image sensor 22 is controlled.

そして、ステップS108では、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出処理が行われる。具体的には、まず、撮像素子22により、光学系からの光束の受光が行われ、カメラ制御部21により、撮像素子22の3つの焦点検出画素列22a〜22cを構成する各焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しが行われる。この場合、撮影者の手動操作により、特定の焦点検出位置が選択されているときは、その焦点検出位置に対応する焦点検出画素からのデータのみを読み出すような構成としてもよい。そして、カメラ制御部21は、読み出された一対の像データに基づいて像ズレ検出演算処理(相関演算処理)を実行し、3つの焦点検出画素列22a〜22cに対応する焦点検出位置における像ズレ量を演算し、さらに像ズレ量をデフォーカス量に変換する。また、カメラ制御部21は、算出したデフォーカス量について、その信頼性の評価を行う。たとえば、カメラ制御部21は、一対の像データの一致度やコントラストなどに基づいて、デフォーカス量の信頼性を判断することができる。   In step S108, the camera control unit 21 performs a defocus amount calculation process using a phase difference detection method. Specifically, first, a light beam from the optical system is received by the image sensor 22, and each focus detection pixel 222 a configuring the three focus detection pixel rows 22 a to 22 c of the image sensor 22 by the camera control unit 21. , 222b, a pair of image data corresponding to the pair of images is read out. In this case, when a specific focus detection position is selected by a manual operation of the photographer, only data from focus detection pixels corresponding to the focus detection position may be read. Then, the camera control unit 21 performs image shift detection calculation processing (correlation calculation processing) based on the read pair of image data, and images at the focus detection positions corresponding to the three focus detection pixel rows 22a to 22c. The shift amount is calculated, and the image shift amount is converted into a defocus amount. Further, the camera control unit 21 evaluates the reliability of the calculated defocus amount. For example, the camera control unit 21 can determine the reliability of the defocus amount based on the matching degree and contrast of the pair of image data.

ステップS109では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれる。シャッターレリーズボタンが半押しされた場合は、ステップS110に進む。一方、シャッターレリーズボタンが半押しされていない場合は、ステップS103に戻り、シャッターレリーズボタンが半押しされるまで、スルー画像の表示と、露出制御と、デフォーカス量の算出とが繰り返し実行される。   In step S109, the camera control unit 21 determines whether the shutter release button provided in the operation unit 28 is half-pressed (the first switch SW1 is turned on). If the shutter release button is pressed halfway, the process proceeds to step S110. On the other hand, if the shutter release button has not been pressed halfway, the process returns to step S103, and display of a through image, exposure control, and calculation of the defocus amount are repeatedly executed until the shutter release button is pressed halfway. .

ステップS110では、カメラ制御部21により、位相差検出形式によりデフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS111に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS115に進む。なお、本実施形態においては、デフォーカス量の算出ができた場合でも、算出されたデフォーカス量の信頼性が低い場合には、デフォーカス量が算出できなかったものとして扱い、ステップS115に進むこととする。本実施形態においては、たとえば、被写体のコントラストが低い場合、被写体が超低輝度被写体である場合、あるいは被写体が超高輝度被写体である場合などにおいて、デフォーカス量の信頼性が低いと判断される。   In step S110, the camera control unit 21 determines whether or not the defocus amount can be calculated by the phase difference detection format. If the defocus amount can be calculated, it is determined that distance measurement is possible and the process proceeds to step S111. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is not possible and the process proceeds to step S115. . In the present embodiment, even if the defocus amount can be calculated, if the reliability of the calculated defocus amount is low, it is treated that the defocus amount cannot be calculated, and the process proceeds to step S115. I will do it. In the present embodiment, for example, when the subject has a low contrast, the subject is an ultra-low brightness subject, or the subject is an ultra-high brightness subject, it is determined that the reliability of the defocus amount is low. .

ステップS111では、カメラ制御部21により、ステップS108で算出されたデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行われ、算出されたレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出される。これにより、フォーカスレンズ駆動モータ36により、算出されたレンズ駆動量に基づいて、フォーカスレンズ32の駆動が行われる。   In step S111, the camera control unit 21 calculates the lens drive amount necessary to drive the focus lens 32 to the in-focus position based on the defocus amount calculated in step S108. The lens driving amount is sent to the focus lens driving motor 36 via the lens control unit 37. As a result, the focus lens driving motor 36 drives the focus lens 32 based on the calculated lens driving amount.

ステップS112では、カメラ制御部21により、シャッターレリーズボタンの全押し(第2スイッチSW2のオン)がされたか否か判断される。第2スイッチSW2がオンの場合には、ステップS113に進み、一方、第2スイッチSW2がオンではない場合には、ステップS103に戻る。   In step S112, the camera control unit 21 determines whether or not the shutter release button has been fully pressed (the second switch SW2 is turned on). If the second switch SW2 is on, the process proceeds to step S113. On the other hand, if the second switch SW2 is not on, the process returns to step S103.

ステップS113では、画像の本撮影を行うために、カメラ制御部21により、光学系の絞り値を撮影絞り値に設定する処理が行われる。たとえば、撮影絞り値がF16である場合には、カメラ制御部21は、光学系の絞り値を、撮影絞り値であるF16に設定する。そして、続くステップS114では、ステップS113で設定された絞り値で、撮像素子22により画像の本撮影が行われ、撮影された画像の画像データが、メモリ24に記憶される。   In step S113, the camera control unit 21 performs processing for setting the aperture value of the optical system to the shooting aperture value in order to perform the actual shooting of the image. For example, when the shooting aperture value is F16, the camera control unit 21 sets the aperture value of the optical system to F16 that is the shooting aperture value. In subsequent step S <b> 114, the image is captured by the image sensor 22 with the aperture value set in step S <b> 113, and image data of the captured image is stored in the memory 24.

一方、ステップS104〜S107において、撮影画面全体が適正露出となるように露出制御を行ったが、ステップS110で、デフォーカス量を算出できないと判断された場合には、焦点検出に適した露出とするために、ステップS115に進む。ステップS115では、カメラ制御部21により、焦点検出に適した露出が得られるように、焦点検出用の露出制御が行われる。具体的には、カメラ制御部21は、撮像素子22の出力に基づいて、焦点検出エリア(図2に示す焦点検出画素列22a,22b,22c)をそれぞれ含む所定領域内においてスポット測光を行い、焦点検出エリアを含む所定領域内の輝度値SpotBvを算出する。そして、カメラ制御部21は、算出した輝度値SpotBvに基づいて、焦点検出に適した露出(例えば、適正露出よりも1段明るい露出)が得られるように、受光感度Sv、露光時間Tv、および絞りAvを決定する。また、本実施形態において、カメラ制御部21は、露出制御値のうち、受光感度Svおよび露光時間Tvを優先的に変更し、受光感度Svおよび露光時間Tvの変更のみでは、焦点検出に適した露出を得ることができない場合に限り、絞りAvを変更する。そして、カメラ制御部21は、決定した受光感度Sv、露光時間Tv、および絞りAvに基づいて、撮像素子22に対する露出を制御する。   On the other hand, in steps S104 to S107, the exposure control is performed so that the entire shooting screen is properly exposed. However, if it is determined in step S110 that the defocus amount cannot be calculated, the exposure is suitable for focus detection. Therefore, the process proceeds to step S115. In step S115, exposure control for focus detection is performed by the camera control unit 21 so that an exposure suitable for focus detection is obtained. Specifically, the camera control unit 21 performs spot photometry in predetermined areas including the focus detection areas (focus detection pixel rows 22a, 22b, and 22c shown in FIG. 2) based on the output of the image sensor 22, A luminance value SpotBv within a predetermined area including the focus detection area is calculated. Then, the camera control unit 21 receives the light sensitivity Sv, the exposure time Tv, and the exposure time Sv so as to obtain an exposure suitable for focus detection (for example, an exposure one step brighter than the appropriate exposure) based on the calculated luminance value SpotBv. The aperture Av is determined. In the present embodiment, the camera control unit 21 preferentially changes the light receiving sensitivity Sv and the exposure time Tv among the exposure control values, and is suitable for focus detection only by changing the light receiving sensitivity Sv and the exposure time Tv. Only when the exposure cannot be obtained, the aperture Av is changed. Then, the camera control unit 21 controls the exposure to the image sensor 22 based on the determined light receiving sensitivity Sv, exposure time Tv, and aperture stop Av.

ステップS116では、カメラ制御部21により、焦点検出に適した露出で得られた画像データに基づいて、デフォーカス量の算出が行われ、続くステップS117では、カメラ制御部21により、焦点検出に適した露出で得られた画像データに基づいて、デフォーカス量を算出できたか否かの判断が行われる。デフォーカス量が算出された場合は、ステップS111に進み、算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動処理が行わる。一方、焦点検出に適した露出で得られた画像データを用いても、デフォーカス量が算出できなかった場合は、ステップS118に進み、後述するスキャン動作実行処理が行われる。   In step S116, the camera control unit 21 calculates the defocus amount based on the image data obtained with the exposure suitable for focus detection. In the subsequent step S117, the camera control unit 21 calculates the defocus amount. Based on the image data obtained by the exposure, it is determined whether or not the defocus amount has been calculated. When the defocus amount is calculated, the process proceeds to step S111, and the driving process of the focus lens 32 is performed based on the calculated defocus amount. On the other hand, if the defocus amount cannot be calculated even using image data obtained with exposure suitable for focus detection, the process proceeds to step S118, and scanning operation execution processing described later is performed.

ステップS118では、カメラ制御部21により、スキャン動作を実行するためのスキャン動作実行処理が行なわれる。ここで、スキャン動作とは、フォーカスレンズ駆動モータ36により、フォーカスレンズ32をスキャン駆動させながら、カメラ制御部21により、位相差検出方式によるデフォーカス量の算出、および焦点評価値の算出を、所定の間隔で同時に行い、これにより、位相差検出方式による合焦位置の検出と、コントラスト検出方式による合焦位置の検出とを、所定の間隔で、同時に実行する動作である。以下においては、図10を参照して、本実施形態に係るスキャン動作実行処理を説明する。なお、図10は、本実施形態に係るスキャン動作実行処理を示すフローチャートである。   In step S118, the camera control unit 21 performs a scan operation execution process for executing a scan operation. Here, the scan operation is a predetermined calculation of the defocus amount and the focus evaluation value by the phase difference detection method by the camera control unit 21 while the focus lens 32 is scan-driven by the focus lens drive motor 36. Thus, the detection of the in-focus position by the phase difference detection method and the detection of the in-focus position by the contrast detection method are simultaneously performed at predetermined intervals. In the following, the scan operation execution process according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing the scan operation execution process according to the present embodiment.

まず、ステップS201では、カメラ制御部21により、スキャン動作の開始処理が行われる。具体的には、カメラ制御部21は、レンズ制御部37にスキャン駆動開始指令を送出し、レンズ制御部37は、カメラ制御部21からの指令に基づき、フォーカスレンズ駆動モータ36を駆動させ、フォーカスレンズ32を光軸L1に沿ってスキャン駆動させる。なお、スキャン駆動を行う方向は特に限定されず、フォーカスレンズ32のスキャン駆動を、無限端から至近端に向かって行なってもよいし、あるいは、至近端から無限端に向かって行なってもよい。   First, in step S201, the camera control unit 21 performs a scan operation start process. Specifically, the camera control unit 21 sends a scan drive start command to the lens control unit 37, and the lens control unit 37 drives the focus lens drive motor 36 based on the command from the camera control unit 21 to focus. The lens 32 is scan-driven along the optical axis L1. The direction in which the scan drive is performed is not particularly limited, and the scan drive of the focus lens 32 may be performed from the infinite end to the close end, or may be performed from the close end to the infinite end. Good.

そして、カメラ制御部21は、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しを行い、これに基づき、位相差検出方式により、デフォーカス量の算出および算出されたデフォーカス量の信頼性の評価を行うとともに、フォーカスレンズ32を駆動させながら、所定間隔で、撮像素子22の撮像画素221から画素出力の読み出しを行い、これに基づき、焦点評価値を算出し、これにより、異なるフォーカスレンズ位置における焦点評価値を取得することで、コントラスト検出方式により合焦位置の検出を行う。   Then, while driving the focus lens 32, the camera control unit 21 reads out a pair of image data corresponding to the pair of images from the focus detection pixels 222a and 222b of the image sensor 22 at predetermined intervals. The phase difference detection method calculates the defocus amount, evaluates the reliability of the calculated defocus amount, and drives the focus lens 32 to drive the pixel output from the imaging pixel 221 of the imaging element 22 at a predetermined interval. Reading is performed, and based on this, a focus evaluation value is calculated, thereby acquiring a focus evaluation value at a different focus lens position, thereby detecting a focus position by a contrast detection method.

ステップS202では、カメラ制御部21により、スキャン動作を行なった結果、位相差検出方式により、デフォーカス量が算出できたか否かの判定が行なわれる。デフォーカス量が算出できた場合には、測距可能と判断して、ステップS205に進み、一方、デフォーカス量が算出できなかった場合には、測距不能と判断して、ステップS203に進む。   In step S202, it is determined whether or not the defocus amount has been calculated by the phase difference detection method as a result of the scanning operation performed by the camera control unit 21. If the defocus amount can be calculated, it is determined that distance measurement is possible and the process proceeds to step S205. On the other hand, if the defocus amount cannot be calculated, it is determined that distance measurement is not possible and the process proceeds to step S203. .

ステップS203では、カメラ制御部21により、スキャン動作を行なった結果、コントラスト検出方式により、合焦位置の検出ができたか否かの判定が行なわれる。コントラスト検出方式により、合焦位置の検出ができた場合には、ステップS207に進み、一方、合焦位置の検出ができなかった場合には、ステップS204に進む。   In step S203, it is determined whether the in-focus position has been detected by the contrast detection method as a result of the scanning operation performed by the camera control unit 21. If the in-focus position can be detected by the contrast detection method, the process proceeds to step S207. If the in-focus position cannot be detected, the process proceeds to step S204.

ステップS204では、カメラ制御部21により、スキャン動作を、フォーカスレンズ32の駆動可能範囲の全域について行なったか否かの判定が行なわれる。フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作を行なっていない場合には、ステップS202に戻り、ステップS202〜S204を繰り返すことにより、スキャン動作、すなわち、フォーカスレンズ32をスキャン駆動させながら、位相差検出方式によるデフォーカス量の算出、およびコントラスト検出方式による合焦位置の検出を、所定の間隔で同時に実行する動作を継続して行なう。一方、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行を完了している場合には、ステップS208に進む。   In step S <b> 204, the camera control unit 21 determines whether the scan operation has been performed for the entire driveable range of the focus lens 32. If the scan operation is not performed for the entire driveable range of the focus lens 32, the process returns to step S202, and steps S202 to S204 are repeated to perform the scan operation, that is, while the focus lens 32 is scan-driven. The operation of simultaneously executing the calculation of the defocus amount by the phase difference detection method and the detection of the in-focus position by the contrast detection method at predetermined intervals is continuously performed. On the other hand, if the scan operation has been completed for the entire driveable range of the focus lens 32, the process proceeds to step S208.

そして、スキャン動作を実行した結果、ステップS202において、位相差検出方式により、デフォーカス量が算出できたと判定された場合には、ステップS205に進み、ステップS205において、位相差検出方式により算出されたデフォーカス量に基づく、合焦動作が行なわれる。   As a result of executing the scanning operation, if it is determined in step S202 that the defocus amount can be calculated by the phase difference detection method, the process proceeds to step S205. In step S205, the defocus amount is calculated by the phase difference detection method. A focusing operation based on the defocus amount is performed.

すなわち、ステップS205では、カメラ制御部21により、まず、スキャン動作の停止処理が行なわれた後、算出されたデフォーカス量から、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行なわれ、算出されたレンズ駆動量が、レンズ制御部37を介して、レンズ駆動モータ36に送出される。そして、レンズ駆動モータ36は、カメラ制御部21により算出されたレンズ駆動量に基づいて、フォーカスレンズ32を合焦位置まで駆動させる。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS206に進み、ステップS206において、カメラ制御部21により、合焦と判定される。   That is, in step S205, the camera control unit 21 first performs a stop operation of the scanning operation, and then performs lens driving necessary to drive the focus lens 32 from the calculated defocus amount to the in-focus position. The amount is calculated, and the calculated lens driving amount is sent to the lens driving motor 36 via the lens control unit 37. Then, the lens driving motor 36 drives the focus lens 32 to the in-focus position based on the lens driving amount calculated by the camera control unit 21. When the driving of the focus lens 32 to the in-focus position is completed, the process proceeds to step S206, and in step S206, the camera control unit 21 determines that the focus is achieved.

また、スキャン動作を実行した結果、ステップS203において、コントラスト検出方式により、合焦位置が検出できたと判定された場合には、ステップS207に進み、コントラスト検出方式により検出された合焦位置に基づく、フォーカスレンズ32の駆動動作が行なわれる。   As a result of executing the scanning operation, if it is determined in step S203 that the in-focus position has been detected by the contrast detection method, the process proceeds to step S207, and based on the in-focus position detected by the contrast detection method. The drive operation of the focus lens 32 is performed.

すなわち、カメラ制御部21により、スキャン動作の停止処理が行なわれた後、コントラスト検出方式により検出された合焦位置に基づいて、フォーカスレンズ32を、合焦位置まで駆動させるレンズ駆動処理が行なわれる。そして、フォーカスレンズ32の合焦位置への駆動が完了すると、ステップS206に進み、カメラ制御部21により、合焦と判定される。   That is, after the scanning operation is stopped by the camera control unit 21, a lens driving process for driving the focus lens 32 to the in-focus position is performed based on the in-focus position detected by the contrast detection method. . When the driving of the focus lens 32 to the in-focus position is completed, the process proceeds to step S206, and the camera control unit 21 determines that the focus is in-focus.

一方、ステップS204において、フォーカスレンズ32の駆動可能範囲の全域について、スキャン動作の実行が完了していると判定された場合には、ステップS208に進む。ステップS208では、スキャン動作を行なった結果、位相差検出方式およびコントラスト検出方式のいずれの方式によっても、焦点検出を行うことができなかったため、スキャン動作の終了処理が行なわれ、次いで、ステップS209に進み、カメラ制御部21により、合焦不能と判定される。   On the other hand, if it is determined in step S204 that the scan operation has been completed for the entire driveable range of the focus lens 32, the process proceeds to step S208. In step S208, as a result of performing the scanning operation, focus detection could not be performed by any of the phase difference detection method and the contrast detection method, so that the scanning operation end processing is performed, and then in step S209 The camera control unit 21 determines that focusing cannot be performed.

そして、ステップS118のスキャン動作実行処理が終了した後は、ステップS119に進み、カメラ制御部21により、スキャン動作実行処理での合焦判定の結果に基づいて、合焦したか否かの判定が行われる。スキャン動作実行処理において、合焦と判定された場合は(ステップS206)、ステップS112に進む。一方、合焦不能と判定された場合は(ステップS209)、ステップS120に進み、ステップS120で、合焦不能表示が行なわれる。合焦不能表示は、たとえば、電子ビューファインダ26により行われる。   Then, after the scan operation execution process in step S118 is completed, the process proceeds to step S119, and the camera control unit 21 determines whether or not the camera is in focus based on the focus determination result in the scan operation execution process. Done. In the scan operation execution process, when it is determined that the focus is achieved (step S206), the process proceeds to step S112. On the other hand, when it is determined that focusing is not possible (step S209), the process proceeds to step S120, and in-focusing display is performed in step S120. The in-focus indication is performed by the electronic viewfinder 26, for example.

なお、ステップS101において、動画像の撮影が行われていると判断された場合は、ステップS121に進む。ステップS121では、カメラ制御部21により、動画像の撮影に適した露出が得られるように露出制御が行われる。具体的には、カメラ制御部21は、動画像の見栄えを優先するため、マルチパターン測光を行い、撮影画面全体の輝度値Bvを算出し、算出した輝度値Bvに基づいて、撮影画面全体で適正露出が得られるように、受光感度Svおよび露光時間Tvを決定する。特に、動画像の撮影中は、絞りAvは固定したまま、受光感度Svおよび露光時間Tvのみを変更して、露出制御が行われる。   If it is determined in step S101 that a moving image has been shot, the process proceeds to step S121. In step S121, the camera control unit 21 performs exposure control so that an exposure suitable for moving image shooting is obtained. Specifically, in order to prioritize the appearance of the moving image, the camera control unit 21 performs multi-pattern metering, calculates the brightness value Bv of the entire shooting screen, and based on the calculated brightness value Bv, The light receiving sensitivity Sv and the exposure time Tv are determined so that proper exposure can be obtained. In particular, during shooting of a moving image, exposure control is performed by changing only the light receiving sensitivity Sv and the exposure time Tv while the aperture Av is fixed.

そして、ステップS122では、カメラ制御部21により、光学系の焦点状態の検出が行われ、検出した焦点状態に応じて、フォーカスレンズ32の焦点調節が行われる。具体的には、カメラ制御部21は、撮像した画像データに基づいて、ステップS111,S115〜S119と同様に、デフォーカス量の算出を行い、デフォーカス量が算出できたか否かを判断する。そして、デフォーカス量が算出された場合には、算出されたデフォーカス量に基づいて、フォーカスレンズ32を駆動させ、一方、デフォーカス量が算出されなかった場合には、スキャン動作実行処理を行う。そして、ステップS123に進み、撮像素子22により動画像の本撮影が行われ、カメラ制御部21により撮像された動画像の画像データが、メモリ24に記憶される。   In step S122, the camera control unit 21 detects the focus state of the optical system and adjusts the focus of the focus lens 32 according to the detected focus state. Specifically, the camera control unit 21 calculates the defocus amount based on the captured image data, similarly to steps S111 and S115 to S119, and determines whether the defocus amount has been calculated. When the defocus amount is calculated, the focus lens 32 is driven based on the calculated defocus amount. On the other hand, when the defocus amount is not calculated, a scan operation execution process is performed. . Then, the process proceeds to step S 123, where the moving image is actually captured by the image sensor 22, and the image data of the moving image captured by the camera control unit 21 is stored in the memory 24.

以上のように、本実施形態では、画像を本撮影するための撮影絞り値が、焦点検出に適した所定の絞り値よりも大きい場合には、光学系の絞り値が、焦点検出に適した絞り値となるように、絞り34を制御し、焦点検出に適した絞り値で、光学系の焦点状態の検出を行う。これにより、本実施形態では、以下の効果を奏することができる。すなわち、従来では、画像を本撮影する際の撮影絞り値が、焦点検出を行う際の絞り値よりも小さくなる場合があり、このような場合に、画像を本撮影する際の被写界深度が、焦点検出を行う際の被写界深度よりも浅くなり、画像を本撮影する際に、焦点検出時にピントを合わせた被写体が、光学系の被写界深度から外れてしまい、被写体にピントの合った画像を撮影することができない場合があった。これに対して、本実施形態では、画像を本撮影する際の撮影絞り値が、焦点検出を行う際の絞り値よりも大きくなるため、画像を本撮影する際の被写界深度が、焦点検出を行う際の被写界深度よりも深くなり、その結果、焦点検出時にピントを合わせた被写体が、画像の本撮影時においても、光学系の被写界深度内となるため、被写体にピントの合った画像を撮影することができる。   As described above, in the present embodiment, when the photographing aperture value for actual photographing of an image is larger than the predetermined aperture value suitable for focus detection, the aperture value of the optical system is suitable for focus detection. The aperture 34 is controlled so that the aperture value is obtained, and the focus state of the optical system is detected with an aperture value suitable for focus detection. Thereby, in this embodiment, there can exist the following effects. In other words, in the past, the shooting aperture value at the time of actual shooting of an image may be smaller than the aperture value at the time of performing focus detection. However, it becomes shallower than the depth of field at the time of focus detection, and the subject that was focused at the time of focus detection is out of the depth of field of the optical system and is focused on the subject. In some cases, it was not possible to shoot images that matched. On the other hand, in the present embodiment, since the shooting aperture value when the image is actually captured is larger than the aperture value when the focus is detected, the depth of field when the image is captured is the focus. As a result, the subject that is in focus at the time of focus detection is within the depth of field of the optical system even when the image is actually captured. You can shoot images that match.

また、本実施形態では、露出制御値のうち、受光感度Svおよび露光時間Tvを優先的に変更して、露出制御を行う。そして、受光感度Svおよび露光時間Tvの変更のみでは、所望の露出が得られない場合に限り、絞りAvを変更して、露出制御を行う。これにより、本実施形態では、絞りAvの変更に応じて、光学系の絞り値が変更されることを有効に防止することができるため、以下のような効果を奏することができる。すなわち、光学系の絞り値の変更は、絞り34の機械的な動作を伴うものであるため、焦点検出を行う際に、受光感度Svおよび露光時間Tvを優先して変更することで、焦点検出に要する時間を短縮することができる。また、位相差検出方式により焦点検出を行う際には、焦点検出に適した輝度を得るために、所定時間ごとに得られる複数の画像データを加算し、加算した画像データに基づいて、デフォーカス量を算出する場合がある。ここで、画像データに基づく像のずれ量を、デフォーカス量に変換するための変換係数は、光学系の絞り値に応じた値であるため、焦点検出時に光学系の絞り値が変ってしまうと、加算した画像データに基づいて、デフォーカス量を適切に算出することができない場合がある。このような場合であっても、本実施形態によれば、受光感度Svおよび露光時間Tvを優先して変更することで、デフォーカス量を適切に算出することができるため、焦点検出の精度の向上を図ることができる。さらに、スルー画像を表示している際や、動画像を撮影している際に、光学系の絞り値が変更されると、たとえば、被写界深度が変わってしまい被写体がぼけてしまうなど、画像の見栄えが低下してしまう場合がある。このような場合に、受光感度Svおよび露光時間Tvを優先して変更することで、スルー画像や動画像の見栄えをよくすることができる。特に、動画像を撮影する際には、光学系の絞り値が撮影絞り値のまま設定されるため、動画像を良好に撮影することができる。また、本実施形態では、たとえ被写体の輝度が変わった場合でも、再度、光学系の絞り値を変更しなくてよいように、露出制御値のうち絞りAvを、余裕をもって変更することで、光学系の絞り値が変更される頻度を低くすることができ、スルー画像や動画像の見栄えをよりよくすることができる。   In the present embodiment, exposure control is performed by preferentially changing the light receiving sensitivity Sv and the exposure time Tv among the exposure control values. Then, only when the light receiving sensitivity Sv and the exposure time Tv are changed, only when the desired exposure cannot be obtained, the aperture Av is changed and exposure control is performed. Thereby, in the present embodiment, it is possible to effectively prevent the aperture value of the optical system from being changed in accordance with the change of the aperture Av, so that the following effects can be achieved. That is, since the change of the aperture value of the optical system involves the mechanical operation of the aperture 34, the focus detection is performed by changing the light receiving sensitivity Sv and the exposure time Tv with priority when performing focus detection. Can be shortened. In addition, when performing focus detection by the phase difference detection method, in order to obtain luminance suitable for focus detection, a plurality of image data obtained every predetermined time is added, and defocusing is performed based on the added image data. The amount may be calculated. Here, since the conversion coefficient for converting the image shift amount based on the image data into the defocus amount is a value corresponding to the aperture value of the optical system, the aperture value of the optical system changes during focus detection. In some cases, the defocus amount cannot be calculated appropriately based on the added image data. Even in such a case, according to the present embodiment, the defocus amount can be appropriately calculated by changing the light receiving sensitivity Sv and the exposure time Tv with priority. Improvements can be made. Furthermore, when displaying a through image or shooting a moving image, if the aperture value of the optical system is changed, for example, the depth of field changes and the subject is blurred. The appearance of the image may be degraded. In such a case, it is possible to improve the appearance of the through image and the moving image by changing the light receiving sensitivity Sv and the exposure time Tv with priority. In particular, when shooting a moving image, the aperture value of the optical system is set to the shooting aperture value, so that the moving image can be shot well. In the present embodiment, even if the luminance of the subject changes, the aperture Av of the exposure control value is changed with sufficient margin so that the aperture value of the optical system does not need to be changed again. The frequency with which the aperture value of the system is changed can be reduced, and the appearance of the through image and the moving image can be improved.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

例えば、上述した実施形態では、操作部28に備えられたシャッターレリーズボタンが半押しされることで、フォーカスレンズ32の焦点調節が起動されるが、この構成に限定されず、たとえば、カメラ1にパソコンを接続し、該パソコンからの信号をカメラ1で受信することで、フォーカスレンズ32の焦点調節を起動する構成としてもよいし、あるいは、カメラ1に対応するリモコンからの信号を、カメラ1で受信することで、フォーカスレンズ32の焦点調節を起動する構成としてもよい。この場合、ステップS109では、パソコンやリモコンから、フォーカスレンズ32の焦点調節を起動するための信号を受信したか否かを判断する構成としてもよい。   For example, in the above-described embodiment, the focus adjustment of the focus lens 32 is started by half-pressing the shutter release button provided in the operation unit 28. However, the present invention is not limited to this configuration. The camera 1 may be configured to activate the focus adjustment of the focus lens 32 by connecting a personal computer and receiving a signal from the personal computer, or a signal from a remote controller corresponding to the camera 1 may be received by the camera 1. It is good also as a structure which starts the focus adjustment of the focus lens 32 by receiving. In this case, in step S109, it may be configured to determine whether a signal for starting focus adjustment of the focus lens 32 is received from a personal computer or a remote controller.

なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 of the above-described embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a digital video camera, a single-lens reflex digital camera, a lens-integrated digital camera, and a camera for a mobile phone. May be.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
28…操作部
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel 222a, 222b ... Focus detection pixel 28 ... Operation part 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive motor 37 ... Lens Control unit

Claims (7)

光学系による像を撮像し、撮像した像に対応する画像信号を出力する撮像部と、
前記撮像部の受光面に備えられた焦点検出画素の出力に基づいて、前記光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する焦点検出部と、
前記光学系を通過し、前記撮像部の受光面に入射する光束を制限する絞りを制御する絞り制御部と、
前記光学系の絞り値、露光時間、及び、撮像感度のうち少なくとも1つを用いて前記撮像部に対する露出制御を行う露出制御部と、を備え、
前記絞り制御部は、前記焦点検出部により焦点検出を行う場合であり、前記焦点検出部により焦点状態を検出する前には、前記光学系の絞り値が、前記所定の絞り値以下、かつ、光学系による像を本撮影する際の撮影絞り値以下の値である第1絞り値になるように前記絞りを制御する第1制御を行い、
前記露出制御部は、前記第1制御を行った後であって前記焦点検出部により焦点状態を検出する前に、前記露光時間及び前記撮像感度を変更することで適正な露出制御ができるときには、前記光学系の絞り値を前記第1絞り値から変更せずに露出制御を行い、前記第1制御を行った後であって前記焦点検出部により焦点状態を検出する前に、前記露光時間及び前記撮像感度を変更しても適正な露出制御ができないときには、前記光学系の絞り値を前記第1絞り値から前記撮影絞り値以下の値である第2絞り値に変更して露出制御を行うことを特徴とする撮像装置。
An imaging unit that captures an image by an optical system and outputs an image signal corresponding to the captured image;
A focus detection unit that detects a focus state of the optical system by detecting a shift amount of an image plane by the optical system based on an output of a focus detection pixel provided on a light receiving surface of the imaging unit;
A diaphragm control unit that controls a diaphragm that passes through the optical system and restricts a light beam incident on a light receiving surface of the imaging unit;
An exposure control unit that performs exposure control on the imaging unit using at least one of the aperture value, the exposure time, and the imaging sensitivity of the optical system,
The aperture control unit is a case where focus detection is performed by the focus detection unit , and before the focus state is detected by the focus detection unit , the aperture value of the optical system is equal to or less than the predetermined aperture value, and Performing a first control for controlling the aperture so as to be a first aperture value that is equal to or smaller than an imaging aperture value at the time of actual imaging of an image by the optical system ;
When the exposure control unit can perform appropriate exposure control by changing the exposure time and the imaging sensitivity after performing the first control and before detecting the focus state by the focus detection unit , Exposure control is performed without changing the aperture value of the optical system from the first aperture value , and after the first control and before the focus state is detected by the focus detection unit, the exposure time and If proper exposure control cannot be performed even if the imaging sensitivity is changed, exposure control is performed by changing the aperture value of the optical system from the first aperture value to a second aperture value that is equal to or smaller than the imaging aperture value. An imaging apparatus characterized by that.
請求項1に記載された撮像装置であって、
前記光学系の駆動制御をする駆動制御部と、
前記露出制御部が撮影画面の全体が適正露出になるように露出制御をしたときに、前記焦点検出部の検出結果の信頼性があるか否かを判断する判断部と、を備え、
前記駆動制御部は、
前記判断部により前記焦点検出部の検出結果の信頼性があると判断されたときには、前記光学系の駆動制御を行い、
前記判断部により前記焦点検出部の検出結果の信頼性があると判断されないときには、前記光学系の駆動制御を行わず、
前記露出制御部は、前記判断部により前記焦点検出部の検出結果の信頼性があると判断されないときには、前記適正露出よりも明るい露出が得られるように露出制御を行うことを特徴とする撮像装置。
The imaging apparatus according to claim 1,
A drive controller for controlling the drive of the optical system;
A determination unit that determines whether or not the detection result of the focus detection unit is reliable when the exposure control unit performs exposure control so that the entire shooting screen is properly exposed;
The drive control unit
When the determination unit determines that the detection result of the focus detection unit is reliable, the drive control of the optical system is performed,
When the determination unit does not determine that the detection result of the focus detection unit is reliable, drive control of the optical system is not performed.
The image pickup apparatus, wherein the exposure control unit performs exposure control so that an exposure brighter than the appropriate exposure is obtained when the determination unit does not determine that the detection result of the focus detection unit is reliable. .
請求項1または2に記載の撮像装置において、
前記絞り制御部は、前記光学系の絞り値を固定したまま、焦点検出に適した露出が得られない場合に、前記光学系の絞り値を、前記撮影絞り値以下の範囲内で変更することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The aperture control unit changes the aperture value of the optical system within a range equal to or less than the imaging aperture value when an exposure suitable for focus detection cannot be obtained while the aperture value of the optical system is fixed. An imaging apparatus characterized by the above.
請求項1〜3のいずれかに記載の撮像装置であって、
焦点調節光学系を光軸方向に駆動させることで、前記光学系の焦点調節を行う焦点調節部と、
前記焦点調節部による焦点調節を起動する起動部と、をさらに備え、
前記露出制御部は、前記起動部により、前記焦点調節の起動が行われる前から、前記露出制御を行うことを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 3,
A focus adjustment unit that adjusts the focus of the optical system by driving the focus adjustment optical system in the optical axis direction;
An activation unit that activates the focus adjustment by the focus adjustment unit;
The imaging apparatus according to claim 1, wherein the exposure control unit performs the exposure control before the activation of the focus adjustment by the activation unit.
請求項1〜4のいずれかに記載の撮像装置であって、
前記焦点検出部により焦点検出を行う際に、前記撮像部により繰り返し撮像された像に対応するスルー画像を表示する表示部をさらに備えることを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 4,
An imaging apparatus, further comprising: a display unit that displays a through image corresponding to an image repeatedly captured by the imaging unit when performing focus detection by the focus detection unit.
請求項1〜5のいずれかに記載の撮像装置であって、
動画撮影モードを設定可能なモード設定部をさらに備え、
前記絞り制御部は、前記動画撮影モードが設定されている場合には、前記光学系の絞り値を、前記撮影絞り値に設定することを特徴とする撮像装置。
An imaging apparatus according to any one of claims 1 to 5,
It further includes a mode setting section that can set the movie shooting mode,
The aperture control unit, when the moving image shooting mode is set, sets the aperture value of the optical system to the shooting aperture value.
請求項1〜6のいずれかに記載の撮像装置であって、
前記絞り制御部は、前記光学系による像を本撮影する際に、前記光学系の絞り値を、前記撮影絞り値に設定することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 6,
The aperture control unit sets the aperture value of the optical system to the imaging aperture value when the image of the optical system is actually captured.
JP2011146205A 2011-05-31 2011-06-30 Imaging device Active JP5454521B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2011146205A JP5454521B2 (en) 2011-06-30 2011-06-30 Imaging device
CN201610251874.3A CN105892004A (en) 2011-05-31 2012-05-31 Lens barrel and camera body
CN201610251491.6A CN105866917A (en) 2011-05-31 2012-05-31 Lens barrel and camera body
US13/485,361 US9769370B2 (en) 2011-05-31 2012-05-31 Exchangeable lens having a settable aperture and camera body that captures an image by an optical system which has a settable aperture
CN201210177599.7A CN102809877B (en) 2011-05-31 2012-05-31 Lens barrel and camera body
US15/705,617 US10362212B2 (en) 2011-05-31 2017-09-15 Exchangeable lens having a settable aperture and camera body that captures an image by an optical system which has a settable aperture
US16/503,755 US20190335086A1 (en) 2011-05-31 2019-07-05 Exchangeable lens having a settable aperture and camera body that captures an image by an optical system which has a settable aperture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011146205A JP5454521B2 (en) 2011-06-30 2011-06-30 Imaging device

Publications (2)

Publication Number Publication Date
JP2013015561A JP2013015561A (en) 2013-01-24
JP5454521B2 true JP5454521B2 (en) 2014-03-26

Family

ID=47688322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011146205A Active JP5454521B2 (en) 2011-05-31 2011-06-30 Imaging device

Country Status (1)

Country Link
JP (1) JP5454521B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015155952A (en) * 2014-02-20 2015-08-27 キヤノン株式会社 Imaging apparatus, control method of imaging apparatus, program, and storage medium
JP6960755B2 (en) * 2017-03-27 2021-11-05 キヤノン株式会社 Imaging device and its control method, program, storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005037963A (en) * 2004-09-13 2005-02-10 Konica Minolta Photo Imaging Inc Digital camera
JP2008042404A (en) * 2006-08-03 2008-02-21 Olympus Imaging Corp Digital camera
JP4858008B2 (en) * 2006-08-24 2012-01-18 株式会社ニコン FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, AND IMAGING DEVICE
JP4946337B2 (en) * 2006-10-13 2012-06-06 株式会社ニコン Autofocus device and camera
JP2010054730A (en) * 2008-08-27 2010-03-11 Samsung Digital Imaging Co Ltd Focusing position detecting device, imaging apparatus, and focusing position detecting method

Also Published As

Publication number Publication date
JP2013015561A (en) 2013-01-24

Similar Documents

Publication Publication Date Title
WO2013015131A1 (en) Focus adjustment device and image capturing apparatus
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP5831070B2 (en) Imaging device
JP6477744B2 (en) interchangeable lens
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP5760792B2 (en) Focus adjustment device and imaging device
JP5929060B2 (en) Focus detection apparatus and imaging apparatus
JP5454521B2 (en) Imaging device
JP2013061579A (en) Focusing device and imaging apparatus
JP6127730B2 (en) Imaging device
JP2013061582A (en) Focusing device and imaging apparatus
JP6098690B2 (en) Lens barrel and camera body
JP5821934B2 (en) Focus detection device, camera body, and camera
JP5423734B2 (en) Lens barrel and imaging device
JP5370411B2 (en) Imaging device
JP5966283B2 (en) Camera body and camera
JP5982749B2 (en) Focus adjustment device and imaging device
JP6477576B2 (en) Imaging device
JP6477630B2 (en) Imaging device
JP5545278B2 (en) Lens adapter and camera body
JP5494594B2 (en) Lens barrel and camera body
JP5434992B2 (en) Imaging device
JP5961979B2 (en) Focus adjustment device and imaging device
JP5862087B2 (en) Focus adjustment device and imaging device
JP5966273B2 (en) Imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131223

R150 Certificate of patent or registration of utility model

Ref document number: 5454521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250