JP2013011762A - Focus detection device and imaging apparatus - Google Patents

Focus detection device and imaging apparatus Download PDF

Info

Publication number
JP2013011762A
JP2013011762A JP2011144734A JP2011144734A JP2013011762A JP 2013011762 A JP2013011762 A JP 2013011762A JP 2011144734 A JP2011144734 A JP 2011144734A JP 2011144734 A JP2011144734 A JP 2011144734A JP 2013011762 A JP2013011762 A JP 2013011762A
Authority
JP
Japan
Prior art keywords
focus detection
pixel
output
pixels
defective pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011144734A
Other languages
Japanese (ja)
Inventor
Hidehisa Takasaki
秀久 高崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011144734A priority Critical patent/JP2013011762A/en
Publication of JP2013011762A publication Critical patent/JP2013011762A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a focus detection device which can detect a focus state of an optical system appropriately.SOLUTION: An focus detection device comprises: an imager 22 with plural imaging pixels 221 and plural focus detection pixels 221a, 221b; a storage part 21 to store an address of a defect pixel which is a defective pixel among plural focus detection pixels 221a, 222b; an interpolation part 21 to interpolate an output of the defect pixel located at a position corresponding to the address stored in the storage part 21 based on an output of the focus detection pixels 221a,222b located around the defect pixel; and a focus detection part 21 to detect a focus state of an optical system by detecting a shift amount of an image surface by the optical system based on the outputs of plural focus detection pixels 221a,222b including the output of the interpolated defect pixel.

Description

本発明は、焦点検出装置および撮像装置に関するものである。   The present invention relates to a focus detection apparatus and an imaging apparatus.

従来より、撮像素子に複数の焦点検出用画素を備え、この焦点検出用画素の出力に基づいて、光学系による像面のずれ量を検出することで、光学系の焦点状態を検出する焦点検出装置が知られている(特許文献1)。   Conventionally, an image sensor has a plurality of focus detection pixels, and based on the output of the focus detection pixels, the amount of deviation of the image plane by the optical system is detected to detect the focus state of the optical system. An apparatus is known (Patent Document 1).

特開2003−107324号公報JP 2003-107324 A

しかしながら、従来技術では、焦点検出用画素の出力に基づいて焦点検出を行うため、焦点検出用画素に欠陥がある場合には、光学系の焦点状態を適切に検出することができない問題があった。   However, in the prior art, since focus detection is performed based on the output of the focus detection pixel, there is a problem that the focus state of the optical system cannot be detected properly if the focus detection pixel has a defect. .

本発明が解決しようとする課題は、光学系の焦点状態を適切に検出できる焦点検出装置を提供することである。   The problem to be solved by the present invention is to provide a focus detection apparatus that can appropriately detect the focus state of an optical system.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In the following description, reference numerals corresponding to the drawings showing the embodiment of the present invention are given and described. However, the reference numerals are only for facilitating the understanding of the invention and are not intended to limit the invention. .

[1]本発明に係る焦点検出装置は、複数の撮像用画素(221)と複数の焦点検出用画素(222a,222b)とを備えた撮像素子(22)と、前記複数の焦点検出画素のうち欠陥がある画素である欠陥画素のアドレスを記憶している記憶部(21)と、前記記憶部に記憶されている前記アドレスに対応する位置に位置する前記欠陥画素の出力を、該欠陥画素の周囲に位置する焦点検出用画素の出力に基づいて補間する補間部(21)と、補間された前記欠陥画素の出力を含む複数の焦点検出用画素の出力に基づいて、光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する焦点検出部(21)と、を有することを特徴とする。   [1] A focus detection apparatus according to the present invention includes an image sensor (22) including a plurality of imaging pixels (221) and a plurality of focus detection pixels (222a, 222b), and a plurality of focus detection pixels. A storage unit (21) that stores an address of a defective pixel that is a defective pixel, and an output of the defective pixel that is located at a position corresponding to the address stored in the storage unit. An interpolation unit (21) that interpolates based on the output of the focus detection pixels located around the image, and an image plane by the optical system based on the outputs of the plurality of focus detection pixels including the output of the interpolated defective pixel And a focus detection unit (21) for detecting a focus state of the optical system by detecting a shift amount of the optical system.

[2]上記焦点検出装置に係る発明において、前記撮像素子(22)には、瞳分割された一対の光束のうち一方の光束を受光する複数の第1の焦点検出用画素(221a)と、他方の光束を受光する複数の第2の焦点検出用画素(222b)とが一次元状に配列されており、前記補間部(21)は、前記欠陥画素と同じ瞳からの光束を受光する焦点検出用画素のうち、前記欠陥画素に最も近い位置に位置する画素であり、かつ、欠陥画素に該当しない画素である最近接有効画素の出力に基づいて、前記欠陥画素の出力を補間するように構成することができる。   [2] In the invention relating to the focus detection device, the imaging element (22) includes a plurality of first focus detection pixels (221a) that receive one of the pair of light beams divided into pupils, and A plurality of second focus detection pixels (222b) that receive the other light beam are arranged one-dimensionally, and the interpolation unit (21) is a focal point that receives the light beam from the same pupil as the defective pixel. Among the detection pixels, the output of the defective pixel is interpolated based on the output of the nearest effective pixel which is a pixel located closest to the defective pixel and which is not a defective pixel. Can be configured.

[3]上記焦点検出装置に係る発明において、前記補間部(21)は、前記最近接有効画素が2つ存在する場合には、該2つの最近接有効画素の出力の平均値に基づいて、前記欠陥画素の出力を補間し、前記最近接有効画素が1つ存在する場合には、該1つの最近接有効画素の出力に基づいて、前記欠陥画素の出力を補間するように構成することができる。   [3] In the invention according to the focus detection apparatus, when there are two closest effective pixels, the interpolation unit (21) is based on an average value of outputs of the two closest effective pixels, The output of the defective pixel is interpolated, and when there is one closest effective pixel, the output of the defective pixel is interpolated based on the output of the one closest effective pixel. it can.

[4]上記焦点検出装置に係る発明において、前記補間部(21)は、前記欠陥画素の周囲に位置する焦点検出用画素(221a,222b)の出力に基づいて、前記欠陥画素の出力を補間した後に、暗電流特性に起因する前記焦点検出用画素の不均一性の補正と、受光感度特性に起因する前記焦点検出用画素の不均一性の補正とを行うように構成することができる。   [4] In the invention relating to the focus detection apparatus, the interpolation unit (21) interpolates the output of the defective pixel based on the output of the focus detection pixels (221a, 222b) positioned around the defective pixel. Thereafter, the correction of the non-uniformity of the focus detection pixel due to the dark current characteristic and the correction of the non-uniformity of the focus detection pixel due to the light receiving sensitivity characteristic can be performed.

[5]上記焦点検出装置に係る発明において、前記焦点検出部(21)は、前記光学系の像面内に設定された複数の焦点検出位置のうち、所定の焦点検出位置における光学系の焦点状態を、該焦点検出位置に対応する前記焦点検出用画素(222a,222b)の出力に基づいて検出し、前記補間部(21)は、前記欠陥画素に対応する焦点検出位置が、該欠陥画素の周囲に位置する焦点検出用画素に対応する焦点検出位置と異なる場合でも、前記欠陥画素の出力を、前記欠陥画素の周囲に位置する焦点検出用画素の出力に基づいて補間するように構成することができる。   [5] In the invention relating to the focus detection apparatus, the focus detection unit (21) may focus the optical system at a predetermined focus detection position among a plurality of focus detection positions set in the image plane of the optical system. The state is detected based on the output of the focus detection pixels (222a, 222b) corresponding to the focus detection position, and the interpolation unit (21) detects that the focus detection position corresponding to the defective pixel is the defective pixel. The output of the defective pixel is configured to be interpolated based on the output of the focus detection pixel located around the defective pixel even when the focus detection position is different from the focus detection position corresponding to the focus detection pixel located around the defective pixel. be able to.

[6]本発明に係る撮像装置は、上記焦点検出装置を備えることを特徴とする。   [6] An imaging apparatus according to the present invention includes the focus detection apparatus.

本発明によれば、光学系の焦点状態を適切に検出することができる。   According to the present invention, it is possible to appropriately detect the focus state of the optical system.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面を示す正面図である。FIG. 2 is a front view showing an imaging surface of the imaging device shown in FIG. 図3は、図2の22a付近を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the vicinity of 22a in FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is an enlarged front view showing one of the imaging pixels 221. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is an enlarged cross-sectional view showing one of the imaging pixels 221. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged cross-sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged cross-sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、欠陥画素の出力を調整するための調整処理を示すフローチャートである。FIG. 9 is a flowchart illustrating an adjustment process for adjusting the output of a defective pixel. 図10は、本実施形態に係るカメラ1の動作を示すフローチャートである。FIG. 10 is a flowchart showing the operation of the camera 1 according to this embodiment. 図11は、本実施形態に係る欠陥画素の補間方法を説明するための図である。FIG. 11 is a diagram for explaining a defective pixel interpolation method according to this embodiment. 図12は、本実施形態に係る欠陥画素の補間方法を説明するための図である。FIG. 12 is a diagram for explaining a defective pixel interpolation method according to this embodiment.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, by rotating the rotating cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves straight along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by rotating the rotary cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the focus lens drive motor 36 as the drive source is the lens. The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by a transmission composed of a plurality of gears, for example, and when the drive shaft of the focus lens drive motor 36 is driven to rotate in any one direction, it is transmitted to the rotary cylinder at a predetermined gear ratio. Then, when the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves linearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is rotated in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the optical axis L1 direction correlates with the rotation angle of the rotating cylinder, and can be obtained by detecting the relative rotation angle of the rotating cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus calculated based on this information. The driving position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by a manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるカメラメモリ24に記録される。なお、カメラメモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The image sensor 22 is composed of a device such as a CCD or CMOS, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the camera memory 24 which is a recording medium. The camera memory 24 can be either a removable card type memory or a built-in memory. Details of the structure of the image sensor 22 will be described later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image picked up by the image pickup device 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal driving circuit 25 that drives the electronic viewfinder (EVF) 26, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on the read image information. Thereby, the user can observe the current captured image through the eyepiece lens 27. Note that, instead of or in addition to the observation optical system using the optical axis L2, a liquid crystal display may be provided on the back surface of the camera body 2, and a photographed image may be displayed on the liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Is output to the liquid crystal driving circuit 25 and the memory 24 of the electronic viewfinder 26. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographic optical system by the phase detection method and the focus state of the photographic optical system by the contrast detection method based on the pixel data read from the image sensor 22. I do. A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタンや撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button or an input switch for a photographer to set various operation modes of the camera 1, and can switch between an auto focus mode and a manual focus mode. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2の焦点検出画素列22a付近を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the imaging element 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the vicinity of the focus detection pixel row 22a in FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, the imaging element 22 of the present embodiment includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmit a green wavelength region. A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系31の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as shown in the cross-sectional view of FIG. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system 31 by the micro lens 2211 and receives the imaging light beam.

また、撮像素子22の撮像面には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列22a〜22eが設けられている。そして、図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列(22a〜22e)に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, on the imaging surface of the imaging element 22, focus detection pixel rows 22 a to 22 e in which focus detection pixels 222 a and 222 b are arranged instead of the above-described imaging pixel 221 are provided. As shown in FIG. 3, one focus detection pixel column includes a plurality of focus detection pixels 222 a and 222 b that are alternately arranged adjacent to each other in a horizontal row (22 a to 22 e). In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.

なお、図2に示す焦点検出画素列22a〜22eの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所、三箇所、あるいは四箇所とすることもでき、また、六箇所以上の位置に配置することもできる。また、図3においては、16個の焦点検出画素222a,222bにより、焦点検出画素列を構成する例を示しているが、焦点検出画素列を構成する焦点検出画素の数は、この例に限定されるものではない。   Note that the positions of the focus detection pixel rows 22a to 22e shown in FIG. 2 are not limited to the illustrated positions, and may be any one, two, three, or four locations, and more than six locations. It can also be arranged at the position. FIG. 3 shows an example in which the focus detection pixel array is configured by 16 focus detection pixels 222a and 222b, but the number of focus detection pixels configuring the focus detection pixel array is limited to this example. Is not to be done.

図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出画素列22a〜22eを構成する。   FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 5A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 5B, and a semiconductor of the image sensor 22 as shown in a cross-sectional view of FIG. 7B. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. Then, as shown in FIG. 3, these focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row, thereby forming focus detection pixel rows 22a to 22e shown in FIG.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive a light beam that passes through a predetermined region (eg, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.

また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 5A and 5B have a semicircular shape, the shapes of the photoelectric conversion units 2222a and 2222b are not limited thereto. Other shapes such as an elliptical shape, a rectangular shape, and a polygonal shape can also be used.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 and adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. 8 illustrates only the focus detection pixels 222a and 222b that are located in the vicinity of the photographing optical axis L1, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 8 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.

ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341, 342.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   As shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2. Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.

すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. The signal corresponding to is output.

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   Further, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すように直線状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a straight line as shown in FIG. 3, and the outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b are converted into the distance measurement pupil 341, respectively. Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane). The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

なお、本実施形態では、図2に示すように、撮像画面内には、光学系の焦点状態を検出するための焦点検出エリアAFP(図2中、破線で示す。)が複数設定されており、焦点検出エリアAFPごとに、デフォーカス量の検出が行われる。また、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   In the present embodiment, as shown in FIG. 2, a plurality of focus detection areas AFP (indicated by broken lines in FIG. 2) for detecting the focus state of the optical system are set in the imaging screen. The defocus amount is detected for each focus detection area AFP. Also, the camera control unit 21 performs the calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based on the calculation.

また、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算して焦点電圧を検出することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算して焦点電圧を検出することでも求めることができる。   Further, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained, for example, by extracting a high-frequency component of an image output from the imaging pixel 221 of the image sensor 22 using a high-frequency transmission filter and integrating the extracted high-frequency components to detect a focus voltage. It can also be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating them to detect the focus voltage.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed in which the position of the focus lens 32 is determined as the in-focus position. Note that this in-focus position is obtained when, for example, when the focus evaluation value is calculated while driving the focus lens 32, the focus evaluation value rises twice and then moves down twice. Can be obtained by performing an operation such as interpolation using the focus evaluation value.

次いで、図9を参照して、欠陥画素の出力を補間するための前処理として、欠陥画素の出力を調整するための調整処理について説明する。なお、図9は、欠陥画素の出力を調整するための調整処理を示すフローチャートである。また、この調整処理は、欠陥画素を特定し、欠陥画素のアドレスを記憶するための処理であり、たとえば工場出荷前に行われる。   Next, an adjustment process for adjusting the output of the defective pixel will be described as a pre-process for interpolating the output of the defective pixel with reference to FIG. FIG. 9 is a flowchart showing an adjustment process for adjusting the output of the defective pixel. This adjustment process is a process for identifying a defective pixel and storing the address of the defective pixel, and is performed, for example, before factory shipment.

まず、ステップS101では、たとえば、光源からの照射光を拡散板やトレーシングペーパーなどにより拡散して均一輝度面を生成し、カメラ制御部21により、均一輝度面における、撮像素子22の各焦点検出画素222a,222bごとの出力を、明時出力として取得する。   First, in step S101, for example, the light emitted from the light source is diffused by a diffusion plate, tracing paper, or the like to generate a uniform luminance surface, and each focus detection of the image sensor 22 on the uniform luminance surface is detected by the camera control unit 21. An output for each of the pixels 222a and 222b is acquired as a light-time output.

次いで、ステップS102では、撮像素子22に入射する光を遮蔽して、周囲環境を暗黒状態とし、カメラ制御部21により、暗黒状態における、撮像素子22の各焦点検出画素222a,222bごとの出力を、暗時出力として取得する。   Next, in step S102, the light incident on the image sensor 22 is blocked, the surrounding environment is set to a dark state, and the camera control unit 21 outputs an output for each focus detection pixel 222a, 222b of the image sensor 22 in the dark state. Get as dark output.

そして、ステップS103では、カメラ制御部21により、各焦点検出画素222a,222bに欠陥があるか否かの判定が行われる。ここで、焦点検出画素222a,222bの欠陥とは、たとえば受光した光の強度に応じた、焦点検出画素222a,222bの出力の線形性の異常や、均一輝度面における、焦点検出画素222a,222b間の出力の異常(明時出力のばらつき異常)、暗黒状態において、所定以上の暗電流が流れてしまうなどの暗電流特性の異常などを含むものである。   In step S103, the camera control unit 21 determines whether the focus detection pixels 222a and 222b are defective. Here, the defects of the focus detection pixels 222a and 222b are, for example, abnormalities in the linearity of the outputs of the focus detection pixels 222a and 222b according to the intensity of received light, and the focus detection pixels 222a and 222b on a uniform luminance surface. Output current abnormality (light output fluctuation abnormality), and dark current characteristics abnormality such as dark current flowing over a predetermined level in a dark state.

具体的に、カメラ制御部21は、ステップS101で取得した焦点検出画素222a,222bの明時出力Vout、および、ステップS102で取得した焦点検出画素222a,222bの暗時出力Voutが、それぞれ、下記式(1)および下記式(2)に示す条件を満たすか否かを判定する。
Vth≦Vout≦Vth …(1)
Vout<Vth …(2)
ここで、上記式(1)において、Vth, Vthは、所定の強度の光を照射した明時において、焦点検出画素222a,222bの出力が正常であると判定するための基準値であり、また、上記式(2)において、Vthは、光を遮蔽した暗時において、焦点検出画素222a,222bの出力が正常であると判定するための基準値である。
Specifically, the camera control unit 21 obtains the bright output Vout 1 of the focus detection pixels 222a and 222b acquired in step S101 and the dark output Vout 2 of the focus detection pixels 222a and 222b acquired in step S102, respectively. Then, it is determined whether or not the conditions shown in the following formula (1) and the following formula (2) are satisfied.
Vth 1 ≦ Vout 1 ≦ Vth 2 (1)
Vout 2 <Vth 3 (2)
Here, in the above formula (1), Vth 1 and Vth 2 are reference values for determining that the outputs of the focus detection pixels 222a and 222b are normal at the time of light irradiation with light of a predetermined intensity. In the above formula (2), Vth 3 is a reference value for determining that the outputs of the focus detection pixels 222a and 222b are normal in the dark when the light is shielded.

そして、カメラ制御部21は、明時出力Voutが上記式(1)に示す条件を満たし、かつ、暗時出力Voutが上記式(2)に示す条件を満たす焦点検出画素222a,222bについては、欠陥がないと判定し、一方、明時出力Voutが上記式(1)に示す条件を満たさない、あるいは、暗時出力Voutが上記式(2)に示す条件を満たさない焦点検出画素222a,222bについては、欠陥があるものと判定する。 Then, the camera control unit 21 relates to the focus detection pixels 222a and 222b in which the light output Vout 1 satisfies the condition shown in the above formula (1) and the dark output Vout 2 satisfies the condition shown in the above formula (2). Detects that there is no defect, and on the other hand, focus detection where the light output Vout 1 does not satisfy the condition shown in the above equation (1) or the dark output Vout 2 does not satisfy the condition shown in the above equation (2). The pixels 222a and 222b are determined to be defective.

ステップS104では、カメラ制御部21により、ステップS103で欠陥があると判定された焦点検出画素(以下、欠陥画素ともいう。)のアドレスが、カメラ制御部21に備えるメモリに記憶される。また、本実施形態では、焦点検出画素222a,222ごとの明時出力、および暗時出力も、カメラ制御部21に備えるメモリに記憶される。   In step S104, the address of the focus detection pixel (hereinafter, also referred to as a defective pixel) determined to be defective in step S103 by the camera control unit 21 is stored in a memory provided in the camera control unit 21. In the present embodiment, the light output and the dark output for each of the focus detection pixels 222 a and 222 are also stored in a memory provided in the camera control unit 21.

次いで、本実施形態に係るカメラ1の動作例を説明する。図10は、本実施形態に係るカメラ1の動作例を示すフローチャートである。なお、以下の動作は、たとえば、カメラ1の電源がオンされることにより開始される。   Next, an operation example of the camera 1 according to the present embodiment will be described. FIG. 10 is a flowchart illustrating an operation example of the camera 1 according to the present embodiment. The following operation is started, for example, when the camera 1 is turned on.

ステップS201では、撮像素子22により、光学系からの光束の受光が行われ、カメラ制御部21により、撮像素子22の5つの焦点検出画素列22a〜22eを構成する各焦点検出画素222a,222bから一対の像に対応した一対の像データの読み出しが開始される。なお、撮影者の手動操作により、特定の焦点検出エリアが選択されているときは、その焦点検出エリアに対応する焦点検出画素222a,222bからの出力のみを読み出すような構成としてもよい。また、カメラ制御部21は、撮像素子22から、一対の像データを、所定の間隔で繰り返し読み出す。   In step S201, the image sensor 22 receives the light flux from the optical system, and the camera control unit 21 receives the focus detection pixels 222a and 222b constituting the five focus detection pixel rows 22a to 22e of the image sensor 22. Reading of a pair of image data corresponding to the pair of images is started. Note that, when a specific focus detection area is selected by a manual operation of the photographer, only the outputs from the focus detection pixels 222a and 222b corresponding to the focus detection area may be read. The camera control unit 21 repeatedly reads out a pair of image data from the image sensor 22 at a predetermined interval.

ステップS202では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれる。シャッターレリーズボタンが半押しされた場合は、ステップS203に進み、一方、シャッターレリーズボタンが半押しされていない場合は、シャッターレリーズボタンが半押しされるまで、ステップS202を繰り返す。   In step S202, the camera control unit 21 determines whether the shutter release button provided in the operation unit 28 is half-pressed (the first switch SW1 is turned on). If the shutter release button is half-pressed, the process proceeds to step S203. On the other hand, if the shutter release button is not half-pressed, step S202 is repeated until the shutter release button is half-pressed.

ステップS203では、カメラ制御部21により、欠陥画素のアドレスの読み出しが行われる。本実施形態では、上述した欠陥画素の調整処理(図9参照)により、欠陥画素のアドレスが、カメラ制御部21に備えるメモリに記憶されており、カメラ制御部21は、カメラ制御部21のメモリに記憶している欠陥画素のアドレスを読み出すことで、撮像素子22の5つの焦点検出画素列22a〜22eを構成する焦点検出画素222a,222bの中から、欠陥がある焦点検出画素である欠陥画素を特定することができる。   In step S203, the camera control unit 21 reads the address of the defective pixel. In the present embodiment, the defective pixel address is stored in the memory included in the camera control unit 21 by the above-described defective pixel adjustment process (see FIG. 9), and the camera control unit 21 stores the memory of the camera control unit 21. By reading out the address of the defective pixel stored in the image sensor 22, the defective pixel which is a defective focus detection pixel out of the focus detection pixels 222 a and 222 b constituting the five focus detection pixel rows 22 a to 22 e of the image sensor 22. Can be specified.

ステップS204では、カメラ制御部21により、ステップS203で読み出された欠陥画素のアドレスに基づいて、欠陥画素の欠陥パターンの判別が行われ、続くステップS205では、カメラ制御部21により、ステップS204で判別された欠陥パターンに応じた補間方法で、欠陥画素の出力の補間が行われる。   In step S204, the defect pattern of the defective pixel is determined by the camera control unit 21 based on the address of the defective pixel read in step S203. In step S205, the camera control unit 21 determines in step S204. The interpolation of the output of the defective pixel is performed by an interpolation method corresponding to the determined defect pattern.

ここで、図11(A)〜(D)は、本実施形態に係る欠陥画素の補間方法を説明するための図であり、欠陥画素の欠陥パターン(詳細は後述する。)ごとの、欠陥画素の補間方法を示している。なお、図11においては、瞳分割された一対の光束のうち、一方の光束を受光する焦点検出用画素を白抜きで示し、他方の光束を受光する焦点検出用画素を灰色で示している。   Here, FIGS. 11A to 11D are diagrams for explaining the defective pixel interpolation method according to the present embodiment, and defective pixels for each defective pattern (details will be described later) of the defective pixels. Shows an interpolation method. In FIG. 11, focus detection pixels that receive one of the pair of pupil-divided light beams are illustrated in white, and focus detection pixels that receive the other light beam are illustrated in gray.

たとえば、図11の(A)に示す例では、焦点検出用画素の1つが欠陥画素であり、欠陥画素と同じ瞳から光束を受光する焦点検出用画素のうち、欠陥画素に最も近い位置に位置し、かつ、欠陥画素に該当しない画素である最近接有効画素が、欠陥画素の両側に位置している欠陥パターンである単画素欠陥パターンを示している。カメラ制御部21は、単画素欠陥パターンと判別した場合に、図11の(A)に示すように、欠陥画素の両側に位置している2つの最近接有効画素の出力の平均値を算出し、算出した平均値を、欠陥画素の出力として補間する平均補間を行う。   For example, in the example shown in FIG. 11A, one of the focus detection pixels is a defective pixel, and the focus detection pixel that receives a light beam from the same pupil as the defective pixel is located at the position closest to the defective pixel. In addition, the closest effective pixel that is a pixel that does not correspond to the defective pixel indicates a single pixel defect pattern that is a defect pattern located on both sides of the defective pixel. When the camera control unit 21 determines that the defect pattern is a single pixel defect pattern, the camera control unit 21 calculates the average value of the outputs of the two closest effective pixels located on both sides of the defective pixel as shown in FIG. The average interpolation is performed to interpolate the calculated average value as the output of the defective pixel.

また、図11の(B)では、2つの欠陥画素が、配列方向に連続している連続画素欠陥パターンを示している。カメラ制御部21は、連続画素欠陥パターンと判別した場合には、図11の(B)に示すように、各欠陥画素に最も近い位置に位置する最近接有効画素の出力を、欠陥画素の出力として補間する。たとえば、図11の(B)に示す例では、連続する欠陥画素のうち左側に位置する欠陥画素については、該欠陥画素の左側に位置する最近接有効画素の出力が、該欠陥画素の出力として補間される(前置補間)。また、連続する欠陥画素のうち右側に位置する欠陥画素については、該欠陥画素の右側に位置する最近接有効画素の出力が、該欠陥画素の出力として補間される(後置補間)。   FIG. 11B shows a continuous pixel defect pattern in which two defective pixels are continuous in the arrangement direction. When the camera control unit 21 determines that the defect pattern is a continuous pixel defect pattern, as shown in FIG. 11B, the camera control unit 21 outputs the output of the closest effective pixel located closest to each defective pixel to the output of the defective pixel. Interpolate as For example, in the example shown in FIG. 11B, for a defective pixel located on the left side of consecutive defective pixels, the output of the nearest valid pixel located on the left side of the defective pixel is the output of the defective pixel. Interpolated (pre-interpolation). In addition, for a defective pixel located on the right side of consecutive defective pixels, the output of the nearest valid pixel located on the right side of the defective pixel is interpolated as the output of the defective pixel (post-interpolation).

さらに、図11の(C)では、欠陥画素が、たとえば図2に示す焦点検出画素列22a〜22eの左端に位置し、欠陥画素の左側に、該欠陥画素を補間するための最近接有効画素が存在しない左端画素欠陥パターンを示している。カメラ制御部21は、左端画素欠陥パターンと判別した場合には、図11の(C)に示すように、たとえば、欠陥画素の右側に位置している最近接有効画素の出力を、欠陥画素の出力として補間する後置補間を行う。   Further, in FIG. 11C, the defective pixel is located at the left end of the focus detection pixel rows 22a to 22e shown in FIG. 2, for example, and the nearest effective pixel for interpolating the defective pixel on the left side of the defective pixel. Indicates a left-end pixel defect pattern that does not exist. If the camera control unit 21 determines that the defect pattern is the left-end pixel defect pattern, for example, as shown in FIG. Perform post interpolation to interpolate as output.

加えて、図11の(D)では、欠陥画素が、たとえば図2に示す焦点検出画素列22a〜22eの右端に位置し、欠陥画素の右側に、該欠陥画素を補間するための最近接有効画素が存在しない右端画素欠陥パターンを示している。カメラ制御部21は、右端画素欠陥パターンと判別した場合には、図11の(D)に示すように、たとえば、欠陥画素の右側に位置している最近接有効画素の出力を、欠陥画素の出力として補間する前置補間を行う。   In addition, in FIG. 11D, the defective pixel is positioned at the right end of, for example, the focus detection pixel rows 22a to 22e shown in FIG. 2, and nearest neighbor effective for interpolating the defective pixel on the right side of the defective pixel. A right end pixel defect pattern in which no pixel exists is shown. When the camera control unit 21 determines that the defect pattern is the right-end pixel defect pattern, for example, as shown in FIG. 11D, the camera control unit 21 outputs the output of the nearest valid pixel located on the right side of the defective pixel, as shown in FIG. Performs pre-interpolation to interpolate as output.

また、本実施形態では、図2に示すように、複数の焦点検出エリアAFPが設定されており、各焦点検出エリアAFPに位置する焦点検出画素222a,222bの出力に基づいて、各焦点検出エリアAFPごとのデフォーカス量の算出が行われる。ここで、図12では、欠陥画素が焦点検出エリアAFPの右端に位置しており、欠陥画素が存在する焦点検出エリアAFPと、欠陥画素の右側に位置する最接近有効画素が存在する焦点検出エリアAFPとが異なる場面を例示している。このように、欠陥画素が存在する焦点検出エリアAFPと、最接近有効画素が存在する焦点検出エリアAFPが異なる場合でも、カメラ制御部21は、欠陥画素が存在する焦点検出エリアAFPと異なる焦点検出エリアAFPに存在する最接近有効画素の出力に基づいて、欠陥画素の出力を補間する。たとえば、図12に示す例では、カメラ制御部21は、図11の(A)に示す例と同じ単画素欠陥パターンと判別し、欠陥画素が存在する焦点検出エリアAFPと同じ焦点検出エリアAFPに存在する最近接有効画素の出力と、欠陥画素が存在する焦点検出エリアと異なる焦点検出エリアに存在する最接近有効画素の出力との平均値を、欠陥画素の出力として補間する。   In the present embodiment, as shown in FIG. 2, a plurality of focus detection areas AFP are set, and each focus detection area is based on the outputs of focus detection pixels 222a and 222b located in each focus detection area AFP. The defocus amount for each AFP is calculated. Here, in FIG. 12, the defective pixel is located at the right end of the focus detection area AFP, the focus detection area AFP where the defective pixel exists, and the focus detection area where the closest effective pixel located right of the defective pixel exists. A scene different from AFP is illustrated. As described above, even when the focus detection area AFP in which the defective pixel exists and the focus detection area AFP in which the closest proximity effective pixel exists are different, the camera control unit 21 performs focus detection different from the focus detection area AFP in which the defective pixel exists. Based on the output of the closest effective pixel existing in the area AFP, the output of the defective pixel is interpolated. For example, in the example illustrated in FIG. 12, the camera control unit 21 determines that the defect pattern is the same as the single pixel defect pattern in the example illustrated in FIG. The average value of the output of the closest effective pixel present and the output of the closest effective pixel existing in a focus detection area different from the focus detection area where the defective pixel exists is interpolated as the output of the defective pixel.

次いで、ステップS206では、カメラ制御部21により、暗電流特性に起因する焦点検出画素222a,222bの不均一性(DSNU:Dark Signal Non-Uniformity)を補正する処理が行われる。暗電流特性に起因する焦点検出画素222a,222bの不均一性の補正は、公知の方法で行うことができ、たとえば、カメラ制御部21は、図9に示す欠陥画素の調整処理で取得した各焦点検出画素222a,222bの暗時出力に基づいて、ステップS205で補間した欠陥画素の出力を含む全ての焦点検出画素222a,222bの出力の補正を行うことができる。   Next, in step S206, the camera control unit 21 performs a process of correcting nonuniformity (DSNU: Dark Signal Non-Uniformity) of the focus detection pixels 222a and 222b due to dark current characteristics. The non-uniformity correction of the focus detection pixels 222a and 222b due to the dark current characteristics can be performed by a known method. For example, the camera control unit 21 acquires each of the defect pixel adjustment processes shown in FIG. Based on the dark output of the focus detection pixels 222a and 222b, the output of all the focus detection pixels 222a and 222b including the output of the defective pixel interpolated in step S205 can be corrected.

ステップS207では、カメラ制御部21により、受光感度特性に起因する焦点検出画素222a,222bの不均一性(PRNU:Photo Response Non-Uniformity)を補正する処理が行われる。受光感度特性に起因する焦点検出画素222a,222bの不均一性の補正も、公知の方法で行うことができ、たとえば、本実施形態では、カメラ制御部21は、図9に示す欠陥画素の調整処理で取得した各焦点検出画素222a,222bの明時出力に基づいて、ステップS205で補間した欠陥画素の出力を含む全ての焦点検出画素222a,222bの出力の補正を行うことができる。   In step S207, the camera control unit 21 performs processing for correcting nonuniformity (PRNU: Photo Response Non-Uniformity) of the focus detection pixels 222a and 222b due to the light receiving sensitivity characteristic. The non-uniformity correction of the focus detection pixels 222a and 222b caused by the light receiving sensitivity characteristic can also be performed by a known method. For example, in this embodiment, the camera control unit 21 adjusts the defective pixel shown in FIG. Based on the bright-time outputs of the focus detection pixels 222a and 222b obtained in the process, the outputs of all the focus detection pixels 222a and 222b including the output of the defective pixel interpolated in step S205 can be corrected.

そして、ステップS208では、カメラ制御部21により、焦点検出演算が行われる。本実施形態において、カメラ制御部21は、ステップS205で補間され、ステップS206,S207で補正された欠陥画素の出力と、ステップS206,S207で補正された欠陥画素以外の焦点検出画素222a,222bの出力とに基づいて、図2に示す焦点検出エリアAFPごとに、像ズレ検出演算処理(相関演算処理)を実行し、像ズレ量を演算し、さらに像ズレ量をデフォーカス量に変換する。   In step S208, the camera control unit 21 performs a focus detection calculation. In the present embodiment, the camera control unit 21 interpolates in step S205 and outputs the defective pixels corrected in steps S206 and S207, and the focus detection pixels 222a and 222b other than the defective pixels corrected in steps S206 and S207. Based on the output, image shift detection calculation processing (correlation calculation processing) is executed for each focus detection area AFP shown in FIG. 2 to calculate the image shift amount, and further convert the image shift amount into a defocus amount.

そして、ステップS209では、カメラ制御部21により、ステップS208における焦点検出の結果に基づいて、フォーカスレンズ32の合焦駆動が行われる。たとえば、位相差検出方式によりデフォーカス量が算出された場合には、算出されたデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量の算出が行われ、算出されたレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出される。これにより、フォーカスレンズ駆動モータ36により、算出されたレンズ駆動量に基づいて、フォーカスレンズ32の駆動が行われる。   In step S209, the focus control of the focus lens 32 is performed by the camera control unit 21 based on the focus detection result in step S208. For example, when the defocus amount is calculated by the phase difference detection method, the lens drive amount necessary to drive the focus lens 32 to the in-focus position is calculated based on the calculated defocus amount. The calculated lens driving amount is sent to the focus lens driving motor 36 via the lens control unit 37. As a result, the focus lens driving motor 36 drives the focus lens 32 based on the calculated lens driving amount.

ステップS210では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの全押し(第2スイッチSW2のオン)がされたか否かの判断が行なわれる。第2スイッチSW2がオンされると、ステップS211に進み、被写体像の撮影が行なわれる。一方、第2スイッチSW2がオンされない場合には、フォーカスレンズ32を現在のレンズ位置に固定したまま、第2スイッチSW2がオンされるまで、待機する。   In step S210, the camera control unit 21 determines whether or not the shutter release button provided in the operation unit 28 has been fully pressed (the second switch SW2 is turned on). When the second switch SW2 is turned on, the process proceeds to step S211 to shoot a subject image. On the other hand, when the second switch SW2 is not turned on, the focus lens 32 is fixed at the current lens position, and the process waits until the second switch SW2 is turned on.

以上のように、本実施形態に係るカメラ1は、複数の焦点検出画素222a,222bのうち欠陥がある欠陥画素のアドレスを記憶しておき、欠陥画素のアドレスに対応する位置に位置する欠陥画素の出力を、欠陥画素と同じ瞳からの光束を受光する焦点検出用画素のうち欠陥画素に最も近い位置に位置する最近接有効画素の出力に基づいて補間し、補間された欠陥画素の出力を含む複数の焦点検出用画素222a,222bの出力に基づいて、光学系の焦点状態を検出する。特に、本実施形態では、欠陥画素の欠陥パターンを判別し、欠陥画素の欠陥パターンに応じた補間方法で、欠陥画素の出力を補間する。これにより、本実施形態では、欠陥がある焦点検出画素222a,222bの出力を適切に補間することができるため、補間された欠陥画素の出力を含む複数の焦点検出用画素222a,222bの出力に基づいて、光学系の焦点状態を適切に検出することができる。   As described above, the camera 1 according to the present embodiment stores the address of a defective pixel having a defect among the plurality of focus detection pixels 222a and 222b, and is located at a position corresponding to the address of the defective pixel. Is interpolated based on the output of the nearest effective pixel located closest to the defective pixel among the focus detection pixels that receive the light beam from the same pupil as the defective pixel, and the output of the interpolated defective pixel is The focus state of the optical system is detected based on the outputs of the plurality of focus detection pixels 222a and 222b. In particular, in the present embodiment, the defect pattern of the defective pixel is determined, and the output of the defective pixel is interpolated by an interpolation method according to the defect pattern of the defective pixel. Thereby, in this embodiment, since the output of the focus detection pixels 222a and 222b having defects can be appropriately interpolated, the output of the plurality of focus detection pixels 222a and 222b including the output of the interpolated defective pixels is obtained. Based on this, it is possible to appropriately detect the focus state of the optical system.

また、本実施形態では、光学系の焦点状態を検出するために、欠陥画素の出力を補間する補間処理(ステップS205)を行った後に、暗電流特性に起因する焦点検出画素222a,222bの不均一性の補正(ステップS206)と、受光感度特性に起因する焦点検出画素222a,222bの不均一性の補正(ステップS207)とを行うことで、欠陥画素の出力の検出精度をより高めることができ、光学系の焦点状態をより適切に検出することができる。   In this embodiment, in order to detect the focus state of the optical system, after performing an interpolation process (step S205) for interpolating the output of the defective pixel, the focus detection pixels 222a and 222b caused by dark current characteristics are not detected. By performing the correction of uniformity (step S206) and the correction of nonuniformity of the focus detection pixels 222a and 222b due to the light receiving sensitivity characteristic (step S207), the detection accuracy of the output of the defective pixel can be further improved. And the focus state of the optical system can be detected more appropriately.

以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

例えば、上述した実施形態では、位相差検出方式により焦点検出を行う構成を例示したが、この構成に限定されず、たとえば、コントラスト検出方式により焦点検出を行う構成としてもよいし、位相差検出方式により焦点検出を行い、位相差検出方式では焦点状態を検出できない場合に、コントラスト検出方式により焦点検出を行う構成としてもよい。あるいは、位相差検出方式により焦点検出を行い、位相差検出方式では焦点状態を検出できない場合に、位相差検出方式による焦点検出と、コントラスト検出方式により焦点検出とを同時に行う構成としてもよい。   For example, in the above-described embodiment, the configuration in which focus detection is performed by the phase difference detection method is illustrated. However, the configuration is not limited to this configuration. For example, a configuration in which focus detection is performed by the contrast detection method may be used. The focus detection may be performed using the contrast detection method, and the focus detection may be performed using the contrast detection method when the focus state cannot be detected using the phase difference detection method. Alternatively, a configuration may be adopted in which focus detection is performed by the phase difference detection method, and focus detection by the phase difference detection method and focus detection by the contrast detection method are performed simultaneously when the focus state cannot be detected by the phase difference detection method.

また、上述した実施形態では、欠陥画素の出力を補間する補間処理(ステップS205)を行った後に、暗電流特性に起因する焦点検出画素222a,222bの不均一性の補正(ステップS206)と、受光感度特性に起因する焦点検出画素222a,222bの不均一性の補正(ステップS207)とを行う構成を例示しているが、この構成に限定されず、たとえば、暗電流特性に起因する焦点検出画素222a,222bの不均一性の補正と、受光感度特性に起因する焦点検出画素222a,222bの不均一性の補正とを行った後に、欠陥画素の出力を補間する補間処理を行う構成としてもよい。   In the above-described embodiment, after performing the interpolation process (step S205) for interpolating the output of the defective pixel, correction of the non-uniformity of the focus detection pixels 222a and 222b due to the dark current characteristics (step S206), The configuration for correcting the non-uniformity of the focus detection pixels 222a and 222b (step S207) due to the light receiving sensitivity characteristic is illustrated, but the configuration is not limited to this configuration. For example, focus detection due to the dark current characteristic is performed. After performing correction of non-uniformity of the pixels 222a and 222b and correction of non-uniformity of the focus detection pixels 222a and 222b due to the light receiving sensitivity characteristic, an interpolation process for interpolating the output of the defective pixel may be performed. Good.

また、上述した実施形態では、撮像素子22が撮像画素221と焦点検出画素222a,222bとを有し、撮像素子22が有する焦点検出画素222a,222bにおいて、位相差検出方式による焦点検出を行う構成を例示したが、この構成に限定されるものではなく、位相差検出方式による焦点検出を行うための焦点検出モジュールを、撮像素子22と独立して設ける構成としてもよい。   In the above-described embodiment, the imaging element 22 includes the imaging pixel 221 and the focus detection pixels 222a and 222b, and the focus detection pixels 222a and 222b included in the imaging element 22 perform focus detection by the phase difference detection method. However, the present invention is not limited to this configuration, and a focus detection module for performing focus detection by the phase difference detection method may be provided independently of the image sensor 22.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
24…メモリ
28…操作部
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel 222a, 222b ... Focus detection pixel 24 ... Memory 28 ... Operation part 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive motor 37 ... Lens control unit

Claims (6)

複数の撮像用画素と複数の焦点検出用画素とを備えた撮像素子と、
前記複数の焦点検出画素のうち欠陥がある画素である欠陥画素のアドレスを記憶している記憶部と、
前記記憶部に記憶されている前記アドレスに対応する位置に位置する前記欠陥画素の出力を、該欠陥画素の周囲に位置する焦点検出用画素の出力に基づいて補間する補間部と、
補間された前記欠陥画素の出力を含む複数の焦点検出用画素の出力に基づいて、光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する焦点検出部と、を有することを特徴とする焦点検出装置。
An imaging device comprising a plurality of imaging pixels and a plurality of focus detection pixels;
A storage unit storing addresses of defective pixels which are defective pixels among the plurality of focus detection pixels;
An interpolation unit that interpolates an output of the defective pixel located at a position corresponding to the address stored in the storage unit based on an output of a focus detection pixel located around the defective pixel;
A focus detection unit that detects a focus state of the optical system by detecting a shift amount of an image plane by the optical system based on outputs of a plurality of focus detection pixels including the output of the interpolated defective pixel; A focus detection apparatus comprising:
請求項1に記載の焦点検出装置において、
前記撮像素子には、瞳分割された一対の光束のうち一方の光束を受光する複数の第1の焦点検出用画素と、他方の光束を受光する複数の第2の焦点検出用画素とが一次元状に配列されており、
前記補間部は、前記欠陥画素と同じ瞳からの光束を受光する焦点検出用画素のうち、前記欠陥画素に最も近い位置に位置する画素であり、かつ、欠陥画素に該当しない画素である最近接有効画素の出力に基づいて、前記欠陥画素の出力を補間することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
The imaging element includes a plurality of first focus detection pixels that receive one of the pair of pupil-divided light beams and a plurality of second focus detection pixels that receive the other light beam. Are arranged in an original form,
The interpolation unit is a closest pixel that is a pixel that is positioned closest to the defective pixel among focus detection pixels that receive a light beam from the same pupil as the defective pixel, and that is not a defective pixel. A focus detection apparatus that interpolates an output of the defective pixel based on an output of an effective pixel.
請求項2に記載の焦点検出装置において、
前記補間部は、前記最近接有効画素が2つ存在する場合には、該2つの最近接有効画素の出力の平均値に基づいて、前記欠陥画素の出力を補間し、前記最近接有効画素が1つ存在する場合には、該1つの最近接有効画素の出力に基づいて、前記欠陥画素の出力を補間することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 2,
When there are two closest effective pixels, the interpolation unit interpolates the output of the defective pixel based on an average value of the outputs of the two closest effective pixels. In the case where there is one, the focus detection apparatus interpolates the output of the defective pixel based on the output of the one nearest effective pixel.
請求項1〜3のいずれかに記載の焦点検出装置において、
前記補間部は、前記欠陥画素の周囲に位置する焦点検出用画素の出力に基づいて、前記欠陥画素の出力を補間した後に、暗電流特性に起因する前記焦点検出用画素の不均一性の補正と、受光感度特性に起因する前記焦点検出用画素の不均一性の補正とを行うことを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 3,
The interpolation unit corrects the non-uniformity of the focus detection pixel caused by dark current characteristics after interpolating the output of the defective pixel based on the output of the focus detection pixel located around the defective pixel. And a correction of non-uniformity of the focus detection pixels caused by the light receiving sensitivity characteristic.
請求項1〜4のいずれかに記載の焦点検出装置において、
前記焦点検出部は、前記光学系の像面内に設定された複数の焦点検出位置のうち、所定の焦点検出位置における光学系の焦点状態を、該焦点検出位置に対応する前記焦点検出用画素の出力に基づいて検出し、
前記補間部は、前記欠陥画素に対応する焦点検出位置が、該欠陥画素の周囲に位置する焦点検出用画素に対応する焦点検出位置と異なる場合でも、前記欠陥画素の出力を、前記欠陥画素の周囲に位置する焦点検出用画素の出力に基づいて補間することを特徴とする焦点検出装置。
In the focus detection apparatus in any one of Claims 1-4,
The focus detection unit is configured to detect a focus state of the optical system at a predetermined focus detection position among a plurality of focus detection positions set in an image plane of the optical system, and the focus detection pixel corresponding to the focus detection position. Based on the output of
The interpolation unit outputs the output of the defective pixel even when the focus detection position corresponding to the defective pixel is different from the focus detection position corresponding to the focus detection pixel located around the defective pixel. A focus detection apparatus that performs interpolation based on an output of a focus detection pixel located around.
請求項1〜5のいずれかに記載の焦点検出装置を備える撮像装置。   An imaging device provided with the focus detection apparatus in any one of Claims 1-5.
JP2011144734A 2011-06-29 2011-06-29 Focus detection device and imaging apparatus Withdrawn JP2013011762A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011144734A JP2013011762A (en) 2011-06-29 2011-06-29 Focus detection device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144734A JP2013011762A (en) 2011-06-29 2011-06-29 Focus detection device and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013011762A true JP2013011762A (en) 2013-01-17

Family

ID=47685683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144734A Withdrawn JP2013011762A (en) 2011-06-29 2011-06-29 Focus detection device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013011762A (en)

Similar Documents

Publication Publication Date Title
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP2013025144A (en) Focus adjustment device and imaging apparatus
JP5966267B2 (en) Focus adjustment device and imaging device
JP6477744B2 (en) interchangeable lens
JP5845660B2 (en) Focus detection apparatus and imaging apparatus
JP2013003486A (en) Focus detector and imaging apparatus
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP6047861B2 (en) Focus adjustment device and camera body
JP2014074855A (en) Focus adjustment device and imaging device
JP2012226247A (en) Focus detector and imaging apparatus
JP6098097B2 (en) Focus adjustment device, focus detection device, and imaging device
JP5454521B2 (en) Imaging device
JP6098690B2 (en) Lens barrel and camera body
JP6035728B2 (en) Focus adjustment device and imaging device
JP5966283B2 (en) Camera body and camera
JP5821934B2 (en) Focus detection device, camera body, and camera
JP5423734B2 (en) Lens barrel and imaging device
JP6035777B2 (en) Imaging device
JP5370411B2 (en) Imaging device
JP5899735B2 (en) interchangeable lens
JP2013011762A (en) Focus detection device and imaging apparatus
JP6477745B2 (en) Focus adjustment device and imaging device
JP6477576B2 (en) Imaging device
JP5545278B2 (en) Lens adapter and camera body
JP5862087B2 (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902