JP6254780B2 - Focus detection apparatus and method, and imaging apparatus - Google Patents

Focus detection apparatus and method, and imaging apparatus Download PDF

Info

Publication number
JP6254780B2
JP6254780B2 JP2013137475A JP2013137475A JP6254780B2 JP 6254780 B2 JP6254780 B2 JP 6254780B2 JP 2013137475 A JP2013137475 A JP 2013137475A JP 2013137475 A JP2013137475 A JP 2013137475A JP 6254780 B2 JP6254780 B2 JP 6254780B2
Authority
JP
Japan
Prior art keywords
pixel
pair
signal
pixel signal
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013137475A
Other languages
Japanese (ja)
Other versions
JP2014197161A (en
JP2014197161A5 (en
Inventor
智邦 廣澤
智邦 廣澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013137475A priority Critical patent/JP6254780B2/en
Priority to US14/196,468 priority patent/US9167151B2/en
Publication of JP2014197161A publication Critical patent/JP2014197161A/en
Publication of JP2014197161A5 publication Critical patent/JP2014197161A5/ja
Application granted granted Critical
Publication of JP6254780B2 publication Critical patent/JP6254780B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、位相差検出方式により焦点検出を行う焦点検出装置及び方法、及び該焦点検出装置を搭載した撮像装置に関する。   The present invention relates to a focus detection apparatus and method for performing focus detection by a phase difference detection method, and an imaging apparatus equipped with the focus detection apparatus.

従来、AF機能を提供するカメラの焦点検出装置として、いわゆる位相差検出方式の焦点検出装置が知られている。このような焦点検出装置では、撮影レンズの異なる射出瞳領域を通過した被写体からの光束を、一対の焦点検出センサ上に結像させ、一対の画素信号列を相対的にシフトさせながら相関演算を行う。そして、一対の画素信号列の相対的な位相差を検出し、該位相差に基づいて撮影レンズのデフォーカス量を求めている。   Conventionally, a so-called phase difference detection type focus detection device is known as a focus detection device for a camera that provides an AF function. In such a focus detection apparatus, a light beam from a subject that has passed through different exit pupil regions of the photographing lens is imaged on a pair of focus detection sensors, and correlation calculation is performed while relatively shifting a pair of pixel signal sequences. Do. Then, the relative phase difference between the pair of pixel signal sequences is detected, and the defocus amount of the photographing lens is obtained based on the phase difference.

また、特許文献1には、焦点検出センサの像信号中における異常信号を検出し、異常信号を除外して相関演算を行う焦点検出装置が提案されている。   Patent Document 1 proposes a focus detection device that detects an abnormal signal in an image signal of a focus detection sensor and excludes the abnormal signal to perform a correlation calculation.

特開2012−042597号公報JP 2012-042597 A

しかしながら、上述の特許文献1に開示された従来技術では、複数のシフト波形の相関量から演算を行うため、異常画素を除外して相関演算を行う際、画素信号列のシフト量によって除外する画素数が異なる。詳細は後述するが、相関量は各画素の対になっている像信号の差分を総和した値であるため、演算画素数が異なると、各シフト量における相関量の正確な比較ができず、焦点検出精度が悪化してしまう恐れがある。   However, in the conventional technique disclosed in Patent Document 1 described above, since the calculation is performed from the correlation amounts of a plurality of shift waveforms, pixels that are excluded by the shift amount of the pixel signal sequence when performing the correlation calculation by excluding abnormal pixels. The number is different. Although details will be described later, since the correlation amount is a value obtained by summing up the differences between the image signals paired with each pixel, if the number of operation pixels is different, the correlation amount in each shift amount cannot be accurately compared, The focus detection accuracy may be deteriorated.

本発明は上記問題点を鑑みてなされたものであり、異常画素が発生した場合に、位相差検出方式による焦点検出精度の悪化を回避することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to avoid deterioration in focus detection accuracy due to a phase difference detection method when an abnormal pixel occurs.

上記目的を達成するために本発明の焦点検出装置は、撮影光学系の異なる瞳領域を通過した光束を光電変換して、一対の画素信号列を出力することが可能な撮像手段から出力された一対の画素信号列に含まれる異常信号を検出する検出手段と、複数の異なるシフト量ごとに、前記一対の画素信号列のうち、一方の画素信号列において、前記異常信号が存在する場合、前記一方の画素信号列の異常信号と他方の画素信号列に含まれる異常信号の位置に対応する像信号とを除外し、前記一対の画素信号列を相対的にシフトしながら互いに異なる複数のシフト量での相関量をそれぞれ演算する演算手段とを有し、前記演算手段は、第1のシフト量でシフトした場合に除外した画像信号の前記一対の画素信号列における位置を第1の位置とした場合に、前記第1のシフト量と異なる第2のシフト量でシフトした前記一対の画素信号列においても、前記第1の位置に対応する画像信号を除外することで、前記第1のシフト量でシフトした前記一対の画素信号列と、前記第2のシフト量でシフトした前記一対の画素信号列それぞれについて、等しい数の像信号を除外して相関量を演算する。 Focus detecting device of the present invention in order to achieve the above object, is outputted light beams passing through different pupil areas of projection optical system Taking photoelectrically converting, from the imaging means capable of outputting a pair of pixel signal sequence Detecting means for detecting an abnormal signal included in the pair of pixel signal sequences , and when the abnormal signal is present in one pixel signal sequence of the pair of pixel signal sequences for each of a plurality of different shift amounts , wherein the abnormal signal of one pixel signal string, excluding the images signals corresponding to the position of the abnormality signal included in the other pixel signal string, different with previous SL relatively shifting the pair of pixel signal string and a calculating means for calculating the correlation of a plurality of shift amounts, respectively, said computing means, the position in the pair of pixel signal string of an image signal that excludes the case of shifting the first shift amount first The place where To, in the pair of pixel signal sequence shifted by the second shift amount different from the first shift amount, by excluding an image signal corresponding to the first position, in the first shift amount and shifted the pair of pixel signal string, the said respective second pair of pixel signal sequence shifted by the shift amount, and calculates a correlation amount by excluding equal number of images signals.

本発明によれば、異常画素が発生した場合に、位相差検出方式による焦点検出精度の悪化を回避することできる。   According to the present invention, when an abnormal pixel occurs, it is possible to avoid deterioration in focus detection accuracy due to the phase difference detection method.

第1の実施形態の撮像装置の概略構成を示すブロック図。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment. 図1の焦点検出ユニットを含む焦点検出装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the focus detection apparatus containing the focus detection unit of FIG. 実施形態における撮像装置の基本動作を示すフローチャート。6 is a flowchart illustrating a basic operation of the imaging apparatus according to the embodiment. 実施形態における焦点検出処理を示すフローチャート。The flowchart which shows the focus detection process in embodiment. 飽和レベルに達していない像信号の一例を示す図。The figure which shows an example of the image signal which has not reached the saturation level. 第1相関演算におけるシフト波形を示す図。The figure which shows the shift waveform in a 1st correlation calculation. 第1相関演算におけるシフト量毎の相関量を示す図。The figure which shows the correlation amount for every shift amount in a 1st correlation calculation. 飽和レベルに達している画素を含む像信号の一例を示す図。The figure which shows an example of the image signal containing the pixel which has reached the saturation level. 飽和画素なしの像信号と、飽和画素ありの像信号における相関量を示す図。The figure which shows the correlation amount in the image signal without a saturation pixel, and the image signal with a saturation pixel. 第2相関演算処理を示すフローチャート。The flowchart which shows a 2nd correlation calculation process. 第2相関演算におけるシフト波形を示す図。The figure which shows the shift waveform in a 2nd correlation calculation. 第2相関演算におけるシフト波形の飽和画素及び除外画素を説明する図。The figure explaining the saturation pixel and exclusion pixel of a shift waveform in 2nd correlation calculation. 第2の実施形態におけるイメージセンサの構成の一例を示す回路図。The circuit diagram which shows an example of a structure of the image sensor in 2nd Embodiment. 第2の実施形態におけるイメージセンサの2つの画素にかかる配線部の断面図。Sectional drawing of the wiring part concerning two pixels of the image sensor in 2nd Embodiment. 第2の実施形態におけるイメージセンサの駆動タイミングチャート。The drive timing chart of the image sensor in 2nd Embodiment. 第2の実施形態における撮像用画素の構造を説明する図。FIG. 6 is a diagram illustrating a structure of an imaging pixel according to a second embodiment. 第2の実施形態における撮影レンズの水平方向に瞳分割を行う焦点検出用画素の構造を説明する平面図と断面図。The top view and sectional drawing explaining the structure of the pixel for a focus detection which divides a pupil in the horizontal direction of the imaging lens in 2nd Embodiment. 第2の実施形態における撮影レンズの垂直方向に瞳分割を行う焦点検出用画素の構造を説明する平面図と断面図。FIG. 10 is a plan view and a cross-sectional view illustrating the structure of a focus detection pixel that performs pupil division in the vertical direction of the photographing lens according to the second embodiment. 第2の実施形態における撮像素子の最小単位の画素配列の説明図。Explanatory drawing of the pixel arrangement | sequence of the minimum unit of the image pick-up element in 2nd Embodiment. 第2の実施形態における撮像素子の上位単位の画素配列の説明図。Explanatory drawing of the pixel arrangement | sequence of the upper unit of the image pick-up element in 2nd Embodiment. 第2の実施形態における撮像素子の全領域における画素配列の説明図。Explanatory drawing of the pixel arrangement | sequence in the whole area | region of the image pick-up element in 2nd Embodiment. 第2の実施形態における水平方向の焦点検出時の画素グループ化方法の説明図。Explanatory drawing of the pixel grouping method at the time of the focus detection of the horizontal direction in 2nd Embodiment. 第2の実施形態における垂直方向の焦点検出時の画素グループ化方法の説明図。Explanatory drawing of the pixel grouping method at the time of the focus detection of the orthogonal | vertical direction in 2nd Embodiment. 第2の実施形態における撮像装置の撮影動作を示すフローチャート。9 is a flowchart illustrating a shooting operation of the imaging apparatus according to the second embodiment. 図24のS44で行われる焦点検出処理のフローチャート。The flowchart of the focus detection process performed by S44 of FIG. 図24のS46で行われる撮影処理のフローチャート。The flowchart of the imaging | photography process performed by S46 of FIG.

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態にかかる焦点検出装置を備えた撮像装置の概略構成を示すブロック図である。本第1の実施形態における撮像装置は、レンズ交換式の一眼レフカメラ(以下、単に「カメラ」と称する。)100である。カメラ100は、カメラ本体30と、カメラ本体30に脱着可能に構成された撮影レンズユニット20とで構成される。撮影レンズユニット20とカメラ本体30は、図1の点線で示したマウントを介して接続される。なお、本実施形態は、レンズ交換式のカメラに限定されず、レンズユニットとカメラ本体が一体的に構成されたカメラにも適用可能である。
<First Embodiment>
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus including a focus detection apparatus according to the first embodiment of the present invention. The imaging apparatus according to the first embodiment is an interchangeable lens single-lens reflex camera (hereinafter simply referred to as “camera”) 100. The camera 100 includes a camera body 30 and a photographing lens unit 20 configured to be detachable from the camera body 30. The taking lens unit 20 and the camera body 30 are connected via a mount indicated by a dotted line in FIG. Note that the present embodiment is not limited to a lens interchangeable camera, and can also be applied to a camera in which a lens unit and a camera body are integrally configured.

撮影レンズユニット20は、撮影レンズ21と、絞り22と、レンズ側マイクロプロセッシングユニット(MPU)1と、レンズ駆動ユニット2と、絞り駆動ユニット3と、繰り返し位置検出ユニット4と、メモリ5とを備える。撮影レンズ21と絞り22により、撮影光学系が構成される。   The photographing lens unit 20 includes a photographing lens 21, a diaphragm 22, a lens side microprocessing unit (MPU) 1, a lens driving unit 2, a diaphragm driving unit 3, a repeat position detection unit 4, and a memory 5. . The photographing lens 21 and the aperture 22 constitute a photographing optical system.

レンズ側MPU1は、撮影レンズユニット20の動作に関する全ての演算及び制御を行う。レンズ駆動ユニット2は、レンズ側MPU1による制御に応じて撮影レンズ21を駆動する駆動部である。絞り駆動ユニット3は、レンズ側MPU1による制御に応じて絞り22を駆動する駆動部である。繰り返し位置検出ユニット4は、レンズ鏡筒の繰り返し位置を検出する検出部である。メモリ5は、自動焦点調節に必要な光学情報である光学情報テーブルを記憶している。   The lens side MPU 1 performs all calculations and controls related to the operation of the photographic lens unit 20. The lens driving unit 2 is a driving unit that drives the photographing lens 21 in accordance with control by the lens side MPU 1. The aperture drive unit 3 is a drive unit that drives the aperture 22 according to control by the lens side MPU 1. The repeat position detection unit 4 is a detection unit that detects the repeat position of the lens barrel. The memory 5 stores an optical information table that is optical information necessary for automatic focus adjustment.

カメラ本体30は、カメラ側MPU6と、焦点検出ユニット7と、シャッター駆動ユニット8と、ダイヤルユニット10と、測光ユニット11とを備える。また、カメラ本体30は、メインミラー12と、サブミラー13と、ピント板14と、ペンタミラー15と、ファインダー16と、表示器17と、撮像素子(イメージセンサ)101と、スイッチSW1_18とスイッチSW2_19とを備える。   The camera body 30 includes a camera-side MPU 6, a focus detection unit 7, a shutter drive unit 8, a dial unit 10, and a photometry unit 11. The camera body 30 includes a main mirror 12, a sub mirror 13, a focus plate 14, a penta mirror 15, a finder 16, a display 17, an image sensor (image sensor) 101, a switch SW1_18, and a switch SW2_19. Is provided.

カメラ側MPU6は、カメラ本体30の動作に関する全ての演算及び制御を行う。また、カメラ側MPU6は、マウントの信号線を介してレンズ側MPU1に接続され、レンズ側MPU1からレンズ位置情報を取得したり、レンズ駆動及び交換レンズごとに固有の光学情報を取得したりする。   The camera side MPU 6 performs all calculations and controls related to the operation of the camera body 30. The camera-side MPU 6 is connected to the lens-side MPU 1 via a mount signal line, and acquires lens position information from the lens-side MPU 1 or acquires unique optical information for each lens driving and interchangeable lens.

また、カメラ側MPU6には、カメラ本体30の動作を制御するためのプログラムが格納されたROM(不図示)、変数を記憶するRAM(不図示)、各種パラメータを記憶するEEPROM(電気的消去、書き込み可能メモリ)(不図示)が内蔵されている。ROMに格納されたプログラムにより、後述する焦点検出処理が実行される。   The camera-side MPU 6 includes a ROM (not shown) that stores a program for controlling the operation of the camera body 30, a RAM (not shown) that stores variables, and an EEPROM (electrical erasure, A writable memory (not shown) is incorporated. A focus detection process to be described later is executed by a program stored in the ROM.

焦点検出ユニット7は後述する焦点検出センサを備え、位相差検出方式により焦点検出を行う。焦点検出ユニット7は、焦点検出センサからの信号読み出し完了をカメラ側MPU6に通知する。シャッター駆動ユニット8は、不図示のシャッターを駆動するための駆動部である。ダイヤルユニット10は、カメラ100の諸設定を変更するための操作部であり、ユーザが操作することで例えば、連続撮影速度(連写速度)やシャッター速度、絞り値、撮影モード等の切り替えなどを行うことができる。   The focus detection unit 7 includes a focus detection sensor described later, and performs focus detection by a phase difference detection method. The focus detection unit 7 notifies the camera-side MPU 6 of the completion of signal readout from the focus detection sensor. The shutter drive unit 8 is a drive unit for driving a shutter (not shown). The dial unit 10 is an operation unit for changing various settings of the camera 100 and is operated by the user to switch, for example, continuous shooting speed (continuous shooting speed), shutter speed, aperture value, shooting mode, and the like. It can be carried out.

測光ユニット11は測光センサを備え、不図示のレリーズボタンへの半押し操作に応じて、ペンタミラー15からの光束に基づき測光センサ(不図示)を介して測光処理を行う。測光センサは、フォトダイオード等の光電変換素子及びその信号処理回路等からなり、被写体の輝度レベルに関する信号出力を行い、その出力信号はカメラ側MPU6に入力される。   The photometric unit 11 includes a photometric sensor, and performs photometric processing via a photometric sensor (not shown) based on the light flux from the pentamirror 15 in response to a half-press operation on a release button (not shown). The photometric sensor comprises a photoelectric conversion element such as a photodiode and its signal processing circuit, and outputs a signal related to the luminance level of the subject. The output signal is input to the camera-side MPU 6.

メインミラー12は、撮影レンズユニット20を介して入射された光束のほとんどを上方へ折り返し、ピント板14上に被写体像を結像させる機能を有する。ピント板14上の被写体像はペンタミラー15により正立正像に変換反射されてファインダー16へ導かれる。これにより、光学ファインダーとして機能する。なお、ペンタミラー15を透過した一部の光は、測光ユニット11へ導かれる。また、メインミラー12は、入射された光束の一部を透過させ、透過した光がサブミラー13を介して焦点検出ユニット7へと導かれる。そして、カメラ100が撮影状態になると、メインミラー12及びサブミラー13が光路から退避して、撮影レンズユニット20を介して入射される被写体からの光束がイメージセンサ101上に結像され、被写体の画像信号に光電変換されて出力される。   The main mirror 12 has a function of folding most of the light beam incident through the photographing lens unit 20 upward and forming a subject image on the focus plate 14. The subject image on the focus plate 14 is converted and reflected into an erect image by the pentamirror 15 and guided to the viewfinder 16. Thereby, it functions as an optical viewfinder. A part of the light transmitted through the pentamirror 15 is guided to the photometry unit 11. The main mirror 12 transmits a part of the incident light beam, and the transmitted light is guided to the focus detection unit 7 through the sub mirror 13. When the camera 100 is in the shooting state, the main mirror 12 and the sub mirror 13 are retracted from the optical path, and the light flux from the subject incident through the photographing lens unit 20 is imaged on the image sensor 101, and the subject image is displayed. The signal is photoelectrically converted and output.

表示器17はLCD等により構成され、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像等を表示する。   The display unit 17 is composed of an LCD or the like, and displays information related to the shooting mode of the camera, a preview image before shooting, a confirmation image after shooting, and the like.

スイッチSW1_18は、不図示のレリーズボタンの第1ストローク操作(例えば半押し)によりONするスイッチ、スイッチSW2_19は、不図示のレリーズボタンの第2ストローク操作(例えば全押し)によりONするスイッチである。   The switch SW1_18 is a switch that is turned on by a first stroke operation (for example, half pressing) of a release button (not shown), and the switch SW2_19 is a switch that is turned on by a second stroke operation (for example, full pressing) of a release button (not shown).

次に、焦点検出ユニット7を含む焦点検出装置の概略構成について図2を用いて説明する。上述したように、撮影レンズユニット20からの入射光の一部はメインミラー12を透過し、後方のサブミラー13で下方へ曲げられ、焦点検出ユニット7へ導かれる。焦点検出ユニット7は、視野マスク102、赤外線カットフィルタ103、フィールドレンズ104、絞り105、二次結像レンズ106、焦点検出センサ107、複数の反射ミラー108a〜108cで構成される。   Next, a schematic configuration of the focus detection apparatus including the focus detection unit 7 will be described with reference to FIG. As described above, part of the incident light from the photographic lens unit 20 passes through the main mirror 12, is bent downward by the rear sub-mirror 13, and is guided to the focus detection unit 7. The focus detection unit 7 includes a field mask 102, an infrared cut filter 103, a field lens 104, a diaphragm 105, a secondary imaging lens 106, a focus detection sensor 107, and a plurality of reflection mirrors 108a to 108c.

焦点検出用の焦点検出センサ107は、撮影レンズユニット20の異なる射出瞳領域を通過した光束により形成される一対の被写体像を光電変換する、フォトダイオード等の光電変換素子で構成された一対のラインセンサ及びその信号処理回路等からなる。焦点検出センサ107、画素信号(像信号)を出力し、出力された像信号はカメラ側MPU6に入力される。以下、一対のラインセンサから出力された一対の像信号をA像(一方の像信号)、B像(他方の像信号)と呼ぶ。また、カメラ側MPU6は、異常画素検出部111、相関演算部112を有する。   The focus detection sensor 107 for focus detection is a pair of lines composed of photoelectric conversion elements such as photodiodes that photoelectrically convert a pair of subject images formed by light beams that have passed through different exit pupil regions of the photographic lens unit 20. It consists of a sensor and its signal processing circuit. The focus detection sensor 107 outputs a pixel signal (image signal), and the output image signal is input to the camera side MPU 6. Hereinafter, a pair of image signals output from the pair of line sensors are referred to as an A image (one image signal) and a B image (the other image signal). In addition, the camera side MPU 6 includes an abnormal pixel detection unit 111 and a correlation calculation unit 112.

次に、図1のカメラ100における基本動作を図3に示すフローチャートを用いて説明する。カメラ100の電源がONされると、メモリ内容や実行プログラムの初期化状態を検出すると共に、撮影準備動作を実行する。S11において、カメラ側MPU6は、ユーザーが各種ボタン(不図示)を操作してカメラの各種設定を行ったことを認識する。S12では、カメラ側MPU6は、スイッチSW1_18がONされたか否かの判定を行う。   Next, the basic operation of the camera 100 of FIG. 1 will be described using the flowchart shown in FIG. When the power of the camera 100 is turned on, the memory contents and the initialization state of the execution program are detected, and the shooting preparation operation is executed. In S11, the camera side MPU 6 recognizes that the user has performed various settings of the camera by operating various buttons (not shown). In S12, the camera side MPU 6 determines whether or not the switch SW1_18 is turned on.

スイッチSW1_18がONされた場合はS14に移行する。一方、ONされていない場合はS13に移行し、電源のON/OFF判定を行う。電源OFFの場合は一連の撮影動作を終了する。電源がONの場合は、S11の動作へ戻る。S14では、カメラ側MPU6は、スイッチSW1_18がONされたことに対応して、後述する焦点検出処理を行う。   When the switch SW1_18 is turned on, the process proceeds to S14. On the other hand, if it is not turned on, the process proceeds to S13 to determine whether the power is on or off. When the power is off, a series of shooting operations are terminated. If the power is on, the process returns to S11. In S14, the camera side MPU 6 performs a focus detection process described later in response to the switch SW1_18 being turned on.

後述する焦点検出処理後、S15においてカメラ側MPU6は、スイッチSW2_19がONされたか否かの判断を行い、スイッチSW2_19がONされたと判断すればS16で撮影処理を行う。一方、スイッチSW2_19がONされていないと判断するとS11へ戻る。   After focus detection processing described later, in S15, the camera-side MPU 6 determines whether or not the switch SW2_19 is turned on. If it is determined that the switch SW2_19 is turned on, the camera-side MPU 6 performs shooting processing in S16. On the other hand, if it is determined that the switch SW2_19 is not turned on, the process returns to S11.

図4は、本第1の実施形態における図3のS14で行われる焦点検出処理を示すフローチャートである。S20では、カメラ側MPU6は焦点検出センサ107に対して、信号蓄積指示を出力する。指示に基づき、焦点検出センサ107は信号蓄積動作を開始する。そして、蓄積動作が終了すると焦点検出センサ107は、一対のラインセンサで得た像信号をそれぞれA像、B像としてカメラ側MPU6に出力する。   FIG. 4 is a flowchart showing the focus detection process performed in S14 of FIG. 3 in the first embodiment. In S <b> 20, the camera side MPU 6 outputs a signal accumulation instruction to the focus detection sensor 107. Based on the instruction, the focus detection sensor 107 starts a signal accumulation operation. When the accumulation operation ends, the focus detection sensor 107 outputs the image signals obtained by the pair of line sensors to the camera side MPU 6 as an A image and a B image, respectively.

図4のS20で出力したA像、B像の一例を図5に示す。A像とB像は−2〜−3bitの位相差がある。ここでは、A像がB像に対して右に存在する場合を負の位相差と定義する。図5に示すA像、B像の信号レベルは、共に飽和レベルを超えていない。仮に、A像、B像に飽和レベルを超えている画素が存在している場合、飽和レベルを超えた画素信号は飽和レベルにクリップされて出力される。   An example of the A image and the B image output in S20 of FIG. 4 is shown in FIG. The A image and the B image have a phase difference of −2 to −3 bits. Here, the case where the A image exists on the right side of the B image is defined as a negative phase difference. The signal levels of the A and B images shown in FIG. 5 do not exceed the saturation level. If a pixel exceeding the saturation level exists in the A and B images, the pixel signal exceeding the saturation level is clipped to the saturation level and output.

次にS21では、カメラ側MPU6はA像、B像を基に、相関演算部112にて第1相関演算(前処理)を行う。ここで第1相関演算について、詳細に説明する。なお、以下の説明において、焦点検出センサから取得した像信号を相対的にシフトさせた波形をシフト波形と呼ぶ。まず、第1相関演算におけるA像、B像のシフト波形と相関量の演算方法について、図6を用いて説明する。   Next, in S21, the camera side MPU 6 performs a first correlation calculation (pre-processing) in the correlation calculation unit 112 based on the A image and the B image. Here, the first correlation calculation will be described in detail. In the following description, a waveform obtained by relatively shifting the image signal acquired from the focus detection sensor is referred to as a shift waveform. First, the calculation method of the shift waveforms and correlation amounts of the A and B images in the first correlation calculation will be described with reference to FIG.

図6(a)はシフト量0のシフト波形、図6(b)はシフト量−1bitのシフト波形、図6(c)はシフト量−2bitのシフト波形を示している。ここでは、B像を固定して、A像を左右にシフトすることでシフト量を制御する。シフト量kbitでの相関量C(k)は、相関演算式(1)を用いて演算することができる。   6A shows a shift waveform with a shift amount of 0, FIG. 6B shows a shift waveform with a shift amount of −1 bit, and FIG. 6C shows a shift waveform with a shift amount of −2 bits. Here, the shift amount is controlled by fixing the B image and shifting the A image left and right. The correlation amount C (k) at the shift amount kbit can be calculated using the correlation calculation formula (1).

Figure 0006254780
この例では、最大シフト量は±4bitとし、9つのシフト波形をRAMに保存する。また、演算範囲はシフト可能な最大シフト量を考慮し、出力されたA像、B像の総画素数mのうち、最初と最後の4bit分を演算から除外した範囲を演算範囲として設定する。そこで、各シフト波形のA像、B像の差分面積(図6(a)〜(c)の斜線部の面積)を相関量Cとし、各シフト波形の相関量Cが最も小さくなるシフト量がA像、B像の位相差に対応する。
Figure 0006254780
In this example, the maximum shift amount is ± 4 bits, and nine shift waveforms are stored in the RAM. Further, the calculation range is set as a calculation range in consideration of the maximum shift amount that can be shifted, and out of the total number of pixels m of the output A image and B image, the first and last 4 bits are excluded from the calculation. Therefore, the difference area between the A and B images of each shift waveform (the area of the shaded area in FIGS. 6A to 6C) is the correlation amount C, and the shift amount that minimizes the correlation amount C of each shift waveform is the same. This corresponds to the phase difference between the A and B images.

このように、図6(a)の画素信号に対して、±4bitシフトさせた相関量Cを図7に示す。シフト量k=−2bitの相関量C(−2)が最も小さい値となっているが、極小値は点線で示すようにk=−2〜−3bitの間にある。そこで、シフト量k=−2bitとその近傍の相関量情報から補間演算することで、位相差検出の分解能を上げる。ここでは、シフト量k=−1〜−4bitの4つの相関量Cを用いることで補間演算している。   FIG. 7 shows the correlation amount C obtained by shifting the pixel signal of FIG. 6A by ± 4 bits. The correlation amount C (−2) with the shift amount k = −2 bits is the smallest value, but the minimum value is between k = −2 and −3 bits as indicated by the dotted line. Therefore, the phase difference detection resolution is increased by performing an interpolation calculation from the shift amount k = -2 bits and the correlation amount information in the vicinity thereof. Here, the interpolation calculation is performed by using four correlation amounts C of shift amounts k = −1 to −4 bits.

S22では、カメラ側MPU6は、図2に示す異常信号を検出する手段を備えた異常画素検出部111により、S20で取得した一対の像信号、A像、B像中における異常画素(飽和画素、欠陥画素)を検出する。なお、以下の説明では異常画素が飽和画素であるものとして説明する。   In S22, the camera-side MPU 6 uses the abnormal pixel detection unit 111 provided with a unit for detecting the abnormal signal illustrated in FIG. 2 to detect abnormal pixels (saturated pixels, in the pair of image signals, A image, and B image acquired in S20. Detect defective pixels). In the following description, the abnormal pixel is assumed to be a saturated pixel.

S23では、S22で検出した情報を基に飽和画素が存在するか否かの判定を行う。飽和画素が存在しない場合はS25に移行する。一方、飽和画素が存在する場合はS24に進み、飽和画素信号を除外する第2相関演算を行う。なお、第2相関演算についての詳細は後述する。   In S23, it is determined whether a saturated pixel exists based on the information detected in S22. If there is no saturated pixel, the process proceeds to S25. On the other hand, if there is a saturated pixel, the process proceeds to S24, and a second correlation calculation is performed to exclude the saturated pixel signal. Details of the second correlation calculation will be described later.

S25では、S21もしくはS24で算出された位相差の情報に基づき、レンズ駆動量を算出してレンズ側MPU1に送信する。レンズ側MPU1は送信されたレンズ駆動量を基にレンズ駆動制御を行い、一連の焦点検出処理を終了する。   In S25, the lens driving amount is calculated based on the phase difference information calculated in S21 or S24 and transmitted to the lens side MPU1. The lens side MPU 1 performs lens drive control based on the transmitted lens drive amount, and ends a series of focus detection processes.

次に、S24で行われる第2相関演算について説明するが、第2相関演算の説明に先立って、飽和画素が存在する場合の相関演算誤差について、図5に示す像信号の飽和レベルを低くすることで説明する。図8は、飽和レベルを低くすることで、図5に示す像信号であるA像、B像の一部の画素が飽和レベルを超えた場合を示している。もちろん、飽和レベルを変えずに、例えばゲインをかけて信号レベルを上げても同様の現象が起きる。   Next, the second correlation calculation performed in S24 will be described. Prior to the description of the second correlation calculation, the saturation level of the image signal shown in FIG. 5 is lowered for the correlation calculation error when there is a saturated pixel. I will explain. FIG. 8 shows a case where some pixels of the A and B images, which are the image signals shown in FIG. 5, exceed the saturation level by lowering the saturation level. Of course, the same phenomenon occurs even if the signal level is raised by applying gain, for example, without changing the saturation level.

飽和画素なしの像信号(図5)と、飽和画素ありの像信号(図8)について、上記(1)式を用いて相関量Cを算出した比較結果を図9に示す。図9に示す例では、飽和画素のあり/なしに関わらず、シフト量k=−2bitで相関量Cは最小となる。しかしながら、補間演算した結果は、飽和画素のあり/なしで差が生じる。この差は、飽和画素信号が飽和レベルにクリップされるため生じるもので、位相差を演算する際の誤差となってしまう。そこで、この誤差を軽減するために飽和画素信号を除外した第2相関演算を行う。   FIG. 9 shows a comparison result of calculating the correlation amount C using the above equation (1) for the image signal without saturated pixels (FIG. 5) and the image signal with saturated pixels (FIG. 8). In the example illustrated in FIG. 9, the correlation amount C is the minimum with the shift amount k = −2 bits regardless of the presence / absence of the saturated pixel. However, the result of the interpolation calculation produces a difference with and without saturated pixels. This difference occurs because the saturated pixel signal is clipped to the saturation level, and becomes an error when calculating the phase difference. Therefore, in order to reduce this error, the second correlation calculation is performed by excluding the saturated pixel signal.

以下、第2相関演算について、図10のフローチャートを用いて詳細に説明する。第1相関演算では、シフト量k=−4〜+4bit、つまり9つのシフト波形の相関量を演算しているのに対して、第2相関演算では、第1相関演算の結果、最小の相関量Cの近傍に対応する4つのシフト波形から飽和画素信号は除外して、相関量を演算する。   Hereinafter, the second correlation calculation will be described in detail with reference to the flowchart of FIG. In the first correlation calculation, the shift amount k = −4 to +4 bits, that is, the correlation amount of nine shift waveforms is calculated, whereas in the second correlation calculation, the minimum correlation amount is obtained as a result of the first correlation calculation. The saturated pixel signal is excluded from the four shift waveforms corresponding to the vicinity of C, and the correlation amount is calculated.

S30では、第1相関演算で検出した位相差Pを基に第2相関演算で使用するシフト量の範囲を決定する。まず、最初に処理を行うシフト波形のシフト量k=F−1に設定する。Fは検出した位相差Pよりも小さい整数に丸めた値とする。図7を例にすると、位相差P=−2bitと−3bitの間であるため、F=−3となる。   In S30, the range of the shift amount used in the second correlation calculation is determined based on the phase difference P detected in the first correlation calculation. First, the shift amount k = F−1 of the shift waveform to be processed first is set. F is a value rounded to an integer smaller than the detected phase difference P. Taking FIG. 7 as an example, since the phase difference P is between −2 bits and −3 bits, F = −3.

S31では、第1相関演算で取得したシフト量kのシフト波形(k)をRAMから読み出す。S32で、S31で読み出したシフト波形(k)から1画素ずつA像、B像のいずれかが飽和画素であるか判断し、飽和画素の位置を検知する。ここでは、画素信号と予めRAMに記憶してある飽和レベルの値と比較することで飽和の判定を行う。   In S31, the shift waveform (k) of the shift amount k acquired by the first correlation calculation is read from the RAM. In S32, it is determined whether one of the A image and the B image is a saturated pixel from the shift waveform (k) read in S31, and the position of the saturated pixel is detected. Here, saturation is determined by comparing the pixel signal with a saturation level value stored in advance in the RAM.

S33では、S32で飽和画素と判定された画素位置をRAMに記憶する。S34では、kがF+2以上か否かの判定を行い、F+2以上であればS36へ移行する。つまり、ここでは4つのシフト量のシフト波形について飽和画素の検知処理を行った場合に次のS36へ移行する。一方、F+2よりも小さければ、飽和画素を検知すべきシフト波形が残っているので、S35で、シフト量k=k+1を設定し、次のシフト量のシフト波形について検知処理を行う。 In S33, the pixel position determined as the saturated pixel in S32 is stored in the RAM. In S34, it is determined whether or not k is F + 2 or more . If it is F + 2 or more , the process proceeds to S36. That is, here, when the saturation pixel detection process is performed for the shift waveforms of the four shift amounts, the process proceeds to the next S36. On the other hand, if it is smaller than F + 2, there remains a shift waveform for detecting a saturated pixel, so in S35, the shift amount k = k + 1 is set, and the detection processing is performed for the shift waveform of the next shift amount.

S36では、S33で飽和画素位置として記憶された画素位置をRAMから読み出し、4つのシフト波形のいずれか一か所でも飽和画素位置として記憶された画素位置の画素信号を0とする。これにより、後で行う相関演算において、それらの画素位置の画素信号を除外する。   In S36, the pixel position stored as the saturated pixel position in S33 is read from the RAM, and the pixel signal at the pixel position stored as the saturated pixel position in any one of the four shift waveforms is set to zero. Thereby, pixel signals at those pixel positions are excluded in the correlation calculation performed later.

ここでS36で行われる除外画素の決定処理について、図11及び図12を用いて詳細に説明をする。図11は第2相関演算で用いる4つのシフト波形を示している。なお、横軸は画素位置、縦軸は像信号を示している。   Here, the exclusion pixel determination process performed in S36 will be described in detail with reference to FIGS. FIG. 11 shows four shift waveforms used in the second correlation calculation. The horizontal axis indicates the pixel position, and the vertical axis indicates the image signal.

図11におけるシフト波形は、図4のS21の第1相関演算結果でRAMに記憶したF−1、F、F+1、F+2のシフト量であり、ここではF=−3のためシフト量k=−4、−3、−2、−1bit(第1のシフト量)のシフト波形である。図11(a)はシフト量k=−1bitのシフト波形であり、画素位置9〜12でA像、B像のいずれかに飽和画素が存在している。この場合、カメラ側MPU6は飽和画素位置として画素位置9、10、11、12の4画素をRAMに記憶する。   The shift waveforms in FIG. 11 are the shift amounts of F−1, F, F + 1, and F + 2 stored in the RAM as the result of the first correlation calculation in S21 of FIG. This is a shift waveform of an amount k = −4, −3, −2, −1 bit (first shift amount). FIG. 11A shows a shift waveform with a shift amount k = −1 bit, and a saturated pixel exists in either the A image or the B image at pixel positions 9 to 12. In this case, the camera-side MPU 6 stores four pixels at pixel positions 9, 10, 11, and 12 in the RAM as saturated pixel positions.

図11(b)はシフト量k=−2bit(第2のシフト量)のシフト波形であり、図11(a)と同様の判定により画素位置9、10、11の3画素をRAMに記憶する。図11(c)はシフト量k=−3bitのシフト波形であり、上記と同様の判定により画素位置9、10、11の3画素をRAMに記憶する。図11(d)はシフト量k=−4bitのシフト波形であり、上記と同様の判定により画素位置8、9、10、11の4画素をRAMに記憶する。   FIG. 11B shows a shift waveform with a shift amount k = −2 bits (second shift amount), and three pixels at pixel positions 9, 10 and 11 are stored in the RAM by the same determination as in FIG. . FIG. 11C shows a shift waveform with a shift amount k = −3 bits, and three pixels at pixel positions 9, 10, and 11 are stored in the RAM by the same determination as described above. FIG. 11D shows a shift waveform with a shift amount k = −4 bits, and four pixels at pixel positions 8, 9, 10, and 11 are stored in the RAM by the same determination as described above.

図12は、図11(a)〜(d)のシフト波形における飽和画素位置を表にまとめて示したものである。図12において、飽和画素、及び、後述する除外画素に対応した画素位置は「×」で表している。このようにシフト波形によってA像、B像のいずれかが飽和している画素の数が異なる。   FIG. 12 summarizes the saturated pixel positions in the shift waveforms of FIGS. 11 (a) to 11 (d) in a table. In FIG. 12, pixel positions corresponding to saturated pixels and excluded pixels to be described later are represented by “x”. Thus, the number of pixels in which either the A image or the B image is saturated differs depending on the shift waveform.

また、第2相関演算における相関量Cは、相関演算式(1)で示したように、各画素の対になっている像信号の差分を総和した値である。飽和画素のみ、または、飽和画素及び飽和画素と対になる画素のみを除外すると、シフト波形毎に演算画素数が異なり、総和する画素数が異なるため、位相差を示すそれぞれの相関量の基準が異なってしまい、正しい演算結果を求めることができない。 Further, the correlation amount C in the second correlation calculation is a value obtained by summing up the differences between the image signals paired with each pixel, as shown in the correlation calculation expression (1). If only saturated pixels or only pixels that are paired with saturated pixels and saturated pixels are excluded, the number of operation pixels differs for each shift waveform, and the total number of pixels differs. It is different, and a correct calculation result cannot be obtained.

そこで図11(a)〜(d)のいずれかのシフト波形で、画素位置(i)(第1の位置)を飽和画素位置として記憶している場合、他のシフト波形においても画素位置(i)を除外画素とする。この場合、除外画素は正常画素であってもよい。つまり、第2相関演算に用いる4つのシフト波形においては、図12に示すように、8、9、10、11、12の5画素が除外画素となる。したがって、例えば、図11(a)のシフト波形では画素位置9、10、11、12が飽和画素であるが、正常画素である画素位置8についても飽和画素と同様に扱う。   Therefore, when the pixel position (i) (first position) is stored as the saturated pixel position in any one of the shift waveforms in FIGS. 11A to 11D, the pixel position (i ) Is an excluded pixel. In this case, the excluded pixel may be a normal pixel. That is, in the four shift waveforms used for the second correlation calculation, as shown in FIG. 12, five pixels 8, 9, 10, 11, and 12 are excluded pixels. Therefore, for example, in the shift waveform of FIG. 11A, the pixel positions 9, 10, 11, and 12 are saturated pixels, but the pixel position 8 that is a normal pixel is also handled in the same manner as the saturated pixels.

S37では、S36で飽和画素と決定された位置の画素信号を0とした4つのシフト波形について、第1相関演算と同様に上記式(1)を用いて相関量Cを求め、それぞれの相関量Cから極小値となるシフト量を求め、第2相関演算結果とする。そして、相関量C(F−1)とC(F)をつないだ直線と、相関量C(F+1)とC(F+2)をつないだ直線の交点を相関量の極小値とし、位相差を算出する。   In S37, the correlation amount C is obtained using the above equation (1) for the four shift waveforms in which the pixel signal at the position determined as the saturated pixel in S36 is 0, similarly to the first correlation calculation. The shift amount that is the minimum value is obtained from C and is set as the second correlation calculation result. Then, the intersection of the straight line connecting the correlation amounts C (F-1) and C (F) and the straight line connecting the correlation amounts C (F + 1) and C (F + 2) is set as the minimum value of the correlation amount. Calculate the phase difference.

以上説明したように、S36で、A像、B像のいずれかに飽和画素が存在するとき、その画素の画素信号を0にしている。これにより、S37で相関量Cを演算する際、上記式(1)で対になっている第1項、第2項の画素信号が0になることで、相関量Cから飽和した画素信号を取り除くことができる。   As described above, when a saturated pixel exists in either the A image or the B image in S36, the pixel signal of that pixel is set to zero. As a result, when the correlation amount C is calculated in S37, the pixel signal of the first term and the second term paired in the above equation (1) becomes 0, so that the pixel signal saturated from the correlation amount C is obtained. Can be removed.

さらに、S36で、いずれかのシフト波形で飽和画素位置とした画素を4つのシフト波形から取り除いているため、S37で4つのシフト波形の相関量Cを演算する際に、演算範囲及び演算画素数が等しくなり、高精度に位相差を検出することができる。   Further, since the pixel at the saturated pixel position in any shift waveform is removed from the four shift waveforms in S36, the calculation range and the number of calculation pixels are calculated when calculating the correlation amount C of the four shift waveforms in S37. And the phase difference can be detected with high accuracy.

さらに、第1相関演算結果に基づいて第2相関演算で使用するシフト範囲を狭くすることで、S36で飽和画素数として除外される画素数を少なくすることができる。したがって、相関演算に使用する画素数が減少することで生じる焦点検出精度の悪化を回避することができる。   Further, by narrowing the shift range used in the second correlation calculation based on the first correlation calculation result, the number of pixels excluded as the saturated pixel number in S36 can be reduced. Therefore, it is possible to avoid a deterioration in focus detection accuracy caused by a decrease in the number of pixels used for correlation calculation.

また、上記第1の実施形態においては、図12に示すように、4つのシフト波形の少なくともいずれかにおいて飽和画素と判断された画素位置を除外画素とする場合について説明した。すなわち、全てのシフト波形における除外画素の画素数が同じ数になるように、正常画素を含めて除外画素の数を最小に抑えるように決定すれば良い。   Further, in the first embodiment, as illustrated in FIG. 12, a case has been described in which a pixel position determined as a saturated pixel in at least one of the four shift waveforms is an excluded pixel. That is, the number of excluded pixels including normal pixels may be determined to be minimized so that the number of excluded pixels in all shift waveforms is the same.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。本第2の実施形態では、イメージセンサに焦点検出用の画素が離散的に配置されている場合の焦点検出処理について説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. In the second embodiment, focus detection processing in a case where focus detection pixels are discretely arranged in the image sensor will be described.

図13は第2の実施形態におけるイメージセンサ101の概略構成を示す回路図である。図13では2次元CMOSエリアセンサの2列×4行画素の範囲を示しているが、実際には、図13に示した画素を多数配置し、高解像度画像の取得を可能としている。ここでは、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmのデジタルスチルカメラ用イメージセンサとして説明を行う。 FIG. 13 is a circuit diagram showing a schematic configuration of the image sensor 101 in the second embodiment. Although FIG. 13 shows a range of 2 columns × 4 rows of pixels of a two-dimensional CMOS area sensor, in practice, a large number of pixels shown in FIG. 13 are arranged to enable acquisition of a high resolution image. Here, the description will be made as an image sensor for a digital still camera having a pixel pitch of 2 μm, an effective pixel number of 3000 columns × 2000 rows = 6 million pixels, and an imaging screen size of 6 mm × 4 mm.

図13において、201はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子の光電変換部、202はフォトゲート、203は転送スイッチMOSトランジスタ、204はリセット用MOSトランジスタである。205はソースフォロワアンプMOSトランジスタ、206は水平選択スイッチMOSトランジスタ、207はソースフォロワの負荷MOSトランジスタである。208は暗出力転送MOSトランジスタ、209は明出力転送MOSトランジスタ、210は暗出力蓄積容量CTN、211は明出力蓄積容量CTSである。212は水平転送MOSトランジスタ、213は水平出力線リセットMOSトランジスタ、214は差動出力アンプ、215は水平走査回路、216は垂直走査回路である。 In FIG. 13, 201 is a photoelectric conversion portion of a photoelectric conversion element comprising a MOS transistor gate and a depletion layer under the gate, 202 is a photogate, 203 is a transfer switch MOS transistor, and 204 is a reset MOS transistor. 205 is a source follower amplifier MOS transistor, 206 is a horizontal selection switch MOS transistor, and 207 is a load MOS transistor of the source follower. 208 is a dark output transfer MOS transistor, 209 is a light output transfer MOS transistor, 210 is a dark output storage capacitor C TN , and 211 is a light output storage capacitor C TS . 212 is a horizontal transfer MOS transistor, 213 is a horizontal output line reset MOS transistor, 214 is a differential output amplifier, 215 is a horizontal scanning circuit, and 216 is a vertical scanning circuit.

図14は、図13のY方向の2つの画素に係る配線部の断面図を示す。同図において、217はP型ウェル、218はゲート酸化膜、219は一層目ポリSi、220は二層目ポリSi、221はn+フローティングディフュージョン(FD)部である。FD部221は2つの転送MOSトランジスタを介して2つの光電変換部と接続される。同図において、2つの転送MOSトランジスタ203のドレインとFD部221を共通化して微細化とFD部221の容量低減による感度向上を図っているが、アルミ(Al)配線でFD部221を接続しても良い。   FIG. 14 is a cross-sectional view of a wiring portion relating to two pixels in the Y direction of FIG. In the figure, 217 is a P-type well, 218 is a gate oxide film, 219 is a first-layer poly-Si, 220 is a second-layer poly-Si, and 221 is an n + floating diffusion (FD) portion. The FD unit 221 is connected to two photoelectric conversion units via two transfer MOS transistors. In the figure, the drain of two transfer MOS transistors 203 and the FD portion 221 are shared to improve the sensitivity by miniaturization and the capacity reduction of the FD portion 221, but the FD portion 221 is connected by an aluminum (Al) wiring. May be.

次に、図15のタイミングチャートを用いて、図13及び図14に示すイメージセンサ101における全画素独立出力の場合の動作について説明する。   Next, the operation in the case of the all-pixel independent output in the image sensor 101 shown in FIGS. 13 and 14 will be described using the timing chart of FIG.

まず、垂直走査回路216からのタイミング出力によって、制御パルスφLをハイとして垂直出力線をリセットする。また、制御パルスφR0、φPG00、φPGe0をハイとし、リセット用MOSトランジスタ204をオンとし、フォトゲート202の一層目ポリシリコン219をハイとしておく。時刻T0において、制御パルスφS0をハイとし、選択スイッチMOSトランジスタ206をオンさせ、第1及び第2ラインの画素を選択する。次に制御パルスφR0をローとし、FD部221のリセットを止め、FD部221をフローティング状態とし、ソースフォロワアンプMOSトランジスタ205のゲート・ソース間をスルーとする。その後、時刻T1において制御パルスφTNをハイとし、FD部221の暗電圧をソースフォロワ動作で蓄積容量CTN210に出力させる。 First, the timing output from the vertical scanning circuit 216 sets the control pulse φL to high to reset the vertical output line. Further, the control pulses φR 0 , φPG 00 and φPG e0 are set high, the reset MOS transistor 204 is turned on, and the first-layer polysilicon 219 of the photogate 202 is set high. At time T 0 , the control pulse φS 0 is set high, the selection switch MOS transistor 206 is turned on, and the pixels on the first and second lines are selected. Next, the control pulse φR 0 is set to low, the reset of the FD unit 221 is stopped, the FD unit 221 is brought into a floating state, and the source-follower amplifier MOS transistor 205 is set to the through state. Thereafter, the control pulse .phi.T N and high at time T 1, to output a dark voltage of the FD section 221 to the storage capacitor C TN 210 by the source follower operation.

次に、第1ラインの画素から光電変換出力を行うため、先ず、第1ラインの制御パルスφTX00をハイとして転送スイッチMOSトランジスタ203を導通する。その後、時刻T2において制御パルスφPG00をローとして下げる。この時フォトゲート2の下に拡がっていたポテンシャル井戸を上げて、光発生キャリアをFD部221に完全転送させるような電圧関係が好ましい。従って完全転送が可能であれば制御パルスφTXはパルスではなくある固定電位でもかまわない。 Next, in order to perform photoelectric conversion output from the pixels of the first line, first, conducts the transfer switch MOS transistor 203 to control pulse .phi.TX 00 of the first line as a high. Then, lowering the control pulse FaiPG 00 as a low at time T 2. At this time, a voltage relationship is preferable in which the potential well that has spread under the photogate 2 is raised so that the photogenerated carriers are completely transferred to the FD portion 221. Therefore, if complete transfer is possible, the control pulse φTX may be a fixed potential instead of a pulse.

時刻T2でフォトダイオードの第1ラインの画素からの電荷がFD部221に転送されることにより、FD部221の電位が光に応じて変化することになる。この時ソースフォロワアンプMOSトランジスタ205がフローティング状態であるので、FD部221の電位を時刻T3において制御パルスφTsをハイとして蓄積容量CTS211に出力する。この時点で第1ラインの画素の暗出力と明出力はそれぞれ蓄積容量CTN210とCTS211に蓄積される。時刻T4で制御パルスφHCを一時ハイとして水平出力線リセットMOSトランジスタ213を導通して水平出力線をリセットし、水平転送期間において水平走査回路215の走査タイミング信号により水平出力線に画素の暗出力と明出力を出力させる。この時、蓄積容量CTN210とCTS211の差動増幅器214によって、差動出力VOUTを取れば、画素のランダムノイズ、固定パターンノイズを除去したS/Nの良い信号が得られる。 At time T 2 , charges from the pixels on the first line of the photodiode are transferred to the FD portion 221, whereby the potential of the FD portion 221 changes according to light. At this time, since the source follower amplifier MOS transistor 205 is in a floating state, the potential of the FD portion 221 is output to the storage capacitor C TS 211 with the control pulse φT s being high at time T 3 . At this time, the dark output and the bright output of the pixels on the first line are stored in the storage capacitors C TN 210 and C TS 211, respectively. At time T 4 , the control pulse φHC is temporarily set to high to turn on the horizontal output line reset MOS transistor 213 to reset the horizontal output line, and in the horizontal transfer period, the dark output of the pixel to the horizontal output line is performed by the scanning timing signal of the horizontal scanning circuit 215. And bright output. At this time, if the differential output V OUT is obtained by the differential amplifier 214 of the storage capacitors C TN 210 and C TS 211, a signal with good S / N from which random noise and fixed pattern noise of the pixel are removed can be obtained.

また、第1ラインの画素の暗出力及び明出力は、同時に夫々の垂直出力線に接続された蓄積容量CTN210とCTS211に蓄積されている。従って、水平転送MOSトランジスタ212を順次オンとしていくことにより、夫々の蓄積容量CTN210とCTS211に蓄積された電荷は、水平出力線に順次読み出され、差動増幅器214から出力される。 Further, the dark output and the bright output of the pixels on the first line are simultaneously stored in the storage capacitors C TN 210 and C TS 211 connected to the respective vertical output lines. Accordingly, by sequentially turning on the horizontal transfer MOS transistor 212, the charges accumulated in the respective storage capacitors C TN 210 and C TS 211 are sequentially read out to the horizontal output line and output from the differential amplifier 214. .

また、本第2の実施形態では、差動出力VOUTをチップ内で行う構成を示している。しかしながら、チップ内に含めず、外部で従来のCDS(Correlated Double Sampling:相関二重サンプリング)回路を用いても同様の効果が得られる。 In the second embodiment, a configuration in which the differential output V OUT is performed in the chip is shown. However, the same effect can be obtained even if a conventional CDS (Correlated Double Sampling) circuit is used outside without being included in the chip.

一方、第1ラインの画素から蓄積容量CTS211に明出力を出力した後、制御パルスφR0をハイとしてリセット用MOSトランジスタ4を導通し、FD部221を電源VDDにリセットする。第1ラインの電荷の水平転送が終了した後、第2ラインの画素からの読み出しを行う。第2ラインの読み出しは、上述した第1ラインと同様にまず制御パルスφTXe0、制御パルスφPGe0を駆動させる。次に、制御パルスφTN、φTSに夫々ハイパルスを供給して、蓄積容量CTN210とCTS211に夫々暗出力と明出力を蓄積し、暗出力及び明出力を取り出す。 On the other hand, after a bright output is output from the pixels on the first line to the storage capacitor C TS 211, the control pulse φR 0 is set to high to turn on the reset MOS transistor 4, and the FD unit 221 is reset to the power supply V DD . After the horizontal transfer of the charge on the first line is completed, reading from the pixels on the second line is performed. In reading the second line, the control pulse φTX e0 and the control pulse φPG e0 are first driven as in the first line. Next, high pulses are supplied to the control pulses φT N and φT S , respectively, and dark output and bright output are stored in the storage capacitors C TN 210 and C TS 211, respectively, and dark output and bright output are taken out.

以上の駆動により、第1、第2ラインの読み出しを夫々独立に行うことができる。この後、垂直走査回路216を走査させ、同様にして第2n+1、第2n+2(n=1,2,…)の読み出しを行えば、全画素からの独立出力が行える。即ち、n=1の場合は、まず制御パルスφS1をハイとし、次にφR1をローとし、続いて制御パルスφTN、φTX01をハイとする。そして、制御パルスφPG01をロー、制御パルスφTSをハイ、制御パルスφHCを一時ハイとして第3ラインの各画素から暗出力及び明出力を読み出す。続いて、制御パルスφTXe1、φPGe1及び上記と同様に制御パルスを印加して、第4ラインの各画素から暗出力及び明出力を読み出す。 With the above driving, the first and second lines can be read independently. Thereafter, by scanning the vertical scanning circuit 216 and reading out 2n + 1 and 2n + 2 (n = 1, 2,...) In the same manner, independent output from all pixels can be performed. That is, when n = 1, first, the control pulse φS 1 is set high, then φR 1 is set low, and then the control pulses φT N and φTX 01 are set high. The low control pulses FaiPG 01, high control pulse .phi.T S, reads the dark output and bright output from each pixel of the third line control pulse φHC as a temporary high. Subsequently, the control pulses φTX e1 and φPG e1 and the control pulse are applied in the same manner as described above, and the dark output and the bright output are read from each pixel of the fourth line.

図16〜図18は、撮像用画素と焦点検出用画素の構造を説明する図である。本第2の実施形態においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が配置される。   16 to 18 are diagrams for explaining the structures of the imaging pixels and the focus detection pixels. In the second embodiment, out of 4 pixels of 2 rows × 2 columns, pixels having a spectral sensitivity of G (green) are arranged on 2 diagonal pixels, and R (red) and B are placed on the other 2 pixels. A Bayer arrangement in which one pixel each having (blue) spectral sensitivity is arranged is employed. A focus detection pixel having a structure to be described later is arranged between the Bayer arrays.

図16に撮像用画素の配置と構造を示す。図16(a)は2行×2列の撮像用画素の平面図である。周知のごとく、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そしてこの2行×2列の構造が繰り返し配置される。   FIG. 16 shows the arrangement and structure of the imaging pixels. FIG. 16A is a plan view of 2 × 2 imaging pixels. As is well known, in the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. The 2 rows × 2 columns structure is repeatedly arranged.

図16(a)におけるA−A断面図を図16(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFはR(赤色)のカラーフィルタ、CFはG(緑色)のカラーフィルタである。PD(Photo Diode)はイメージセンサ101の光電変換素子を模式的に示したものである。CL(Contact Layer)は、イメージセンサ101内の各種信号を伝達する信号線を形成するための配線層である。TL(Taking Lens)は撮影レンズ21を模式的に示したものである。 FIG. 16B is a cross-sectional view taken along the line AA in FIG. ML denotes an on-chip microlens arranged in front of each pixel, CF R is a color filter, CF G of R (red), a G (green) color filter. PD (Photo Diode) schematically shows a photoelectric conversion element of the image sensor 101. CL (Contact Layer) is a wiring layer for forming signal lines for transmitting various signals in the image sensor 101. TL (Taking Lens) schematically shows the photographing lens 21.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換素子PDは、撮影レンズTLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影レンズTLの射出瞳EP(Exit Pupil)と光電変換素子PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換素子の有効面積は大面積に設計される。なお、図16(b)ではR画素の入射光束について説明したが、G画素及びB(青色)画素も同一の構造となっている。このように、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。   Here, the on-chip microlens ML and the photoelectric conversion element PD of the imaging pixel are configured to capture the light beam that has passed through the photographing lens TL as effectively as possible. In other words, the exit pupil EP (Exit Pupil) of the photographic lens TL and the photoelectric conversion element PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion element is designed to be large. In FIG. 16B, the incident light beam of the R pixel has been described, but the G pixel and the B (blue) pixel have the same structure. As described above, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.

図17は、撮影レンズTLの、図中x方向に瞳分割を行うための焦点検出用画素の平面図と断面図を示す。図17(a)は、焦点検出用画素を含む2行×2列の画素の平面図である。記録又は観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。これは、人間の画像認識特性は輝度情報に敏感であるためで、G画素が欠損すると画質劣化が認知されやすい。一方でR画素又はB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで、本第2の実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、R画素とB画素をある割合で焦点検出用画素に置き換える。この焦点検出用画素対を図17(a)においてSHA及びSHBと示す。 FIG. 17 shows a plan view and a cross-sectional view of a focus detection pixel for performing pupil division in the x direction in the drawing of the photographing lens TL. FIG. 17A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. When obtaining an image signal for recording or viewing, the main component of luminance information is acquired by G pixels. This is because human image recognition characteristics are sensitive to luminance information, and if G pixels are lost, image quality degradation is easily recognized. On the other hand, the R pixel or the B pixel is a pixel that acquires color information (color difference information). However, since human visual characteristics are insensitive to color information, the pixel that acquires color information has some defects. However, image quality degradation is difficult to recognize. Therefore, in the second embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the R pixel and the B pixel are replaced with a focus detection pixel at a certain ratio. This focus detection pixel pair is denoted as S HA and S HB in FIG.

図17(a)におけるB−B断面図を図17(b)に示す。マイクロレンズMLと、光電変換素子PDは図16(b)に示した撮像用画素と同一構造である。本第2の実施形態においては、焦点検出用画素の信号は画像生成には用いないため、色分離用カラーフィルタの代わりに透明膜CF(白色)が配置される。また、イメージセンサ101で瞳分割を行うため、配線層CLの開口部はマイクロレンズMLの中心線に対してx方向に偏倚している。具体的には、画素SHAの開口部OPHAはマイクロレンズMLの中心線に対して−x方向に偏倚しているため、撮影レンズTLの+x方向の射出瞳領域EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBはマイクロレンズMLの中心線に対して+x方向に偏倚しているため、撮影レンズTLの−x方向の射出瞳領域EPHBを通過した光束を受光する。 FIG. 17B is a cross-sectional view taken along the line BB in FIG. The microlens ML and the photoelectric conversion element PD have the same structure as the imaging pixel shown in FIG. In the second embodiment, since the signal of the focus detection pixel is not used for image generation, a transparent film CF W (white) is disposed instead of the color separation color filter. Further, since pupil division is performed by the image sensor 101, the opening of the wiring layer CL is biased in the x direction with respect to the center line of the microlens ML. Specifically, since the opening OP HA of the pixel S HA is deviated in the −x direction with respect to the center line of the microlens ML, the light flux that has passed through the exit pupil region EP HA in the + x direction of the photographing lens TL is reflected. Receive light. Similarly, since the opening OP HB of the pixel S HB is deviated in the + x direction with respect to the center line of the microlens ML, the light beam that has passed through the exit pupil region EP HB in the −x direction of the photographing lens TL is received. .

以上のような構成を有する画素SHAをx方向に規則的に配列し、これらの画素群の出力から、後述するようにしてA像(一方の像信号)を形成する。また、画素SHBもx方向に規則的に配列し、これらの画素群の出力から、後述するようにしてB像(他方の像信号)を形成する。そして、取得したA像とB像の相対位置を検出することで、x方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)を検出できる。 The pixels SHA having the above configuration are regularly arranged in the x direction, and an A image (one image signal) is formed from the outputs of these pixel groups as will be described later. Further, the pixels SHB are also regularly arranged in the x direction, and a B image (the other image signal) is formed from the outputs of these pixel groups as described later. Then, by detecting the relative positions of the acquired A and B images, it is possible to detect the amount of defocus (defocus amount) of the subject image having a luminance distribution in the x direction.

なお、上記画素SHA及びSHBでは、撮影画面のx方向に輝度分布を有した被写体、例えばy方向の線(縦線)に対しては焦点検出可能だが、y方向に輝度分布を有するx方向の線(横線)は焦点検出不能である。そこで本第2の実施形態では、後者についても焦点検出できるよう、撮影レンズのy方向にも瞳分割を行う画素も備えている。 In the pixels S HA and S HB , focus detection is possible for an object having a luminance distribution in the x direction on the photographing screen, for example, a line (vertical line) in the y direction, but x having a luminance distribution in the y direction. The direction line (horizontal line) cannot detect the focus. Therefore, in the second embodiment, pixels that perform pupil division are also provided in the y direction of the photographic lens so that the latter can be focus-detected.

図18は、撮影レンズTLの、図中y方向に瞳分割を行うための焦点検出用画素の平面図と断面図を示す。図18(a)は、焦点検出用画素を含む2行×2列の画素の平面図で、図17(a)と同様に、G画素は撮像用画素として残し、R画素とB画素をある割合で焦点検出用画素に置き換える。この焦点検出用画素対を図18(a)においてSVC及びSVDと示す。 FIG. 18 shows a plan view and a cross-sectional view of a focus detection pixel for performing pupil division in the y direction in the drawing of the photographing lens TL. FIG. 18A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. Like FIG. 17A, the G pixel is left as an imaging pixel, and there are an R pixel and a B pixel. Replace with focus detection pixels at a rate. This focus detection pixel pair is denoted as S VC and S VD in FIG.

図18(a)における断面C−Cを図18(b)に示すが、図17(b)に示す画素がx方向に瞳分離する構造であるのに対して、図18(b)に示す画素は瞳分離方向がy方向になっているだけで、画素の構造としては変わらない。すなわち、画素SVCの開口部OPVCはマイクロレンズMLの中心線に対して−y方向に偏倚しているため、撮影レンズTLの+y方向の射出瞳領域EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVCはマイクロレンズMLの中心線に対して+y方向に偏倚しているため、撮影レンズTLの−y方向の射出瞳領域EPVDを通過した光束を受光する。 FIG. 18B shows a cross-section C-C in FIG. 18A. The pixel shown in FIG. 17B has a structure in which pupil separation is performed in the x direction, whereas FIG. The pixel has only the pupil separation direction in the y direction, and the pixel structure does not change. That is, the opening OP VC of the pixel S VC is because it is biased to -y direction with respect to the center line of the microlens ML, it receives a light flux passing through the exit pupil region EP VC of + y direction of the photographing lens TL. Similarly, since the opening OP VC of the pixel S VD is deviated in the + y direction with respect to the center line of the microlens ML, the light beam that has passed through the exit pupil region EP VD in the −y direction of the photographing lens TL is received. .

以上のような構成を有する画素SVCをy方向に規則的に配列し、これらの画素群の出力から、後述するようにしてC像(一方の像信号)を形成する。また、画素SVDもy方向に規則的に配列し、これらの画素群の出力から、後述するようにしてD像(他方の像信号)を形成する。そして、取得したC像とD像の相対位置を検出することで、y方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)を検出できる。 The pixels SVC having the above configuration are regularly arranged in the y direction, and a C image (one image signal) is formed from the outputs of these pixel groups as will be described later. Also, the pixels SVD are regularly arranged in the y direction, and a D image (the other image signal) is formed from the outputs of these pixel groups as will be described later. Then, by detecting the relative position of the acquired C image and D image, it is possible to detect the amount of defocus (defocus amount) of the subject image having a luminance distribution in the y direction.

図19から図23は、図16〜図18で説明した撮像用画素と焦点検出用画素の配置規則を説明する図である。図19は撮像用画素の間に焦点検出用画素を離散的に配置する場合の、最小単位の配置規則を説明するための図である。図19において、10行×10列=100画素をひとつのブロックと定義する。そして一番左上のブロックBLK(i,j)=BLK(1,1)とし、下方向と右方向を正とする。そして、ブロックBLK(1,1)において、一番左下のR画素とB画素を、水平方向に瞳分割を行う1組の焦点検出用画素SHA及びSHBで置き換える。 FIGS. 19 23 is a diagram for explaining the arrangement rule of an image sensing pixel and focus detection pixels described in FIGS. 16 to 18. FIG. 19 is a diagram for explaining a minimum unit arrangement rule when focus detection pixels are discretely arranged between imaging pixels. In FIG. 19, 10 rows × 10 columns = 100 pixels are defined as one block. The upper left block BLK (i, j) = BLK (1,1) is set, and the downward direction and the right direction are positive. In the block BLK (1, 1), the lower left R pixel and B pixel are replaced with a set of focus detection pixels S HA and S HB that perform pupil division in the horizontal direction.

その右隣りのブロックBLK(1,2)においては、同じく一番左下のR画素とB画素を、垂直方向に瞳分割を行う1組の焦点検出用画素SVC及びSVDで置き換える。また、最初のブロックBLK(1,1)の下に隣接したブロックBLK(1,1)の画素配列は、ブロックBLK(1,2)と同一とする。そして、その右隣りのブロックBLK(2,2)の画素配列は、ブロックBLK(1,1)と同一とする。 In the block BLK (1, 2) on the right side, the lower left R pixel and B pixel are similarly replaced with a set of focus detection pixels S VC and S VD that perform pupil division in the vertical direction. The pixel arrangement of the block BLK (1, 1) adjacent below the first block BLK (1, 1) is the same as that of the block BLK (1, 2). The pixel arrangement of the block BLK (2, 2) on the right side is the same as that of the block BLK (1, 1).

この場合、図19に示す配置規則を普遍的に表現すると、ブロックBLK(i,j)において、i+jが偶数なら瞳分割方向が水平方向の焦点検出用画素を配置し、i+jが奇数なら瞳分割方向が垂直方向の焦点検出用画素を配置する。そして、図19の2×2=4ブロック、すなわち20行×20列=400画素の領域を、ブロックの上位の配列単位として、クラスタと定義する。   In this case, when the arrangement rule shown in FIG. 19 is expressed universally, in block BLK (i, j), if i + j is an even number, a focus detection pixel in which the pupil division direction is horizontal is arranged, and i + j is If the number is odd, focus detection pixels whose pupil division direction is vertical are arranged. Then, 2 × 2 = 4 blocks in FIG. 19, that is, an area of 20 rows × 20 columns = 400 pixels is defined as a cluster as an upper array unit of the blocks.

図20は、クラスタを単位とした配置規則を説明するための図である。図20において、20行×20列=400画素で構成された一番左上のクラスタをCST(u,w)=CST(1,1)とし、下方向と右方向を正とする。そして、クラスタCST(1,1)においては、各ブロックの一番左下のR画素とB画素を、焦点検出用画素SHA及びSHB、もしくはSVC及びSVDで置き換える。 FIG. 20 is a diagram for explaining an arrangement rule in units of clusters. In FIG. 20, the upper left cluster composed of 20 rows × 20 columns = 400 pixels is CST (u, w) = CST (1,1), and the downward direction and the right direction are positive. In the cluster CST (1, 1), the lower left R pixel and B pixel of each block are replaced with focus detection pixels S HA and S HB or S VC and S VD .

その右隣りのクラスタCST(1,2)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して上方向に2画素分シフトした位置に配置する。また、最初のクラスタCST(1,1)の下に隣接したクラスタCST(2,1)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して右方向に2画素分シフトした位置に配置する。以上の規則を繰り返し適用すると図20に示した配置が得られる。   In the cluster CST (1, 2) on the right side, the focus detection pixels in the block are arranged at positions shifted upward by two pixels with respect to the cluster CST (1, 1). Further, in the cluster CST (2, 1) adjacent below the first cluster CST (1, 1), the focus detection pixels are arranged in the block in the right direction with respect to the cluster CST (1, 1). Arranged at a position shifted by two pixels. When the above rules are repeatedly applied, the arrangement shown in FIG. 20 is obtained.

ここで、焦点検出用画素の座標は、図17もしくは図18で示したG画素を含む4画素を一つの単位(ペア)とし、そのうちの左上の画素の座標で規定する。また各ブロック内の座標は左上を(1,1)とし、下方向と右方向を正とする。この場合、図20に示す配置規則を普遍的に表現すると以下のようになる。クラスタCST(u,w)において、各ブロック内の焦点検出用画素ペアの水平座標は2×u−1となり、垂直座標は11−2×wとなる。そして、図20の5×5=25クラスタ、すなわち100行×100列=1万画素の領域を、クラスタの上位の配列単位として、フィールドと定義する。   Here, the coordinates of the focus detection pixels are defined by the coordinates of the upper left pixel of the four pixels including the G pixel shown in FIG. 17 or 18 as one unit (pair). In the coordinates in each block, the upper left is (1, 1), and the lower direction and the right direction are positive. In this case, the arrangement rule shown in FIG. 20 is universally expressed as follows. In the cluster CST (u, w), the horizontal coordinate of the focus detection pixel pair in each block is 2 × u−1, and the vertical coordinate is 11-2 × w. Then, 5 × 5 = 25 clusters in FIG. 20, that is, an area of 100 rows × 100 columns = 10,000 pixels is defined as a field as an upper array unit of the clusters.

図21は、フィールドを単位とした配置規則を説明するための図である。図21において、100行×100列=1万画素で構成された一番左上のフィールドをFLD(q,r)=FLD(1,1)とし、下方向と右方向を正とする。そして本第2の実施形態では、すべてのフィールドFLD(q,r)は先頭フィールドFLD(1,1)と同様の配列となっている。そこで、FLD(1,1)を水平方向に30個、垂直方向に20個配列すると、3000列×2000行=600万画素の撮像領域は600個のフィールドで構成される。このように、撮像領域全面に渡って焦点検出用画素を均一に分布させることができる。   FIG. 21 is a diagram for explaining an arrangement rule in units of fields. In FIG. 21, the upper left field composed of 100 rows × 100 columns = 10,000 pixels is FLD (q, r) = FLD (1,1), and the downward direction and the right direction are positive. In the second embodiment, all the fields FLD (q, r) have the same arrangement as the first field FLD (1,1). Therefore, if 30 FLDs (1, 1) are arranged in the horizontal direction and 20 in the vertical direction, the imaging region of 3000 columns × 2000 rows = 6 million pixels is composed of 600 fields. In this way, focus detection pixels can be uniformly distributed over the entire imaging region.

次に図22及び図23を用いて、焦点検出時の画素のグループと信号加算方法について説明する。図22は、撮影光学系によって形成された被写体像の、水平方向の焦点検出を行う場合の画素グループ化方法を説明する図である。水平方向の焦点検出とは、図17で説明した、撮影光学系の射出瞳を横方向(左右方向)に分割するための焦点検出用画素SHA及びSHBを用いて、位相差演算を行うことを指す。 Next, a group of pixels and a signal addition method at the time of focus detection will be described with reference to FIGS. FIG. 22 is a diagram for explaining a pixel grouping method when performing horizontal focus detection of a subject image formed by a photographing optical system. In the horizontal focus detection, the phase difference calculation is performed using the focus detection pixels S HA and S HB for dividing the exit pupil of the photographing optical system in the horizontal direction (left and right direction) described in FIG. Refers to that.

図22に示す画素配列は図20に示すものと同様であるが、焦点検出の際には、水平方向に1ブロック、縦方向に10ブロックの合計10ブロックを1つのグループとし、これをセクションSCTh(k)と定義する。そして、本第2の実施形態では、水平方向に並んだ30セクション(k=1〜30)で、1つの焦点検出領域(AFエリア)を構成する。すなわち、100行×300列=3万画素の領域が1つの焦点検出領域となる。ここで、1つのセクション内においては、水平方向の瞳分割を行う焦点検出用画素SHAが5個、垂直方向の瞳分割を行う焦点検出用画素SHBも5個含まれている。そこで本第2の実施形態においては、5個の焦点検出用画素SHAの出力を加算して、位相差演算用のA像(一方の像信号)の1AF画素とする。同様に、5個のSHBの出力を加算して、位相差演算用のB像(他方の像信号)の1AF画素とする。 The pixel arrangement shown in FIG. 22 is the same as that shown in FIG. 20. However, in focus detection, a total of 10 blocks of 1 block in the horizontal direction and 10 blocks in the vertical direction are grouped into one group. Define (k). In the second embodiment, 30 sections (k = 1 to 30) arranged in the horizontal direction constitute one focus detection area (AF area). That is, an area of 100 rows × 300 columns = 30,000 pixels is one focus detection area. Here, in one section, five focus detection pixels S HA that perform pupil division in the horizontal direction and five focus detection pixels S HB that perform pupil division in the vertical direction are included. Therefore, in the second embodiment, the outputs of the five focus detection pixels S HA are added to form a 1AF pixel of an A image (one image signal) for phase difference calculation. Similarly, the outputs of the five SHBs are added to form a 1AF pixel of the B image (the other image signal) for phase difference calculation.

図23は、撮影光学系によって形成された被写体像の、垂直方向の焦点検出を行う場合の画素のグループ化方法を説明する図である。垂直方向の焦点検出とは、図18で説明した、撮影光学系の射出瞳を縦方向(上下方向)に分割するための焦点検出用画素SVC及びSVDを用いて、位相差式焦点検出を行うことを指す。すなわち、図22で説明した技術を90度回転したものに相当する。 FIG. 23 is a diagram for explaining a pixel grouping method in the case where vertical focus detection is performed on a subject image formed by the photographing optical system. The focus detection in the vertical direction is the phase difference type focus detection using the focus detection pixels S VC and S VD for dividing the exit pupil of the photographing optical system in the vertical direction (vertical direction) described in FIG. To do. That is, this corresponds to the technique described with reference to FIG. 22 rotated 90 degrees.

図23に示す画素配列も図20に示すものと同様であるが、焦点検出の際には、垂直方向に10ブロック、縦方向に1ブロックの合計10ブロックを1つのグループとし、これをセクションSCTv(k)と定義する。そして、第2の実施形態では、垂直方向に並んだ30セクション(k=1〜30)で、1つの焦点検出領域を構成する。すなわち、300行×100列=3万画素の領域が1つの焦点検出領域となる。この1つの焦点検出領域も図22と同様にAFエリアと定義する。ここで、1つのセクション内においては、縦方向における一方の瞳分割を行う画素SVCが5個、他方の瞳分割を行う画素SVDも5個含まれている。そこで第2の実施形態においては、5個のSVCの出力を加算して、位相差演算用のC像(一方の像信号)の1AF画素とする。同様に、5個のSVDの出力を加算して、位相差演算用のD像(他方の像信号)の1AF画素とする。 The pixel arrangement shown in FIG. 23 is the same as that shown in FIG. 20, but in focus detection, a total of 10 blocks, 10 blocks in the vertical direction and 1 block in the vertical direction, are grouped into a group SCTv. Define (k). In the second embodiment, one focus detection region is configured by 30 sections (k = 1 to 30) arranged in the vertical direction. That is, an area of 300 rows × 100 columns = 30,000 pixels is one focus detection area. This one focus detection area is also defined as an AF area as in FIG. Here, in one section, five pixels SVC that perform one pupil division in the vertical direction and five pixels SVD that perform the other pupil division are included. Therefore, in the second embodiment, the outputs of the five SVCs are added to form a 1AF pixel of a C image (one image signal) for phase difference calculation. Similarly, the outputs of five SVDs are added to form a 1AF pixel of a D image (the other image signal) for phase difference calculation.

図24から図26は、第2の実施形態に関わる撮影動作及び焦点検出処理を説明するためのフローチャートである。以下、ライブビュー撮影を前提として先に説明した図13から図23の各図を参照しながら、図24〜図26のフローチャートに沿って、第2の実施形態における撮影動作について説明する。   FIGS. 24 to 26 are flowcharts for explaining the photographing operation and the focus detection process according to the second embodiment. Hereinafter, the shooting operation in the second embodiment will be described along the flowcharts of FIGS. 24 to 26 with reference to FIGS. 13 to 23 described above on the premise of live view shooting.

図24は第2の実施形態のカメラの撮影動作を示すフローチャートである。撮影者がカメラ100の電源スイッチをオン操作すると、S40においてメモリ内容や実行プログラムの初期化を行うと共に、撮影準備動作を実行する。更に、目標露光値を設定する。S41ではイメージセンサ101の撮像動作を開始する。S40で設定された目標露光値になるように露光時間を制御し、プレビュー用の低画素動画像を出力する。S42では読み出した動画をカメラ背面に設けられた表示器17に表示し、撮影者はこのプレビュー画像を目視して撮影時の構図決定を行う。   FIG. 24 is a flowchart showing the photographing operation of the camera of the second embodiment. When the photographer turns on the power switch of the camera 100, in S40, the memory contents and the execution program are initialized, and the photographing preparation operation is executed. Further, a target exposure value is set. In S41, the imaging operation of the image sensor 101 is started. The exposure time is controlled to achieve the target exposure value set in S40, and a preview low-pixel moving image is output. In S42, the read moving image is displayed on the display device 17 provided on the back of the camera, and the photographer visually determines the composition at the time of photographing by viewing the preview image.

S43では、スイッチSW1_18がオン操作されたか否かを判別し、オン操作されていなければS41に戻る。そして、イメージセンサ101の駆動からS42のプレビュー画像表示を繰り返し実行する。S43でSW1_18がオン操作されるとS44に移行し、焦点検出処理を実行する。ここで行われる焦点検出処理について、図25を参照して説明する。   In S43, it is determined whether or not the switch SW1_18 has been turned on. If the switch SW1_18 has not been turned on, the process returns to S41. Then, the preview image display in S42 is repeatedly executed from the driving of the image sensor 101. When SW1_18 is turned on in S43, the process proceeds to S44, and focus detection processing is executed. The focus detection process performed here will be described with reference to FIG.

図25は、本第2の実施形態における焦点検出処理を示すフローチャートである。S50において、まず、カメラ側MPU6はイメージセンサ101に対して、信号蓄積指示を出力する。指示に基づき、イメージセンサ101は信号蓄積動作を開始する。そして、蓄積動作が終了すると焦点検出用画素を読み出す。第2の実施形態において、AF画素は図22、図23で説明した通り、複数の焦点検出用画素の出力を加算する構成になっている。イメージセンサ101はAF画素から得た像信号をA像、B像、もしくはC像、D像として、それぞれ一対の像信号をカメラ側MPU6に出力する。   FIG. 25 is a flowchart showing the focus detection process in the second embodiment. In S <b> 50, first, the camera side MPU 6 outputs a signal accumulation instruction to the image sensor 101. Based on the instruction, the image sensor 101 starts a signal accumulation operation. When the accumulation operation ends, the focus detection pixels are read out. In the second embodiment, as described with reference to FIGS. 22 and 23, the AF pixel is configured to add the outputs of a plurality of focus detection pixels. The image sensor 101 outputs an image signal obtained from the AF pixel as an A image, a B image, a C image, or a D image, and outputs a pair of image signals to the camera side MPU 6.

次にS21では、第1の実施形態と同様にして第1相関演算を行う。なお、イメージセンサ101のAF画素から取得した像信号をシフトさせた波形をシフト波形と呼ぶ。まず、上述した相関演算式(1)を用いて、それぞれのシフト波形から相関量C(k)を演算し、像信号の位相差を算出する。   Next, in S21, the first correlation calculation is performed in the same manner as in the first embodiment. A waveform obtained by shifting the image signal acquired from the AF pixel of the image sensor 101 is referred to as a shift waveform. First, the correlation amount C (k) is calculated from each shift waveform using the above-described correlation calculation expression (1), and the phase difference of the image signal is calculated.

次にS51においてカメラ側MPU6は、S50で取得した一対の像信号における異常画素(飽和画素、欠陥画素)を検出する。ここでは異常画素として飽和画素を検出する。   Next, in S51, the camera-side MPU 6 detects abnormal pixels (saturated pixels, defective pixels) in the pair of image signals acquired in S50. Here, a saturated pixel is detected as an abnormal pixel.

第2の実施形態において、AF画素は複数の焦点検出用画素の出力を加算する構成になっている。ここで定義する飽和画素は、各セクションSCTh(k)、SCTv(k)に含まれる焦点検出用画素に一つでも飽和画素が含まれていた場合、そのSCTh(k)、SCTv(k)の焦点検出用画素を飽和画素として扱う。以降のS23からS25の処理は、図4を参照して第1の実施形態で説明した処理と同様のため、説明を省略する。   In the second embodiment, the AF pixel is configured to add the outputs of a plurality of focus detection pixels. Saturated pixels defined here are those of SCTh (k) and SCCTv (k) when at least one of the focus detection pixels included in each section SCTh (k) and SCThv (k) contains a saturated pixel. Focus detection pixels are treated as saturated pixels. The subsequent processing from S23 to S25 is the same as the processing described in the first embodiment with reference to FIG.

図25に示す焦点検出処理が終了すると図24の処理に戻り、S45においてカメラ側MPU6は、スイッチSW2_19がONされたか否かの判断を行い、スイッチSW2_19がONされたと判断すればS46で撮影処理を行う。一方、スイッチSW2_19がONされていないと判断するとS11へ戻る。   When the focus detection process shown in FIG. 25 is completed, the process returns to the process of FIG. 24. In S45, the camera side MPU 6 determines whether or not the switch SW2_19 is turned on, and if it is determined that the switch SW2_19 is turned on, I do. On the other hand, if it is determined that the switch SW2_19 is not turned on, the process returns to S11.

図26はS46で行われる撮影処理のフローチャートである。スイッチSW2_19がON操作されると、S60では図24のS40において設定された目標露光値になるよう、絞り22を駆動し、イメージセンサ101の露光時間を規定するメカニカルシャッタの開口制御を行う。S61では、高画素静止画撮影のための画像読み出し、すなわち全画素の読み出しを行う。S62では読み出した画像信号の欠損画素補間を行う。ここで、焦点検出用画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を創生する。   FIG. 26 is a flowchart of the photographing process performed in S46. When the switch SW2_19 is turned on, in S60, the aperture 22 is driven so that the target exposure value set in S40 of FIG. 24 is driven, and the aperture control of the mechanical shutter that defines the exposure time of the image sensor 101 is performed. In S61, image reading for high-pixel still image shooting, that is, reading of all pixels is performed. In S62, defective pixel interpolation of the read image signal is performed. Here, since the output of the focus detection pixel does not have RGB color information for imaging and corresponds to a defective pixel in obtaining an image, an image signal is created by interpolation from information on surrounding imaging pixels. To be born.

S63では、画像のγ補正、エッジ強調等の画像処理を行い、S64において、メモリ(不図示)に撮影画像を記録する。S65では、表示器17に撮影済み画像を表示し、図24の撮影動作処理にリターンする。   In S63, image processing such as γ correction and edge enhancement of the image is performed, and in S64, the captured image is recorded in a memory (not shown). In S65, the photographed image is displayed on the display device 17, and the process returns to the photographing operation process of FIG.

上記の通り第2の実施形態によれば、焦点検出用の画素が撮像素子に離散的に配置されている場合であっても、第1の実施形態と同様の効果を得ることができる。   As described above, according to the second embodiment, even when the focus detection pixels are discretely arranged on the image sensor, the same effect as that of the first embodiment can be obtained.

なお、上記第2の実施形態では、焦点検出用画素が、互いに画素の異なる領域を遮光した複数の画素対であるものとして説明したが、各焦点検出用画素が複数の分割された複数の光電変換領域を有し、各光電変換領域から信号を独立に読み出すようにしても良い。   In the second embodiment, the focus detection pixels are described as a plurality of pixel pairs that shield light from areas different from each other. However, each focus detection pixel has a plurality of divided photoelectric elements. A conversion area may be provided, and a signal may be read independently from each photoelectric conversion area.

上記第1及び第2の実施形態において、異常画素として飽和画素を検出する場合について説明したが、本発明の異常画素は飽和画素に限定されるものではなく、他の欠陥画素を検出してもよい。   In the first and second embodiments, the case where a saturated pixel is detected as an abnormal pixel has been described. However, the abnormal pixel of the present invention is not limited to a saturated pixel, and other defective pixels may be detected. Good.

また、上記第1及び第2の実施形態において、位相差を求める際に、4つのシフト波形を用いたが、本発明は4つに限られるものではなく、複数のシフト波形を用いることで位相差を導くことができる。   Further, in the first and second embodiments, four shift waveforms are used when obtaining the phase difference. However, the present invention is not limited to four, and can be achieved by using a plurality of shift waveforms. Phase difference can be derived.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (9)

影光学系の異なる瞳領域を通過した光束を光電変換して、一対の画素信号列を出力することが可能な撮像手段から出力された一対の画素信号列に含まれる異常信号を検出する検出手段と、
複数の異なるシフト量ごとに、前記一対の画素信号列のうち、一方の画素信号列において、前記異常信号が存在する場合、前記一方の画素信号列の異常信号と他方の画素信号列に含まれる異常信号の位置に対応する像信号とを除外し、前記一対の画素信号列を相対的にシフトしながら互いに異なる複数のシフト量での相関量をそれぞれ演算する演算手段とを有し、
前記演算手段は、第1のシフト量でシフトした場合に除外した画像信号の前記一対の画素信号列における位置を第1の位置とした場合に、前記第1のシフト量と異なる第2のシフト量でシフトした前記一対の画素信号列においても、前記第1の位置に対応する画像信号を除外することで、前記第1のシフト量でシフトした前記一対の画素信号列と、前記第2のシフト量でシフトした前記一対の画素信号列それぞれについて、等しい数の像信号を除外して相関量を演算することを特徴とする焦点検出装置。
The light beams passing through different pupil areas of projection optical system Taking photoelectrically converting, detection for detecting an abnormality signal included in a pair of pixel signal string outputted from the image pickup means capable of outputting a pair of pixel signal sequence Means,
For each of a plurality of different shift amounts, when the abnormal signal is present in one of the pair of pixel signal columns, the abnormal signal of the one pixel signal column and the other pixel signal column are included. exclude the images signals corresponding to the position of the abnormality signal, before SL and a calculating means for calculating respective correlation of a plurality of shift amounts different from each other while relatively shifting the pair of pixel signal string ,
The arithmetic means, when the position in the pair of pixel signal sequences of the image signal excluded when shifted by the first shift amount is the first position, a second shift different from the first shift amount also in the pair of pixel signal sequence shifted by an amount, the first by excluding the image signal corresponding to the position, and the first of said pair of pixel signal sequence shifted by the shift amount, the second for each shift amount of the pair of pixel signal sequence shifted in, the focus detection device, characterized in that by excluding equal number of images signals for calculating a correlation amount.
撮影光学系の異なる瞳領域を通過した光束を光電変換して、一対の画素信号列を出力することが可能な撮像手段から出力された一対の画素信号列に含まれる異常信号を検出する検出手段と、Detection means for detecting an abnormal signal contained in a pair of pixel signal sequences output from an imaging means capable of photoelectrically converting light beams that have passed through different pupil regions of the imaging optical system and outputting a pair of pixel signal sequences When,
複数の異なるシフト量ごとに、前記一対の画素信号列のうち、一方の画素信号列において、前記異常信号が存在する場合、前記一方の画素信号列の異常信号と、他方の画素信号列に含まれる前記異常信号の位置に対応する画像信号とを除外し、前記一対の画素信号列を相対的にシフトしながら互いに異なる複数のシフト量での相関量をそれぞれ演算する演算手段とを有し、  For each of a plurality of different shift amounts, when the abnormal signal is present in one of the pair of pixel signal columns, the abnormal signal of the one pixel signal column and the other pixel signal column are included. And calculating means for calculating correlation amounts at a plurality of different shift amounts while relatively shifting the pair of pixel signal sequences, excluding image signals corresponding to the positions of the abnormal signals to be detected,
前記演算手段は、複数の異なるシフト量のうち、少なくとも1つのシフト量で前記異常信号が存在する位置がある場合には、前記複数の異なるシフト量のそれぞれの前記一対の画素信号列において、前記異常信号が存在する位置における画像信号を除外して相関量を演算することを特徴とする焦点検出装置。  In a case where there is a position where the abnormal signal exists with at least one shift amount among a plurality of different shift amounts, the calculation means includes the pair of pixel signal sequences of the plurality of different shift amounts, A focus detection apparatus that calculates a correlation amount by excluding an image signal at a position where an abnormal signal exists.
前記演算手段は、前記検出手段による異常信号の検出に先立って、前記一対の画素信号列をシフトしながら求めた相関量に基づいて、相関が最も高くなるシフト量を求める前処理を行い、
前記検出手段は、前記前処理で求めた前記相関が最も高くなるシフト量を挟んで、予め決められた数の異なるシフト量での前記異常信号の位置を検出し、
前記演算手段は、前記除外した後の前記一対の画素信号列を用いて前記相関量を求める際に、前記予め決められた数の異なるシフト量での相関量を求める
ことを特徴とする請求項1または2に記載の焦点検出装置。
Prior to the detection of an abnormal signal by the detection means, the calculation means performs preprocessing for obtaining a shift amount that maximizes the correlation, based on the correlation amount obtained by shifting the pair of pixel signal sequences ,
The detection means detects the position of the abnormal signal at a predetermined number of different shift amounts across the shift amount at which the correlation obtained by the preprocessing is highest,
The said calculating means calculates | requires the correlation amount in the said predetermined number of different shift amounts, when calculating | requiring the said correlation amount using the said pair of pixel signal sequence after the said exclusion. The focus detection apparatus according to 1 or 2 .
前記演算手段は、前記一対の画素信号列それぞれの前記異常信号と、他方の画素信号列に含まれる異常信号に対応する像信号と、その近傍の正常な画像信号とを除外することを特徴とする請求項1乃至3のいずれか1項に記載の焦点検出装置。 Said calculating means, characterized in that excluding said abnormal signal of each of the pair of pixel signal string, the images signal corresponding to the abnormal signal included in the other pixel signal string, a normal image signal in the vicinity The focus detection apparatus according to any one of claims 1 to 3 . 前記撮像手段は、前記撮影光学系の異なる瞳領域を通過した光束をそれぞれ受光する一対のラインセンサを備えて構成されることを特徴とする請求項1乃至のいずれか1項に記載の焦点検出装置。 The focal point according to any one of claims 1 to 4 , wherein the imaging unit includes a pair of line sensors that respectively receive light beams that have passed through different pupil regions of the photographing optical system. Detection device. 請求項1乃至のいずれか1項に記載の焦点検出装置と、
前記撮影光学系を介して入射する光束を光電変換して、信号を出力する撮像手段と
を有することを特徴とする撮像装置。
A focus detection apparatus according to any one of claims 1 to 5 ,
Wherein the light beam incident through the imaging optical system and photoelectrically converted, an imaging apparatus characterized by having an imaging means for outputting a signal.
前記撮像手段は2次元に配置された複数の画素を有し、少なくとも前記複数の画素の一部を、前記撮影光学系の異なる瞳領域を通過した光束をそれぞれ受光して得られた一対の画素信号列を出力する焦点検出が可能な画素として構成し、
前記検出手段及び前記演算手段は、前記焦点検出が可能な画素から出力された一対の画素信号列を、前記撮像手段から出力される画素信号列として用いることを特徴とする請求項に記載の撮像装置。
The imaging means has a plurality of pixels arranged two-dimensionally, and a pair of pixels obtained by receiving at least a part of the plurality of pixels, respectively, light beams that have passed through different pupil regions of the photographing optical system configured as capable of focus detection pixels for outputting a signal sequence,
Said detecting means and said calculating means, according to a pair of pixel signal sequence output from the focus detection is possible pixel to claim 6, characterized by using as a pixel signal string output from the imaging unit Imaging device.
影光学系の異なる瞳領域を通過した光束を光電変換して、一対の画素信号列を出力することが可能な撮像手段から出力された一対の画素信号列に含まれる異常信号を検出する検出工程と、
複数の異なるシフト量ごとに、前記一対の画素信号列のうち、一方の画素信号列において、前記異常信号が存在する場合、前記一方の画素信号列の異常信号と他方の画素信号列に含まれる前記異常信号の位置に対応する像信号とを除外する除外工程と、
該除外した後の前記一対の画素信号列を相対的にシフトしながら異なるシフト量での相関量を演算する演算工程とを有し、
前記除外工程では、第1のシフト量でシフトした場合に除外した画像信号の前記一対の画素信号列における位置を第1の位置とした場合に、前記第1のシフト量と異なる第2のシフト量でシフトした前記一対の画素信号列においても、前記第1の位置に対応する画像信号を除外することで、前記第1のシフト量でシフトした前記一対の画素信号列と、前記第2のシフト量でシフトした前記一対の画素信号列それぞれについて、等しい数の像信号を除外することを特徴とする焦点検出方法。
The light beams passing through different pupil areas of projection optical system Taking photoelectrically converting, detection for detecting an abnormality signal included in a pair of pixel signal string outputted from the image pickup means capable of outputting a pair of pixel signal sequence Process,
For each of a plurality of different shift amounts, when the abnormal signal is present in one of the pair of pixel signal columns, the abnormal signal of the one pixel signal column and the other pixel signal column are included. and images signals and exclude exclusion process corresponding to the position of the abnormality signal,
A calculation step of calculating a correlation amount at a different shift amount while relatively shifting the pair of pixel signal sequences after the exclusion,
In the exclusion step, a second shift different from the first shift amount when the position of the image signal excluded when the shift is performed by the first shift amount is set to the first position. also in the pair of pixel signal sequence shifted by an amount, the first by excluding the image signal corresponding to the position, and the first of said pair of pixel signal sequence shifted by the shift amount, the second for each shift amount of the pair of pixel signal sequence shifted in the focus detection method characterized by excluding equal number of images signals.
撮影光学系の異なる瞳領域を通過した光束を光電変換して、一対の画素信号列を出力することが可能な撮像手段から出力された一対の画素信号列に含まれる異常信号を検出する検出工程と、A detection step of detecting an abnormal signal included in a pair of pixel signal sequences output from an imaging unit capable of photoelectrically converting light beams that have passed through different pupil regions of the imaging optical system and outputting a pair of pixel signal sequences When,
複数の異なるシフト量ごとに、前記一対の画素信号列のうち、一方の画素信号列において、前記異常信号が存在する場合、前記一方の画素信号列の異常信号と、他方の画素信号列に含まれる前記異常信号の位置に対応する画像信号とを除外する除外工程と、  For each of a plurality of different shift amounts, when the abnormal signal is present in one of the pair of pixel signal columns, the abnormal signal of the one pixel signal column and the other pixel signal column are included. An exclusion step of excluding the image signal corresponding to the position of the abnormal signal
該除外した後の前記一対の画素信号列を相対的にシフトしながら異なるシフト量での相関量を演算する演算工程とを有し、  A calculation step of calculating a correlation amount at a different shift amount while relatively shifting the pair of pixel signal sequences after the exclusion,
前記除外工程では、複数の異なるシフト量のうち、少なくとも1つのシフト量で前記異常信号が存在する位置がある場合には、前記複数の異なるシフト量のそれぞれの前記一対の画素信号列において、前記異常信号が存在する位置における画像信号を除外することを特徴とする焦点検出方法。  In the exclusion step, when there is a position where the abnormal signal exists with at least one shift amount among a plurality of different shift amounts, the pair of pixel signal sequences of the plurality of different shift amounts, A focus detection method characterized by excluding an image signal at a position where an abnormal signal exists.
JP2013137475A 2013-03-07 2013-06-28 Focus detection apparatus and method, and imaging apparatus Expired - Fee Related JP6254780B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013137475A JP6254780B2 (en) 2013-03-07 2013-06-28 Focus detection apparatus and method, and imaging apparatus
US14/196,468 US9167151B2 (en) 2013-03-07 2014-03-04 Focus detection apparatus, focus detection method, and image capturing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013045905 2013-03-07
JP2013045905 2013-03-07
JP2013137475A JP6254780B2 (en) 2013-03-07 2013-06-28 Focus detection apparatus and method, and imaging apparatus

Publications (3)

Publication Number Publication Date
JP2014197161A JP2014197161A (en) 2014-10-16
JP2014197161A5 JP2014197161A5 (en) 2016-08-04
JP6254780B2 true JP6254780B2 (en) 2017-12-27

Family

ID=52357959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013137475A Expired - Fee Related JP6254780B2 (en) 2013-03-07 2013-06-28 Focus detection apparatus and method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6254780B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5230388B2 (en) * 2008-12-10 2013-07-10 キヤノン株式会社 Focus detection apparatus and control method thereof
JP5751946B2 (en) * 2011-06-15 2015-07-22 キヤノン株式会社 Focus adjustment apparatus and control method thereof

Also Published As

Publication number Publication date
JP2014197161A (en) 2014-10-16

Similar Documents

Publication Publication Date Title
US8754976B2 (en) Image-capturing apparatus including image sensor utilizing pairs of focus detection pixels
US8681261B2 (en) Image-capturing apparatus having image sensor utilizing focus detection pixel pairs
JP5319347B2 (en) Imaging apparatus and control method thereof
US8525917B2 (en) Image sensing apparatus with plural focus detection pixel groups
US8159599B2 (en) Focus detection apparatus, focus detection method, and image sensing apparatus
US8654227B2 (en) Focus detection apparatus, focus detection method, and image sensing apparatus
US8493497B2 (en) Focus detection apparatus with weighting of pixel outputs
US8817165B2 (en) Image capturing apparatus
JP5489641B2 (en) Focus detection apparatus and control method thereof
US7920781B2 (en) Image capturing apparatus and control method therefor
US8477233B2 (en) Image capturing apparatus
JP5552214B2 (en) Focus detection device
JP5746496B2 (en) Imaging device
WO2010131444A1 (en) Image pickup apparatus
US9357121B2 (en) Image capturing apparatus and control method thereof
JP2010271670A (en) Imaging apparatus
JP6238578B2 (en) Imaging apparatus and control method thereof
JP6207293B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2012220790A (en) Imaging apparatus
JP6254780B2 (en) Focus detection apparatus and method, and imaging apparatus
JP6671868B2 (en) Control device, imaging device, control method, program, and storage medium
JP2015154153A (en) Camera with imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171201

R151 Written notification of patent or utility model registration

Ref document number: 6254780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees