JP2020085920A - Imaging device and control method of the same - Google Patents

Imaging device and control method of the same Download PDF

Info

Publication number
JP2020085920A
JP2020085920A JP2018214390A JP2018214390A JP2020085920A JP 2020085920 A JP2020085920 A JP 2020085920A JP 2018214390 A JP2018214390 A JP 2018214390A JP 2018214390 A JP2018214390 A JP 2018214390A JP 2020085920 A JP2020085920 A JP 2020085920A
Authority
JP
Japan
Prior art keywords
signal
image
spectral characteristic
correlation amount
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018214390A
Other languages
Japanese (ja)
Inventor
松尾 康弘
Yasuhiro Matsuo
康弘 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018214390A priority Critical patent/JP2020085920A/en
Publication of JP2020085920A publication Critical patent/JP2020085920A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging device that can acquire a focus detection result high in credibility even when errors are included in signals from a photoelectric conversion unit due to an impact of cross-talk, cross-talk correction and the like.SOLUTION: An imaging device is provided that has an image pick-up element 14 with a plurality of photoelectric conversion parts receiving a light flux passing through a different pupil area. The imaging device is configured to: acquire a signal of a first spectral characteristic and a signal of a second spectral characteristic from each of a first photoelectric conversion part and a second photoelectric conversion part; weight to a first amount of correlation to be calculated based on the signal of the first spectral characteristic and a second amount of correlation to be calculated based on the signal of the second spectral characteristic, and calculate a third amount of correlation; and, upon calculating the third amount of correlation, control a size of the weighting to the first amount of correlation and second amount of correlation in accordance with an image height of a focus detection area.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置およびその制御方法に関する。 The present invention relates to an image pickup device and a control method thereof.

特許文献1は、2次元配置された画素の各々にマイクロレンズが形成された撮像素子を用い、瞳分割方式の焦点検出を行う撮像装置を開示している。この撮像装置は、1つのマイクロレンズを2つの光電変換部で共有する構成を有する。これにより、マイクロレンズを共有する2つの光電変換部のうち、第1の光電変換部が、撮影レンズの射出瞳内の第1の領域を出射する光束に基づく信号を出力する。また、第2の光電変換部は、撮影レンズの射出瞳内の第2の領域を出射する光束に基づく信号を出力する。撮像装置は、複数の第1の光電変換部から得られる信号列と複数の第2の光電変換部から得られる信号列との相関演算を行って、信号列の位相差(ずれ量)を算出し、位相差に基づいて、デフォーカス量を算出する。 Patent Document 1 discloses an image pickup apparatus that performs focus detection by a pupil division method using an image pickup element in which a microlens is formed in each of two-dimensionally arranged pixels. This imaging device has a configuration in which one microlens is shared by two photoelectric conversion units. As a result, the first photoelectric conversion unit of the two photoelectric conversion units sharing the microlens outputs a signal based on the light flux emitted from the first region in the exit pupil of the photographing lens. Further, the second photoelectric conversion unit outputs a signal based on the light flux emitted from the second region in the exit pupil of the photographing lens. The imaging device performs a correlation calculation between a signal sequence obtained from the plurality of first photoelectric conversion units and a signal sequence obtained from the plurality of second photoelectric conversion units to calculate a phase difference (deviation amount) of the signal sequence. Then, the defocus amount is calculated based on the phase difference.

また、マイクロレンズを共有する第1の光電変換部と第2の光電変換部の出力を加算することで、マイクロレンズ当たり1つの光電変換部を有する一般的な画素と同様の出力を得ることができる。したがって、1つの画素から、第1の光電変換部の出力(A信号)、第2の光電変換部の出力(B信号)、および第1の光電変換部と第2の光電変換部の加算出力(A+B信号)という3種類の出力を得ることができる。特許文献1が開示する撮像装置は、一方の光電変換部の出力(例えばA信号)を読み出した後でA+B信号を読み出し、B信号は個別に読み出しせずに、A+B信号からA信号を減じることで生成する。これにより、3種類の信号を2回の読み出しで取得することができる。また、特許文献2は、光電変換部の出力に対して、周囲の光電変換部からのクロストークによる影響を除去する処理をした上で、焦点検出を行う撮像装置を開示している。クロストークによる影響を除去する処理のことを、クロストーク補正という。 Further, by adding the outputs of the first photoelectric conversion unit and the second photoelectric conversion unit that share the microlens, it is possible to obtain an output similar to that of a general pixel having one photoelectric conversion unit per microlens. it can. Therefore, from one pixel, the output of the first photoelectric conversion unit (A signal), the output of the second photoelectric conversion unit (B signal), and the combined output of the first photoelectric conversion unit and the second photoelectric conversion unit It is possible to obtain three types of output (A+B signal). The image pickup device disclosed in Patent Document 1 reads the A+B signal after reading the output (for example, the A signal) of one photoelectric conversion unit, and subtracts the A signal from the A+B signal without individually reading the B signal. Generate with. As a result, three types of signals can be acquired by reading out twice. Further, Patent Document 2 discloses an imaging device that performs focus detection after performing a process of removing an influence of crosstalk from a peripheral photoelectric conversion unit on an output of the photoelectric conversion unit. The process of removing the influence of crosstalk is called crosstalk correction.

特開2014−182360号公報JP, 2014-182360, A 特開2009−122524号公報JP, 2009-122524, A 特開2014−187067号公報JP, 2014-187067, A

光電変換部の出力に対してクロストーク補正して焦点検出を行う特許文献2に記載の撮像装置では、以下のような課題がある。クロストークの発生量は、クロストークの発生原因となる画素の出力量だけでなく、入射光の角度、F値、焦点検出領域の像高、光電変換部の面積、距離などによって変化する。したがって、特許文献2が開示する撮像装置では、精度よくクロストーク補正を行うことはできず、クロストーク補正の誤差が生じので、信頼性の高い焦点検出結果を得ることは困難である。本発明は、クロストークの影響やクロストーク補正などで光電変換部からの信号に誤差が含まれる場合でも、信頼性の高い焦点検出結果を得ることができる撮像装置の提供を目的とする。 The imaging device described in Patent Document 2 that performs focus detection by performing crosstalk correction on the output of the photoelectric conversion unit has the following problems. The amount of crosstalk generated varies depending on not only the output amount of pixels that cause crosstalk, but also the angle of incident light, the F value, the image height of the focus detection region, the area of the photoelectric conversion unit, the distance, and the like. Therefore, the image pickup device disclosed in Patent Document 2 cannot accurately perform crosstalk correction, and an error occurs in crosstalk correction, so that it is difficult to obtain a reliable focus detection result. It is an object of the present invention to provide an imaging device capable of obtaining a highly reliable focus detection result even when an error is included in a signal from a photoelectric conversion unit due to the influence of crosstalk or crosstalk correction.

本発明の一実施形態の撮像装置は、撮像光学系の互いに異なる瞳領域を通過する光束を受光する複数の光電変換部を有する撮像素子と、第1の瞳領域を通過する光束を受光する第1の光電変換部と、第2の瞳領域を通過する光束を受光する第2の光電変換部のそれぞれから、第1の分光特性の信号と第2の分光特性の信号を取得する取得手段と、前記第1の分光特性の信号に基づき算出される第1の相関量と、前記第2の分光特性の信号に基づき算出される第2の相関量とに対して重み付けを行って、第3の相関量を算出する制御手段と、を有する。前記制御手段は、焦点検出領域の像高に応じて、前記第1の相関量と第2の相関量とに対する重みの大きさを制御する。 An image pickup apparatus according to an embodiment of the present invention includes an image pickup device having a plurality of photoelectric conversion units that receive light fluxes passing through mutually different pupil regions of an image pickup optical system, and a light flux that passes through a first pupil region. An acquisition unit that acquires the signal of the first spectral characteristic and the signal of the second spectral characteristic from each of the first photoelectric conversion unit and the second photoelectric conversion unit that receives the light flux passing through the second pupil region. , A third correlation amount calculated based on the signal of the first spectral characteristic and a second correlation amount calculated based on the signal of the second spectral characteristic are weighted, And a control unit that calculates the correlation amount of. The control means controls the magnitude of the weight for the first correlation amount and the second correlation amount according to the image height of the focus detection area.

本発明の撮像装置によれば、クロストークの影響やクロストーク補正などで光電変換部からの信号に誤差が含まれる場合でも、信頼性の高い焦点検出結果を得ることができる。 According to the imaging device of the present invention, a highly reliable focus detection result can be obtained even when an error is included in the signal from the photoelectric conversion unit due to the influence of crosstalk or crosstalk correction.

撮像装置の構成例を示す図である。It is a figure which shows the structural example of an imaging device. 撮像素子の構成例を示す図である。It is a figure which shows the structural example of an image sensor. 撮像素子の構成の詳細を示す図である。It is a figure which shows the detail of a structure of an image sensor. 撮像素子の読み出し動作に関するタイミングチャートを示す図である。It is a figure which shows the timing chart regarding the read-out operation of an image sensor. 射出瞳面上における光電変換部の投影像を説明する図である。It is a figure explaining the projection image of the photoelectric conversion part on an exit pupil surface. 光電変換部の分光ごとの入射角受光感度分布の特性を説明する図である。It is a figure explaining the characteristic of the incident angle photosensitivity distribution for every spectroscopy of a photoelectric conversion part. 第1の瞳領域、第2の瞳領域、第3の瞳領域の関係を説明する図である。It is a figure explaining the relationship of a 1st pupil area, a 2nd pupil area, and a 3rd pupil area. 焦点検出領域の設定の一例を示す図である。It is a figure which shows an example of setting of a focus detection area. 焦点検出領域内に配置された画素の例を示す図である。It is a figure which shows the example of the pixel arrange|positioned in a focus detection area. 焦点検出領域内の画素から得られる信号に関する線像強度分布である。It is a line image intensity distribution regarding a signal obtained from a pixel in the focus detection area. 焦点検出領域内の画素から得られる信号に関する線像強度分布である。It is a line image intensity distribution regarding a signal obtained from a pixel in the focus detection area. 画素間のクロストークの一例を説明する図である。It is a figure explaining an example of crosstalk between pixels. 焦点調節動作の一例を説明するフローチャートである。It is a flow chart explaining an example of focus adjustment operation. 図13のS504、S504の処理を説明するフローチャートである。14 is a flowchart illustrating the processing of S504 and S504 of FIG. 相関量算出のサブルーチンを説明する図である。It is a figure explaining the subroutine of correlation amount calculation. 相関量算出のサブルーチンを説明する図である。It is a figure explaining the subroutine of correlation amount calculation. デフォーカス量の算出処理を説明するフローチャートである。7 is a flowchart illustrating a defocus amount calculation process.

図1は、本実施形態の撮像装置の構成例を示す図である。
図1では、焦点検出装置を備える撮像装置として、レンズ交換式のデジタル一眼レフカメラを例にとって説明する。本発明は、位相差検出方式の焦点検出に用いる信号を生成可能な撮像素子を有する任意の電子機器に適用可能である。本発明が適用可能な電子機器は、例えば、デジタルスチルカメラ、デジタルビデオカメラなどのカメラ、カメラ機能を有する携帯電話機、コンピュータ機器、メディアプレーヤ、ロボット機器、ゲーム機器、家電機器などを含むが、これらの機器に限定されない。
FIG. 1 is a diagram showing a configuration example of the image pickup apparatus of the present embodiment.
In FIG. 1, a lens-interchangeable digital single-lens reflex camera will be described as an example of an imaging device including a focus detection device. INDUSTRIAL APPLICABILITY The present invention can be applied to any electronic device having an image sensor capable of generating a signal used for focus detection of a phase difference detection method. Electronic devices to which the present invention is applicable include, for example, cameras such as digital still cameras and digital video cameras, mobile phones having a camera function, computer devices, media players, robot devices, game devices, home appliances, and the like. It is not limited to the device.

図1に示す撮像装置は、カメラ100と、カメラに対して着脱可能な撮影レンズ300とを備える。撮影レンズ300を通過した光束は、レンズマウント106を通過し、メインミラー130により上方へ反射されて光学ファインダ104に入射する。光学ファインダ104により、撮影者は被写体光学像を観察しながら撮影できる。光学ファインダ104は、表示部54の一部の機能、例えば、合焦表示、手振れ警告表示、絞り値表示、露出補正表示に関する機能を有する。 The imaging device shown in FIG. 1 includes a camera 100 and a taking lens 300 that is attachable to and detachable from the camera. The light flux that has passed through the taking lens 300 passes through the lens mount 106, is reflected upward by the main mirror 130, and enters the optical finder 104. The optical viewfinder 104 allows a photographer to take a picture while observing an optical image of the subject. The optical finder 104 has a part of functions of the display unit 54, for example, functions related to focus display, camera shake warning display, aperture value display, and exposure correction display.

メインミラー130の一部は、半透過性のハーフミラーである。メインミラー130に入射する光束のうちの一部は、ハーフミラー部分を通過し、サブミラー131で下方へ反射されて焦点検出装置105へ入射する。焦点検出装置105は、2次撮像光学系とラインセンサを有する位相差検出方式の焦点検出装置であり、1対の像信号をAF部(オートフォーカス部)42に出力する。AF部42は、1対の像信号に対して、位相差検出演算を行い、撮影レンズ300のデフォーカスの量および方向を求める。システム制御部50が、位相差検出演算の結果に基づいて、撮影レンズ300のフォーカス制御部342(後述)を制御して、フォーカスレンズの駆動制御を行う。 A part of the main mirror 130 is a semi-transmissive half mirror. A part of the light flux incident on the main mirror 130 passes through the half mirror portion, is reflected downward by the sub mirror 131, and is incident on the focus detection device 105. The focus detection device 105 is a phase difference detection type focus detection device having a secondary imaging optical system and a line sensor, and outputs a pair of image signals to the AF unit (autofocus unit) 42. The AF unit 42 performs a phase difference detection calculation on the pair of image signals to obtain the defocus amount and direction of the taking lens 300. The system control unit 50 controls a focus control unit 342 (described later) of the taking lens 300 based on the result of the phase difference detection calculation to control the drive of the focus lens.

撮影レンズ300の焦点調節処理が終了して静止画撮影を行う場合、電子ファインダ表示を行う場合、動画撮影を行う場合には、システム制御部50は、不図示のクイックリターン機構によりメインミラー130とサブミラー131を光路外に退避させる。これにより、撮影レンズ300を通過してカメラ100に入射する光束が、露光量を制御するためのシャッター12を介して、撮像素子14に入射可能になる。撮像素子14による撮影動作終了後には、メインミラー130とサブミラー131は図示するような位置に戻る。 When the still image shooting is performed after the focus adjustment processing of the taking lens 300 is completed, the electronic viewfinder display is performed, and the moving image shooting is performed, the system control unit 50 uses the quick return mechanism (not shown) to operate the main mirror 130 and the main mirror 130. The sub mirror 131 is retracted out of the optical path. As a result, the light flux that passes through the taking lens 300 and enters the camera 100 can enter the image sensor 14 via the shutter 12 for controlling the exposure amount. After the image capturing operation by the image sensor 14 is completed, the main mirror 130 and the sub mirror 131 return to the positions as illustrated.

撮像素子14は、CCDまたはCMOSイメージセンサである。CCDは、Charge Coupled Deviceの略称である。CMOSは、Complementary Metal Oxide Semiconductorの略称である。撮像素子14は、光電変換部(例えば、フォトダイオード)を有する複数の画素が2次元的に配置された構成を有する。撮像素子14は、被写体光学像に対応する電気信号を出力する。撮像素子14で光電変換された電気信号は、A/D変換器16へ送られ、アナログ信号出力がデジタル信号(画像データ)に変換される。なお、A/D変換器16が撮像素子14に組み込まれてもよい。 The image sensor 14 is a CCD or CMOS image sensor. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor. The image sensor 14 has a configuration in which a plurality of pixels each having a photoelectric conversion unit (for example, a photodiode) are two-dimensionally arranged. The image sensor 14 outputs an electric signal corresponding to the subject optical image. The electric signal photoelectrically converted by the image sensor 14 is sent to the A/D converter 16, and the analog signal output is converted into a digital signal (image data). The A/D converter 16 may be incorporated in the image sensor 14.

撮像素子14は、少なくとも一部の画素が複数の光電変換部(第1の光電変換部と第2の光電変換部)を有する。第1の光電変換部と第2の光電変換部は、撮像光学系の互いに異なる瞳領域を通過する光束を受光する。このような構成を有する画素は、位相差検出方式の焦点検出に用いる信号を出力可能である。従って、クイックリターン機構によりメインミラー130とサブミラー131が光路外に退避し、焦点検出装置105に光が入射しない場合であっても、システム制御部50は、撮像素子14の出力を用いた位相差検出方式の焦点検出処理を実行可能である。つまり、撮像素子14は、撮影画像を取得する機能に加え、位相差AF用の焦点検出センサの機能も有している。なお、複数の光電変換部で得られる信号を画素ごとにまとめることで通常の撮像画素の出力として利用できるため、撮像素子14の出力(撮像画像信号)を用いてコントラストAFを行うこともできる。 In the image sensor 14, at least some of the pixels have a plurality of photoelectric conversion units (first photoelectric conversion unit and second photoelectric conversion unit). The first photoelectric conversion unit and the second photoelectric conversion unit receive light beams passing through different pupil regions of the image pickup optical system. A pixel having such a configuration can output a signal used for focus detection by the phase difference detection method. Therefore, even when the main mirror 130 and the sub mirror 131 are retracted out of the optical path by the quick return mechanism and light does not enter the focus detection device 105, the system control unit 50 uses the phase difference using the output of the image pickup device 14. It is possible to execute the focus detection processing of the detection method. That is, the image sensor 14 has a function of a focus detection sensor for phase difference AF in addition to a function of acquiring a captured image. Since signals obtained by a plurality of photoelectric conversion units can be combined for each pixel and used as an output of a normal image pickup pixel, contrast AF can be performed using the output of the image pickup device 14 (pickup image signal).

タイミング発生回路18は、撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給する。タイミング発生回路18は、メモリ制御部22及びシステム制御部50により制御される。システム制御部50が、タイミング発生回路18を制御して、複数の光電変換領域を有する画素から一部の光電変換領域の出力を読み出したり、全ての光電変換領域の出力を加算読み出ししたりするための制御信号を撮像素子14に供給する。 The timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 14, the A/D converter 16, and the D/A converter 26. The timing generation circuit 18 is controlled by the memory control unit 22 and the system control unit 50. The system control unit 50 controls the timing generation circuit 18 to read the output of a part of the photoelectric conversion areas from the pixel having the plurality of photoelectric conversion areas, or to read the outputs of all the photoelectric conversion areas by addition. To the image sensor 14.

画像処理部20は、A/D変換器16からの画像データ或いはメモリ制御部22からの画像データに対して、画素補間処理、ホワイトバランス調整処理、色変換処理などの所定の処理を適用する。また、画像処理部20は、A/D変換器16からの画像データ(撮像素子14の出力信号)のうち、焦点検出用信号の生成に用いられる出力信号から、位相差検出方式の焦点検出に用いる1対の信号列を生成する。1対の信号列は、システム制御部50を介してAF部42へ送られる。AF部42は、1対の信号列の相関演算により信号列間のずれ量(シフト量)を検出し、ずれ量を撮影レンズ300のデフォーカス量とデフォーカス方向に変換する。AF部42は、変換したデフォーカスの量および方向をシステム制御部50に出力する。システム制御部50は、撮影レンズ300のフォーカス制御部342を通じてフォーカスレンズを駆動し、撮影レンズ300の合焦距離を調節する。 The image processing unit 20 applies predetermined processing such as pixel interpolation processing, white balance adjustment processing, and color conversion processing to the image data from the A/D converter 16 or the image data from the memory control unit 22. Further, the image processing unit 20 performs focus detection of the phase difference detection method from the output signal used for generating the focus detection signal in the image data (output signal of the image pickup device 14) from the A/D converter 16. Generate a pair of signal sequences to be used. The pair of signal trains is sent to the AF unit 42 via the system control unit 50. The AF unit 42 detects a shift amount (shift amount) between the signal sequences by performing a correlation calculation of the pair of signal sequences, and converts the shift amount into the defocus amount and the defocus direction of the taking lens 300. The AF unit 42 outputs the converted defocus amount and direction to the system control unit 50. The system controller 50 drives the focus lens through the focus controller 342 of the taking lens 300 to adjust the focusing distance of the taking lens 300.

また、画像処理部20は、撮像素子14から得られる、通常の画像データを生成するための信号(上述したA+B信号に相当)に基づいて、コントラスト評価値を演算することができる。システム制御部50は、撮影レンズ300のフォーカス制御部342を通じてフォーカスレンズ位置を変更しながら撮像素子14で撮影を行い、画像処理部20で算出したコントラスト評価値の変化を調べる。そして、システム制御部50は、フォーカスレンズを、コントラスト評価値が最大となる位置に駆動する。このように、本実施形態のカメラ100は、コントラスト検出方式の焦点検出も可能である。従って、カメラ100は、ライブビュー表示時や動画撮影時のようにメインミラー130とサブミラー131が光路外に退避していても、撮像素子14から得られる信号に基づいて、位相差検出方式とコントラスト検出方式の両方の焦点検出が可能である。また、カメラ100は、メインミラー130とサブミラー131が光路内にある通常の静止画撮影では、焦点検出装置105による位相差検出方式の焦点検出が可能である。このように、カメラ100は、静止画撮影時、ライブビュー表示時、動画撮影時のどの状態においても焦点検出が可能である。 Further, the image processing unit 20 can calculate the contrast evaluation value based on the signal (corresponding to the A+B signal described above) obtained from the image sensor 14 for generating normal image data. The system control unit 50 shoots with the image sensor 14 while changing the focus lens position through the focus control unit 342 of the shooting lens 300, and checks the change in the contrast evaluation value calculated by the image processing unit 20. Then, the system control unit 50 drives the focus lens to a position where the contrast evaluation value is maximum. As described above, the camera 100 according to the present embodiment can also perform focus detection by the contrast detection method. Therefore, even if the main mirror 130 and the sub mirror 131 are retracted out of the optical path such as during live view display or moving image shooting, the camera 100 uses the phase difference detection method and the contrast based on the signal obtained from the image sensor 14. Both focus detection methods are possible. In addition, the camera 100 can perform focus detection by the phase difference detection method by the focus detection device 105 in normal still image shooting in which the main mirror 130 and the sub mirror 131 are in the optical path. As described above, the camera 100 can perform focus detection in any state of still image shooting, live view display, and moving image shooting.

メモリ制御部22は、A/D変換器16、タイミング発生回路18、画像処理部20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮伸長部32を制御する。そして、A/D変換器16のデータが、画像処理部20およびメモリ制御部22を介して、あるいはメモリ制御部22のみを介して、画像表示メモリ24あるいはメモリ30に書き込まれる。画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器26を介して、液晶モニタ等を有する画像表示部28に表示される。撮像素子14によって撮影された動画像が画像表示部28に逐次表示されることで、電子ファインダ機能(ライブビュー表示)を実現できる。画像表示部28は、システム制御部50の指示により、表示をON/OFFすることが可能である。画像表示部28が表示をOFFにした場合には、カメラ100の電力消費を大幅に低減できる。 The memory control unit 22 controls the A/D converter 16, the timing generation circuit 18, the image processing unit 20, the image display memory 24, the D/A converter 26, the memory 30, and the compression/decompression unit 32. Then, the data of the A/D converter 16 is written in the image display memory 24 or the memory 30 via the image processing unit 20 and the memory control unit 22, or only via the memory control unit 22. The image data for display written in the image display memory 24 is displayed on the image display unit 28 having a liquid crystal monitor or the like via the D/A converter 26. An electronic viewfinder function (live view display) can be realized by sequentially displaying moving images captured by the image sensor 14 on the image display unit 28. The image display unit 28 can turn on/off the display according to an instruction from the system control unit 50. When the image display unit 28 turns off the display, the power consumption of the camera 100 can be significantly reduced.

また、メモリ30は、撮影された静止画像や動画像の一時記憶に用いられ、所定枚数の静止画像や所定時間の動画像を記憶するのに十分な記憶容量を備えている。これにより、連射撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことができる。また、メモリ30はシステム制御部50の作業領域としても使用できる。圧縮伸長部32は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する機能を有し、メモリ30に記憶された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えた画像データをメモリ30に書き戻す。 The memory 30 is used for temporary storage of captured still images or moving images, and has a storage capacity sufficient to store a predetermined number of still images or moving images for a predetermined time. As a result, even in the case of continuous shooting or panoramic shooting, a large amount of images can be written in the memory 30 at high speed. The memory 30 can also be used as a work area for the system controller 50. The compression/decompression unit 32 has a function of compressing/decompressing image data by adaptive discrete cosine transform (ADCT) or the like, reads an image stored in the memory 30, performs compression processing or decompression processing, and completes the image data. Is written back to the memory 30.

シャッター制御部36は、測光部46からの測光情報に基づいて、撮影レンズ300の絞り312を制御する絞り制御部344と連携しながら、シャッター12を制御する。インターフェース部38とコネクタ122は、カメラ100と撮影レンズ300とを電気的に接続する。インターフェース部38とコネクタ122は、カメラ100と撮影レンズ300との間での制御信号、状態信号、データ信号等を伝え合うと共に、各種電圧の電流を供給する機能も備えている。また、インターフェース部38とコネクタ122は、電気通信のみならず、光通信、音声通信等を伝達するようにしてもよい。 The shutter control unit 36 controls the shutter 12 based on the photometric information from the photometric unit 46 in cooperation with the aperture control unit 344 that controls the aperture 312 of the taking lens 300. The interface unit 38 and the connector 122 electrically connect the camera 100 and the taking lens 300. The interface unit 38 and the connector 122 have a function of transmitting control signals, a status signal, a data signal, and the like between the camera 100 and the taking lens 300 and also supplying a current of various voltages. Further, the interface unit 38 and the connector 122 may transmit not only electric communication but also optical communication, voice communication and the like.

測光部46は、自動露出制御(AE)処理を行う。撮影レンズ300を通過した光束を、レンズマウント106、メインミラー130、そして不図示の測光用レンズを介して、測光部46に入射させることにより、被写体光学像の輝度を測定できる。測光部46は、被写体輝度と露出条件とを対応付けたプログラム線図などを用いて、露出条件を決定することができる。また、測光部46は、フラッシュ48と連携することで、調光処理機能も有する。なお、システム制御部50が、画像処理部20による撮像素子14の画像データを演算した演算結果に基づき、シャッター制御部36と、撮影レンズ300内の絞り制御部344に対してAE制御を行うことも可能である。フラッシュ48は、AF補助光の投光機能、フラッシュ調光機能も有する。 The photometric unit 46 performs automatic exposure control (AE) processing. The light flux that has passed through the taking lens 300 is incident on the photometric unit 46 via the lens mount 106, the main mirror 130, and a photometric lens (not shown), so that the brightness of the subject optical image can be measured. The photometric unit 46 can determine the exposure condition by using a program diagram or the like in which the subject brightness and the exposure condition are associated with each other. The photometric unit 46 also has a dimming processing function by cooperating with the flash 48. The system control unit 50 performs AE control on the shutter control unit 36 and the aperture control unit 344 in the taking lens 300 based on the calculation result of the image data of the image sensor 14 calculated by the image processing unit 20. Is also possible. The flash 48 also has an AF auxiliary light projection function and a flash light control function.

システム制御部50は、例えばCPUやMPUなどのプログラマブルプロセッサを有し、予め記憶されたプログラムを実行することにより、撮像装置全体の動作を制御する。不揮発性のメモリ52は、システム制御部50の動作用の定数、変数、プログラム等を記憶する。表示部54は、システム制御部50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する。表示部54は、例えば液晶表示装置である。表示部54は、カメラ100の操作部近辺の視認し易い位置に1または複数設置され、例えばLCDやLED等の組み合わせにより構成される。表示部54の表示内容のうち、LCD等に表示するものとしては、記録枚数や残撮影可能枚数等の撮影枚数に関する情報や、シャッタースピード、絞り値、露出補正、フラッシュ等の撮影条件に関する情報等がある。その他、電池残量や日付・時刻等も表示される。また、表示部54は、その一部の機能が光学ファインダ104内に設けられている。 The system control unit 50 has a programmable processor such as a CPU or MPU, and controls the overall operation of the imaging device by executing a program stored in advance. The non-volatile memory 52 stores constants, variables, programs, etc. for the operation of the system controller 50. The display unit 54 displays an operating state, a message, and the like using characters, images, sounds, and the like according to the execution of the program by the system control unit 50. The display unit 54 is, for example, a liquid crystal display device. One or a plurality of display units 54 are installed near the operation unit of the camera 100 so as to be easily visible, and are configured by, for example, a combination of LCDs and LEDs. Of the display contents of the display unit 54, what is displayed on the LCD or the like is information regarding the number of shots such as the number of recorded images and the number of remaining shots, information regarding shooting conditions such as shutter speed, aperture value, exposure compensation, flash, etc. There is. In addition, the battery level, date and time, etc. are also displayed. Further, the display unit 54 is provided with a part of its function in the optical finder 104.

不揮発性メモリ56は、電気的に消去・記録可能なメモリである。不揮発性メモリ56は、例えばEEPROM等である。操作部60、62、64、66、68及び70は、システム制御部50の各種の動作指示を入力するための操作部である。操作部は、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の1または複数の組み合わせで実現される。 The nonvolatile memory 56 is an electrically erasable/recordable memory. The non-volatile memory 56 is, for example, an EEPROM or the like. The operation units 60, 62, 64, 66, 68 and 70 are operation units for inputting various operation instructions of the system control unit 50. The operation unit is realized by one or a combination of a switch, a dial, a touch panel, pointing by visual axis detection, a voice recognition device, and the like.

モードダイアル60は、電源オフ、オート撮影モード、マニュアル撮影モード、再生モード、PC接続モード等の各機能モードを切り替え設定できる。シャッタースイッチ(SW1)62は、不図示のシャッターボタンが半押しされるとONとなり、AF処理、AE処理、AWB処理、EF処理等の動作開始を指示する。シャッタースイッチ(SW2)64は、シャッターボタンが全押しされるとONとなり、撮影に関する一連の処理の動作開始を指示する。撮影に関する一連の処理とは、露光処理、現像処理及び記録処理等のことである。露光処理では、撮像素子14から読み出した信号をA/D変換器16、メモリ制御部22を介してメモリ30に画像データとして書き込む。現像処理では、画像処理部20やメモリ制御部22での演算を用いた現像を行う。記録処理では、メモリ30から画像データを読み出し、圧縮伸長部32で圧縮を行い、記録媒体150或いは160に画像データとして書き込む。 The mode dial 60 can switch and set each function mode such as power off, automatic shooting mode, manual shooting mode, playback mode, and PC connection mode. The shutter switch (SW1) 62 is turned on when a shutter button (not shown) is half-pressed to instruct the start of operations such as AF processing, AE processing, AWB processing, and EF processing. The shutter switch (SW2) 64 is turned on when the shutter button is fully pressed, and gives an instruction to start the operation of a series of processing related to shooting. The series of processes relating to shooting is an exposure process, a development process, a recording process, and the like. In the exposure processing, the signal read from the image sensor 14 is written as image data in the memory 30 via the A/D converter 16 and the memory control unit 22. In the developing process, the developing process is performed by using the calculation in the image processing unit 20 and the memory control unit 22. In the recording process, image data is read from the memory 30, compressed by the compression/expansion unit 32, and written as image data in the recording medium 150 or 160.

画像表示ON/OFFスイッチ66は、画像表示部28のON/OFFを設定するための操作部である。画像表示部28のON/OFFの設定機能により、光学ファインダ104を用いて撮影を行う際に、液晶モニタ等を有する画像表示部28への電流供給を遮断することにより、省電力を図ることができる。クイックレビューON/OFFスイッチ68は、撮影した画像データを撮影直後に自動再生するクイックレビュー機能を設定するための操作部である。操作部70は、各種ボタンやタッチパネル等を有する。各種ボタンには、メニューボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、露出補正ボタン等が含まれる。 The image display ON/OFF switch 66 is an operation unit for setting ON/OFF of the image display unit 28. By the ON/OFF setting function of the image display unit 28, power can be saved by shutting off current supply to the image display unit 28 having a liquid crystal monitor or the like when shooting is performed using the optical finder 104. it can. The quick review ON/OFF switch 68 is an operation unit for setting a quick review function that automatically reproduces captured image data immediately after capturing. The operation unit 70 has various buttons, a touch panel, and the like. Various buttons include a menu button, a flash setting button, a single shooting/continuous shooting/self-timer switching button, an exposure correction button, and the like.

電源制御部80は、電池検出回路、DC/DCコンバータ、通電するブロックを切り替えるスイッチ回路等を有する。電源制御部80は、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御部50の指示に基づいて、DC/DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。コネクタ82及び84は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、リチウムイオン電池等の二次電池、ACアダプタ等を有する電源部86をカメラ100と接続する。 The power supply control unit 80 has a battery detection circuit, a DC/DC converter, a switch circuit that switches blocks to be energized, and the like. The power supply control unit 80 detects whether or not a battery is installed, the type of battery, and the remaining battery level, and controls the DC/DC converter based on the detection result and the instruction from the system control unit 50 to obtain the required voltage. For various periods, including the recording medium. The connectors 82 and 84 connect the camera 100 to the power supply unit 86 having a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery or a NiMH battery, a lithium ion battery, or an AC adapter.

インターフェース90,94は、メモリカードやハードディスク等の記録媒体との接続機能を有する。コネクタ92,96は、メモリカードやハードディスク等の記録媒体と物理的接続を行う。記録媒体着脱検知部98は、コネクタ92,96に記録媒体が装着されているかどうかを検知する。本実施形態では、撮像装置は、記録媒体を取り付けるインターフェース及びコネクタを2系統持つが、2系統に限定されない。また、撮像装置は、異なる規格のインターフェース及びコネクタを組み合わせて備えるようにしてもよい。また、インターフェース及びコネクタに、LANカード等の各種通信カードを接続することで、コンピュータやプリンタ等の他の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。 The interfaces 90 and 94 have a function of connecting to a recording medium such as a memory card or a hard disk. The connectors 92 and 96 physically connect to a recording medium such as a memory card or a hard disk. The recording medium attachment/detachment detection unit 98 detects whether or not a recording medium is attached to the connectors 92 and 96. In the present embodiment, the imaging device has two systems of an interface and a connector for attaching a recording medium, but the system is not limited to two systems. Further, the image pickup apparatus may be provided with a combination of interfaces and connectors of different standards. By connecting various communication cards such as a LAN card to the interface and the connector, image data and management information attached to the image data can be transferred to and from other peripheral devices such as a computer and a printer. ..

通信部110は、有線通信、無線通信等の各種通信機能を有する。コネクタ112は、通信部110によりカメラ100を他の機器と接続し、無線通信の場合はアンテナである。記録媒体150及び160は、メモリカードやハードディスク等である。記録媒体150,160は、半導体メモリや磁気ディスク等から構成される記録部152,162、カメラ100とのインターフェース154,164、カメラ100と接続を行うコネクタ156,166を備えている。 The communication unit 110 has various communication functions such as wired communication and wireless communication. The connector 112 connects the camera 100 to another device via the communication unit 110, and is an antenna in the case of wireless communication. The recording media 150 and 160 are memory cards, hard disks, and the like. The recording media 150 and 160 are provided with recording units 152 and 162 composed of semiconductor memories and magnetic disks, interfaces 154 and 164 with the camera 100, and connectors 156 and 166 for connecting with the camera 100.

次に、撮影レンズ300について説明する。撮影レンズ300は、レンズマウント306をカメラ100のレンズマウント106に係合させることにより、カメラ100と機械的並びに電気的に結合される。電気的な結合は、レンズマウント106及びレンズマウント306に設けられたコネクタ122及びコネクタ322によって実現される。レンズ311には、撮影レンズ300の合焦距離を調節するためのフォーカスレンズが含まれる。フォーカス制御部342は、フォーカスレンズを光軸に沿って駆動することで、撮影レンズ300の焦点調節を行う。フォーカス制御部342の動作は、調節手段としてのシステム制御部50が、レンズシステム制御部346を通じて制御する。絞り312は、カメラ100に入射する被写体光の量と角度を調節する。 Next, the taking lens 300 will be described. The taking lens 300 is mechanically and electrically coupled to the camera 100 by engaging the lens mount 306 with the lens mount 106 of the camera 100. The electrical coupling is realized by the connectors 122 and 322 provided on the lens mount 106 and the lens mount 306. The lens 311 includes a focus lens for adjusting the focusing distance of the taking lens 300. The focus control unit 342 adjusts the focus of the taking lens 300 by driving the focus lens along the optical axis. The operation of the focus controller 342 is controlled by the system controller 50 as an adjusting unit through the lens system controller 346. The diaphragm 312 adjusts the amount and angle of subject light incident on the camera 100.

コネクタ322及びインターフェース338は、撮影レンズ300をカメラ100のコネクタ122と電気的に接続する。そして、コネクタ322は、カメラ100と撮影レンズ300との間で制御信号、状態信号、データ信号等を伝え合うと共に、各種電圧の電流を供給される機能も有する。コネクタ322が、電気通信のみならず、光通信、音声通信等を伝達するようにしてもよい。 The connector 322 and the interface 338 electrically connect the taking lens 300 to the connector 122 of the camera 100. The connector 322 has a function of transmitting control signals, status signals, data signals, and the like between the camera 100 and the taking lens 300, and also being supplied with currents of various voltages. The connector 322 may transmit not only electric communication but also optical communication, voice communication and the like.

ズーム制御部340は、レンズ311の変倍レンズを駆動し、撮影レンズ300の焦点距離(画角)を調整する。絞り制御部344は、測光部46からの測光情報に基づいて、シャッター12を制御するシャッター制御部36と連携しながら、絞り312を制御する。レンズシステム制御部346は、例えばCPUやMPUなどのプログラマブルプロセッサを有し、予め記憶されたプログラムを実行することにより、撮影レンズ300全体の動作を制御する。レンズシステム制御部346は、撮影レンズの動作用の定数、変数、プログラム等を記憶するメモリの機能を備えている。不揮発性メモリ348は、撮影レンズ固有の番号等の識別情報、管理情報、開放絞り値や最小絞り値、焦点距離等の機能情報、現在や過去の各設定値などを記憶する。本実施形態においては、不揮発性メモリ348には、撮影レンズ300の状態に応じたレンズ枠情報も記憶されている。レンズ枠情報は、撮影レンズを通過する光束を決定する枠開口の半径の情報と、撮像素子14から枠開口までの距離の情報である。絞り312は、撮影レンズ300を通過する光束を決定する枠に含まれる。また、レンズを保持するレンズ枠部品の開口なども、撮影レンズ300を通過する光束を決定する枠に該当する。また、撮影レンズを通過する光束を決定する枠は、レンズ311のフォーカス位置やズーム位置によって異なるので、レンズ枠情報は、レンズ311のフォーカス位置やズーム位置に対応して複数用意されている。そして、カメラ100が、焦点検出手段を用いて焦点検出を行う際には、レンズ311のフォーカス位置とズーム位置に対応した最適なレンズ枠情報が選択され、カメラ100にコネクタ322を通じて送られる。 The zoom controller 340 drives the variable power lens of the lens 311 and adjusts the focal length (angle of view) of the taking lens 300. The aperture control unit 344 controls the aperture 312 in cooperation with the shutter control unit 36 that controls the shutter 12 based on the photometric information from the photometric unit 46. The lens system control unit 346 has a programmable processor such as a CPU or MPU, and controls the overall operation of the taking lens 300 by executing a program stored in advance. The lens system control unit 346 has a memory function of storing constants, variables, programs, etc. for operating the photographing lens. The non-volatile memory 348 stores identification information such as a number unique to the taking lens, management information, functional information such as an open aperture value or a minimum aperture value, a focal length, and current and past set values. In the present embodiment, the nonvolatile memory 348 also stores lens frame information according to the state of the taking lens 300. The lens frame information is information on the radius of the frame opening that determines the light flux passing through the taking lens and information on the distance from the image sensor 14 to the frame opening. The diaphragm 312 is included in the frame that determines the light flux that passes through the taking lens 300. Further, an opening of a lens frame component that holds the lens also corresponds to a frame that determines the light flux that passes through the taking lens 300. Further, the frame that determines the light flux passing through the taking lens differs depending on the focus position and zoom position of the lens 311. Therefore, a plurality of pieces of lens frame information are prepared corresponding to the focus position and zoom position of the lens 311. Then, when the camera 100 performs focus detection using the focus detection means, optimum lens frame information corresponding to the focus position and zoom position of the lens 311 is selected and sent to the camera 100 via the connector 322.

図2は、撮像素子の構成例を示す図である。
図2(A)は、撮像素子14が有する複数の画素のうち、位相差検出方式の焦点検出に用いる信号を出力可能な構成を有する画素の回路構成例である。図2では、1つの画素200に、1つのマイクロレンズを共有する複数の光電変換領域または光電変換部として、第1の光電変換部であるフォトダイオード(PD)201aと、第2の光電変換部であるフォトダイオード(PD)201bが設けられている。しかし、画素200には、より多く(例えば、4つ)のPDが設けられてもよい。PD201aとPD201bは、焦点検出画素として機能するとともに、撮像画素としても機能する。
FIG. 2 is a diagram showing a configuration example of the image sensor.
FIG. 2A is a circuit configuration example of a pixel having a configuration capable of outputting a signal used for focus detection by a phase difference detection method, out of a plurality of pixels included in the image sensor 14. In FIG. 2, in one pixel 200, as a plurality of photoelectric conversion regions or photoelectric conversion units sharing one microlens, a photodiode (PD) 201a that is a first photoelectric conversion unit and a second photoelectric conversion unit. The photodiode (PD) 201b is provided. However, the pixel 200 may be provided with more PDs (for example, four). The PDs 201a and 201b function not only as focus detection pixels but also as imaging pixels.

転送スイッチ202a、202b、リセットスイッチ205、選択スイッチ206は、例えばMOSトランジスタを有する。以下の説明では、これらのスイッチは、N型のMOSトランジスタとするが、P型のMOSトランジスタであってもよいし、他のスイッチング素子であってもよい。 The transfer switches 202a and 202b, the reset switch 205, and the selection switch 206 have, for example, MOS transistors. In the following description, these switches are N-type MOS transistors, but may be P-type MOS transistors or other switching elements.

図2(B)は、撮像素子14に2次元配列された複数の画素のうち、水平n画素、垂直m画素を示す。図2(B)に示す全ての画素が図2(A)に示す構成を有する。各画素にはマイクロレンズ236が設けられ、PD201a、201bは、同一のマイクロレンズを共有する。以下では、PD201aにより得られる信号をA信号または第1の信号、PD201bにより得られる信号をB信号または第2の信号と記述する。また、複数のA信号から生成される焦点検出用の信号列をA像または第1の像信号と記述する。また、複数のB信号から生成される焦点検出用の信号列をB像または第2の像信号と記述する。また、対をなすA像とB像とを、信号列対または像信号対と記述する。 FIG. 2B shows horizontal n pixels and vertical m pixels among the plurality of pixels two-dimensionally arranged on the image sensor 14. All the pixels shown in FIG. 2B have the structure shown in FIG. A microlens 236 is provided in each pixel, and the PDs 201a and 201b share the same microlens. Hereinafter, the signal obtained by the PD 201a will be described as an A signal or a first signal, and the signal obtained by the PD 201b will be described as a B signal or a second signal. A signal sequence for focus detection generated from a plurality of A signals is described as an A image or a first image signal. A signal sequence for focus detection generated from a plurality of B signals is described as a B image or a second image signal. In addition, the A image and the B image forming a pair are described as a signal sequence pair or an image signal pair.

撮像素子14に2次元配列された画素は、分光特性の異なる複数の色のいずれかに対応するカラーフィルタを有する。本実施形態では、撮像素子14には、Gr画素とR画素とが交互に配置されている行と、B画素とGb画素とが交互に配列されている行とが、交互に配置されている。Gr画素とGb画素は、緑(G)のカラーフィルタを有する画素である。R画素は、赤(R)のカラーフィルタを有する画素である。Gr画素の第1光電変換部をA−Gr、第2光電変換部をB−Grと記述する。つまり、A−Grは、A像のGr画素であり、B−Grは、B像のGr画素である。また、R画素の第1光電変換部をA−R、第2光電変換部をB−Rと記述する。つまり、A−Rは、A像のR画素であり、B−Rは、B像のR画素である。 The pixels arranged two-dimensionally on the image sensor 14 have color filters corresponding to any of a plurality of colors having different spectral characteristics. In the present embodiment, the image sensor 14 has rows in which Gr pixels and R pixels are alternately arranged and rows in which B pixels and Gb pixels are alternately arranged. .. The Gr pixel and the Gb pixel are pixels having a green (G) color filter. The R pixel is a pixel having a red (R) color filter. The first photoelectric conversion unit and the second photoelectric conversion unit of the Gr pixel are described as A-Gr and B-Gr, respectively. That is, A-Gr is a Gr pixel of the A image, and B-Gr is a Gr pixel of the B image. Further, the first photoelectric conversion unit of the R pixel is described as A-R, and the second photoelectric conversion unit thereof is described as B-R. That is, A-R is the R pixel of the A image, and B-R is the R pixel of the B image.

また、B画素の第1光電変換部をA−B、第2光電変換部をB−Bと記述する。つまり、A−Bは、A像のB画素であり、B−Bは、B像のB画素である。また、Gb画素の第1光電変換部をA−Gb、第2光電変換部をB−Gbと記述する。つまり、A−Gbは、A像のGb画素であり、B−Gbは、B像のGb画素である。また、各々の光電変換部から得られた信号についても同様の表記を行う。また、第1光電変換部の集まりを第1光電変換部群、第2光電変換部の集まりを第2光電変換部群と記述する。 Further, the first photoelectric conversion unit of the B pixel is described as AB, and the second photoelectric conversion unit of the B pixel is described as BB. That is, AB is the B pixel of the A image, and BB is the B pixel of the B image. Further, the first photoelectric conversion unit of the Gb pixel is described as A-Gb and the second photoelectric conversion unit is described as B-Gb. That is, A-Gb is a Gb pixel of the A image, and B-Gb is a Gb pixel of the B image. The same notation is also applied to the signals obtained from the respective photoelectric conversion units. Further, a group of the first photoelectric conversion units is described as a first photoelectric conversion unit group, and a group of the second photoelectric conversion units is described as a second photoelectric conversion unit group.

転送スイッチ202aは、PD201aとフローティングディフュージョン(FD)203との間に接続される。また、転送スイッチ202bは、PD201bとFD203との間に接続される。転送スイッチ202a、202bは、それぞれ、PD201a、201bで発生した電荷を共通のFD203に転送する素子である。転送スイッチ202a、202bは、それぞれ、制御信号TX_A、TX_Bによって制御される。 The transfer switch 202a is connected between the PD 201a and the floating diffusion (FD) 203. The transfer switch 202b is connected between the PD 201b and the FD 203. The transfer switches 202a and 202b are elements that transfer the charges generated in the PDs 201a and 201b to the common FD 203, respectively. The transfer switches 202a and 202b are controlled by control signals TX_A and TX_B, respectively.

フローティングディフュージョン(FD)203は、PD201a、201bから転送された電荷を一時的に保持するとともに、保持した電荷を電圧信号に変換する電荷電圧変換部(キャパシタ)として機能する。増幅部204は、ソースフォロワMOSトランジスタである。増幅部204のゲートは、FD203に接続され、増幅部204のドレインは電源電位VDDを供給する共通電源208に接続される。増幅部204は、FD203に保持された電荷に基づく電圧信号を増幅して、画像信号として出力する。リセットスイッチ205は、FD203と共通電源208との間に接続される。リセットスイッチ205は、制御信号RESによって制御され、FD203の電位を電源電位VDDにリセットする機能を有する。選択スイッチ206は、増幅部204のソースと垂直出力線207の間に接続される。選択スイッチ206は、制御信号SELによって制御され、増幅部204で増幅された画像信号を垂直出力線207に出力する。 The floating diffusion (FD) 203 temporarily holds the charges transferred from the PDs 201a and 201b, and also functions as a charge-voltage converter (capacitor) that converts the held charges into a voltage signal. The amplification unit 204 is a source follower MOS transistor. The gate of the amplification unit 204 is connected to the FD 203, and the drain of the amplification unit 204 is connected to the common power supply 208 that supplies the power supply potential VDD. The amplification unit 204 amplifies the voltage signal based on the charges held in the FD 203 and outputs it as an image signal. The reset switch 205 is connected between the FD 203 and the common power source 208. The reset switch 205 is controlled by the control signal RES and has a function of resetting the potential of the FD 203 to the power supply potential VDD. The selection switch 206 is connected between the source of the amplification unit 204 and the vertical output line 207. The selection switch 206 is controlled by the control signal SEL and outputs the image signal amplified by the amplification unit 204 to the vertical output line 207.

図3は、撮像素子の構成の詳細を示す図である。
撮像素子14は、画素アレイ234、垂直走査回路209、電流源負荷210、読み出し回路235、共通出力線228、229、水平走査回路232及びデータ出力部233を有する。画素アレイ234に含まれる全ての画素が、図2(A)に示す回路構成を有するものとする。なお、画素アレイ234に含まれる一部の画素が、マイクロレンズあたり1つのPDが設けられた構成を有してもよい。
FIG. 3 is a diagram showing details of the configuration of the image sensor.
The image sensor 14 includes a pixel array 234, a vertical scanning circuit 209, a current source load 210, a reading circuit 235, common output lines 228 and 229, a horizontal scanning circuit 232, and a data output section 233. It is assumed that all the pixels included in the pixel array 234 have the circuit configuration shown in FIG. Note that some pixels included in the pixel array 234 may have a configuration in which one PD is provided for each microlens.

画素アレイ234は、行列状に配置された複数の画素200を有する。図3では、説明を簡略化するために、4行n列の画素アレイ234を示している。しかし、画素アレイ234が有する画素200の行数および列数は任意である。また、本実施形態において、撮像素子14は、単板式カラー撮像素子であり、原色ベイヤー配列のカラーフィルタを有している。したがって、画素200には、分光特性の異なる複数の色(赤(R)、緑(G)及び青(B))のいずれかに対応するカラーフィルタが設けられている。なお、カラーフィルタを構成する色や配列に特に制限はない。また、画素アレイ234に含まれる一部の画素は、遮光され、オプティカルブラック(OB)領域を形成する。 The pixel array 234 has a plurality of pixels 200 arranged in a matrix. In FIG. 3, a pixel array 234 of 4 rows and n columns is shown for simplification of description. However, the number of rows and the number of columns of the pixels 200 included in the pixel array 234 are arbitrary. Further, in the present embodiment, the image pickup device 14 is a single-plate color image pickup device and has a color filter of primary color Bayer array. Therefore, the pixel 200 is provided with a color filter corresponding to any of a plurality of colors (red (R), green (G), and blue (B)) having different spectral characteristics. There are no particular restrictions on the colors or arrangement of the color filters. In addition, some pixels included in the pixel array 234 are shielded from light and form an optical black (OB) region.

垂直走査回路209は、行ごとに設けられた駆動信号線208を介して、各行の画素200に、各種の制御信号を供給する。なお、図3では、説明の簡略化のために、各行の駆動信号線208を1本の線で表しているが、実際には複数の駆動信号線が各行に存在する。画素アレイ234に含まれる画素は、一列ごとに共通の垂直出力線207に接続される。垂直出力線207の各々には、電流源負荷210が接続される。それぞれの画素200からの信号は、列ごとに設けられた読み出し回路235に垂直出力線207を通じて入力される。 The vertical scanning circuit 209 supplies various control signals to the pixels 200 in each row via the drive signal line 208 provided for each row. Note that, in FIG. 3, the drive signal line 208 of each row is represented by one line for simplification of description, but in reality, a plurality of drive signal lines are present in each row. The pixels included in the pixel array 234 are connected to the common vertical output line 207 for each column. A current source load 210 is connected to each of the vertical output lines 207. The signal from each pixel 200 is input to the readout circuit 235 provided for each column through the vertical output line 207.

水平走査回路232は、それぞれが1つの読み出し回路235に対応する制御信号hsr(0)〜hsr(n−1)信号を出力する。制御信号hsr()は、n個の読み出し回路235の1つを選択する。制御信号hsr()で選択された読み出し回路235は、共通出力線228、229を通じて、データ出力部233に信号を出力する。 The horizontal scanning circuit 232 outputs control signals hsr(0) to hsr(n-1) signals, each of which corresponds to one read circuit 235. The control signal hsr() selects one of the n read circuits 235. The read circuit 235 selected by the control signal hsr() outputs a signal to the data output unit 233 through the common output lines 228 and 229.

次に、読み出し回路235の具体的な回路構成例を説明する。図3では、n個の読み出し回路235のうち1つについての回路構成例を示しているが、他の読み出し回路235も同じ構成を有する。本実施形態の読み出し回路235は、ランプ型のAD変換器を含んでいる。 Next, a specific circuit configuration example of the read circuit 235 will be described. Although FIG. 3 shows a circuit configuration example of one of the n read circuits 235, the other read circuits 235 also have the same configuration. The readout circuit 235 of this embodiment includes a ramp type AD converter.

垂直出力線207を通じて読み出し回路235に入力された信号は、クランプ容量211を介してオペアンプ213の反転入力端子に入力される。オペアンプ213の非反転入力端子には、基準電圧源212から基準電圧Vrefが供給される。フィードバック容量214〜216とスイッチ218〜220がオペアンプ213の反転入力端子と出力端子の間に接続される。オペアンプ213の反転入力端子と出力端子の間には、さらにスイッチ217が接続される。スイッチ217は、制御信号RES_Cにより制御され、フィードバック容量214〜216の両端をショートさせる機能を有する。また、スイッチ218〜220は、システム制御部50からの制御信号GAIN0〜GAIN2で制御される。 The signal input to the readout circuit 235 through the vertical output line 207 is input to the inverting input terminal of the operational amplifier 213 via the clamp capacitor 211. The reference voltage Vref is supplied from the reference voltage source 212 to the non-inverting input terminal of the operational amplifier 213. Feedback capacitors 214 to 216 and switches 218 to 220 are connected between the inverting input terminal and the output terminal of the operational amplifier 213. A switch 217 is further connected between the inverting input terminal and the output terminal of the operational amplifier 213. The switch 217 is controlled by the control signal RES_C and has a function of short-circuiting both ends of the feedback capacitors 214 to 216. The switches 218 to 220 are controlled by the control signals GAIN0 to GAIN2 from the system controller 50.

比較器221には、オペアンプ213の出力信号と、ランプ信号発生器230から出力されるランプ信号224とが入力される。Latch_N222は、ノイズレベル(N信号)を保持するための記憶素子である。Latch_Sは、A信号と、A信号とB信号とが加算された信号レベル(A+B信号)を保持するための記憶素子である。比較器221の出力(比較結果を表す値)とカウンタ231の出力(カウンタ値)225が、Latch_N222とLatch_S223のそれぞれに入力される。Latch_N222とLatch_S223の動作(有効または無効)は、それぞれ、LATEN_N、LATEN_Sで制御される。Latch_N222で保持したノイズレベルは、スイッチ226を介して共通出力線228に出力される。Latch_S223で保持した信号レベルは、スイッチ227を介して共通出力線229に出力される。共通出力線228、229は、データ出力部233に接続される。 The output signal of the operational amplifier 213 and the ramp signal 224 output from the ramp signal generator 230 are input to the comparator 221. Latch_N222 is a memory element for holding a noise level (N signal). Latch_S is a storage element for holding the A signal and the signal level (A+B signal) obtained by adding the A signal and the B signal. The output of the comparator 221 (value indicating the comparison result) and the output of the counter 231 (counter value) 225 are input to the Latch_N 222 and Latch_S 223, respectively. The operation (valid or invalid) of Latch_N 222 and Latch_S 223 is controlled by LATEN_N and LATEN_S, respectively. The noise level held by Latch_N 222 is output to the common output line 228 via the switch 226. The signal level held by Latch_S223 is output to the common output line 229 via the switch 227. The common output lines 228 and 229 are connected to the data output unit 233.

スイッチ226、227は、水平走査回路232からの制御信号hsr(h)信号で制御される。hは、制御信号線が接続されている読み出し回路235の列番号を示す。各読み出し回路235のLatch_N222、Latch_S223に保持された信号レベルは、共通出力線238、229に順次出力され、データ出力部233を通じてメモリ制御部22や画像処理部20に出力される。各読み出し回路235で保持された信号レベルを順次外部に出力する動作を水平転送と呼ぶ。なお、読み出し回路に入力される制御信号(hsr()を除く)や、垂直走査回路209、水平走査回路232、ランプ信号発生器230、カウンタ231の制御信号は、タイミング発生回路18やシステム制御部50から供給される。 The switches 226 and 227 are controlled by the control signal hsr(h) signal from the horizontal scanning circuit 232. h indicates the column number of the read circuit 235 to which the control signal line is connected. The signal levels held in the Latch_N 222 and Latch_S 223 of each read circuit 235 are sequentially output to the common output lines 238 and 229, and output to the memory control unit 22 and the image processing unit 20 through the data output unit 233. The operation of sequentially outputting the signal levels held by the read circuits 235 to the outside is called horizontal transfer. The control signals (excluding hsr()) input to the read circuit and the control signals of the vertical scanning circuit 209, the horizontal scanning circuit 232, the ramp signal generator 230, and the counter 231 are the timing generation circuit 18 and the system control unit. Supplied from 50.

図4は、撮像素子の読み出し動作に関するタイミングチャートを示す図である。
図4を参照して、1行分の画素に対する読み出し動作について説明する。なお、各制御信号がH(High)のときに各スイッチはオンになり、L(Low)のときに各スイッチはオフになるものとする。時刻t1において、垂直走査回路209が、制御信号RESをHにした状態で制御信号TX_A、TX_BをLからHにして、転送スイッチ202a、202bをオンにする。これにより、PD201a、201bに蓄積された電荷が、転送スイッチ202a、202b、リセットスイッチ205を介して電源208に転送され、PD201a、201bはリセットされる。また、FD203も同様にリセットされる。時刻t2において、垂直走査回路209が、制御信号TX_A、TX_BをLとし、転送スイッチ202a、202bをオフすると、PD201a、201bで光電荷の蓄積が開始する。
FIG. 4 is a diagram showing a timing chart regarding the read operation of the image sensor.
The read operation for the pixels of one row will be described with reference to FIG. Note that each switch is turned on when each control signal is H (High), and each switch is turned off when it is L (Low). At time t1, the vertical scanning circuit 209 sets the control signals TX_A and TX_B from L to H with the control signal RES set to H, and turns on the transfer switches 202a and 202b. As a result, the charges accumulated in the PDs 201a and 201b are transferred to the power supply 208 via the transfer switches 202a and 202b and the reset switch 205, and the PDs 201a and 201b are reset. Also, the FD 203 is reset in the same manner. At time t2, the vertical scanning circuit 209 sets the control signals TX_A and TX_B to L and turns off the transfer switches 202a and 202b, so that the PDs 201a and 201b start accumulating photocharges.

所定の蓄積時間が経過すると、時刻t3において、垂直走査回路209が、制御信号SELをHとし、選択スイッチ206をオンにする。これにより、増幅部204のソースが垂直出力線207に接続される。時刻t4において、垂直走査回路209が、制御信号RESをLとし、リセットスイッチ205をオフする。これにより、FD203のリセットが解除され、FD203のリセット信号レベルが、増幅部204を介して垂直出力線207に読み出され、読み出し回路235に入力される。 When the predetermined accumulation time has elapsed, at time t3, the vertical scanning circuit 209 sets the control signal SEL to H and turns on the selection switch 206. As a result, the source of the amplifier 204 is connected to the vertical output line 207. At time t4, the vertical scanning circuit 209 sets the control signal RES to L and turns off the reset switch 205. As a result, the reset of the FD 203 is released, and the reset signal level of the FD 203 is read to the vertical output line 207 via the amplification unit 204 and input to the read circuit 235.

時刻t5において、タイミング発生回路18が、制御信号RES_CをLにする。これにより、スイッチ217がオンし、垂直出力線207に読み出されたリセット信号レベルと基準電圧Vrefとの差分に基づく電圧が、オペアンプ213から出力される。撮像素子14には、予め、操作部102にて設定されたISO感度に基づき、システム制御部50が、制御信号GAIN0〜GAIN2のいずれか1つをHにする設定を行う。例えば、カメラ100が、ISO感度100、200、400のいずれかを設定可能である場合を想定する。ISO感度100が設定されている場合は、制御信号GAIN0がH、GAIN1、GAIN2がLとなる。同様に、ISO感度200が設定されている場合は、制御信号GAIN1がHとなる。ISO感度400が設定されている場合は、制御信号GAIN2がHとなる。なお、設定感度の種類や、設定感度と制御信号との関係は、上記に限定されない。 At time t5, the timing generation circuit 18 sets the control signal RES_C to L. As a result, the switch 217 is turned on, and the operational amplifier 213 outputs a voltage based on the difference between the reset signal level read on the vertical output line 207 and the reference voltage Vref. In the image pickup device 14, the system control unit 50 sets any one of the control signals GAIN0 to GAIN2 to H based on the ISO sensitivity set by the operation unit 102 in advance. For example, it is assumed that the camera 100 can set any one of ISO sensitivity 100, 200, and 400. When the ISO sensitivity 100 is set, the control signal GAIN0 becomes H, and the GAIN1 and GAIN2 become L. Similarly, when the ISO sensitivity 200 is set, the control signal GAIN1 becomes H. When the ISO sensitivity 400 is set, the control signal GAIN2 becomes H. The type of setting sensitivity and the relationship between the setting sensitivity and the control signal are not limited to the above.

オペアンプ213は、入力された電圧を、クランプ容量211と、制御信号GAIN0〜GAIN2のうち、Hに対応するスイッチに対応するフィードバック容量214〜216の1つとの容量比で定まる反転ゲインで増幅して出力する。この増幅により、オペアンプ213までの回路で発生するランダムノイズ成分も増幅される。したがって、増幅後の信号に含まれるランダムノイズの大きさは、ISO感度に依存する。 The operational amplifier 213 amplifies the input voltage with an inverting gain determined by the capacitance ratio of the clamp capacitor 211 and one of the feedback capacitors 214 to 216 corresponding to the switch corresponding to H of the control signals GAIN0 to GAIN2. Output. By this amplification, the random noise component generated in the circuits up to the operational amplifier 213 is also amplified. Therefore, the magnitude of random noise included in the amplified signal depends on the ISO sensitivity.

次に、時刻t6において、ランプ信号発生器230が、時間経過とともに信号レベルが線形に増加するランプ信号の出力を開始し、同時にカウンタ231が、リセット状態からカウントアップを開始する。また、タイミング発生回路18が、LATEN_NをHにして、Latch_Nを有効にする。比較器221は、オペアンプ213の出力信号とランプ信号発生器230が出力するランプ信号とを比較する。ランプ信号レベルがオペアンプ213の出力信号レベルを上回ると、比較器221の出力が、LからHに変化する(時刻t7)。Latch_N222は、LATEN_NがHの状態において、比較器221の出力がLからHに変化すると、その時点でカウンタ231が出力しているカウンタ値を記憶する。Latch_N222が記憶するカウンタ値が、N信号レベルを表すデジタル値(N信号データ)に相当する。なお、LATEN_SはLであるので、Latch_S223は無効であり、カウント値は記憶しない。その後、時刻t8において、ランプ信号レベルが予め定められた値に達すると、ランプ信号発生器230が、ランプ信号の出力を停止し、タイミング発生回路が、LATEN_NをLにする。 Next, at time t6, the ramp signal generator 230 starts outputting a ramp signal whose signal level increases linearly with the passage of time, and at the same time, the counter 231 starts counting up from the reset state. Further, the timing generation circuit 18 sets LATEN_N to H to enable Latch_N. The comparator 221 compares the output signal of the operational amplifier 213 with the ramp signal output by the ramp signal generator 230. When the ramp signal level exceeds the output signal level of the operational amplifier 213, the output of the comparator 221 changes from L to H (time t7). When the output of the comparator 221 changes from L to H while LATEN_N is H, the Latch_N 222 stores the counter value output by the counter 231 at that time. The counter value stored in Latch_N222 corresponds to a digital value (N signal data) representing the N signal level. Since LATEN_S is L, Latch_S223 is invalid and the count value is not stored. Then, at time t8, when the ramp signal level reaches a predetermined value, the ramp signal generator 230 stops the output of the ramp signal, and the timing generation circuit sets LATEN_N to L.

時刻t9において、垂直走査回路209が、制御信号TX_AをHにする。これにより、転送スイッチ202aがオンし、時刻t2からPD201aに蓄積された光電荷(A信号)がFD203へ転送される。その後、時刻t10において、垂直走査回路209が、制御信号TX_AをLにする。FD203は、転送された電荷を電位に変換し、この電位(A信号レベル)が、増幅部204および垂直出力線207を介して読み出し回路235へ出力される。オペアンプ213は、垂直出力線207に読み出されたA信号レベルと、基準電圧Vrefとの差分に基づく電圧を出力する。オペアンプ213の反転ゲインは、クランプ容量211と、フィードバック容量214〜216のいずれか1つとの比率によって定まる。 At time t9, the vertical scanning circuit 209 sets the control signal TX_A to H. As a result, the transfer switch 202a is turned on, and the photocharges (A signal) accumulated in the PD 201a are transferred to the FD 203 from time t2. After that, at time t10, the vertical scanning circuit 209 sets the control signal TX_A to L. The FD 203 converts the transferred charges into a potential, and this potential (A signal level) is output to the reading circuit 235 via the amplification unit 204 and the vertical output line 207. The operational amplifier 213 outputs a voltage based on the difference between the A signal level read on the vertical output line 207 and the reference voltage Vref. The inverting gain of the operational amplifier 213 is determined by the ratio of the clamp capacitor 211 and any one of the feedback capacitors 214 to 216.

次に、時刻t11において、ランプ信号発生器230が、ランプ信号の出力を開始し、同時にカウンタ231が、リセット状態からカウントアップを開始する。また、タイミング発生回路18が、LATEN_SをHにして、Latch_Sを有効にする。比較器221は、オペアンプ213の出力信号とランプ信号発生器230が出力するランプ信号とを比較する。ランプ信号レベルがオペアンプ213の出力信号レベルを上回ると、比較器221の出力が、LからHに変化する(時刻t12)。Latch_S223は、LATEN_SがHの状態において、比較器221の出力がLからHに変化すると、その時点でカウンタ231が出力しているカウンタ値を記憶する。Latch_S223が記憶するカウンタ値が、A信号レベルを表すデジタル値(A信号データ)に相当する。なお、LATEN_NはLであるので、Latch_N222は無効であり、カウント値は記憶しない。その後、時刻t13において、ランプ信号レベルが予め定められた値に達すると、ランプ信号発生器230がランプ信号の出力を停止し、また、タイミング発生回路が、LATEN_SをLにする。 Next, at time t11, the ramp signal generator 230 starts outputting the ramp signal, and at the same time, the counter 231 starts counting up from the reset state. Further, the timing generation circuit 18 sets LATEN_S to H to enable Latch_S. The comparator 221 compares the output signal of the operational amplifier 213 with the ramp signal output by the ramp signal generator 230. When the ramp signal level exceeds the output signal level of the operational amplifier 213, the output of the comparator 221 changes from L to H (time t12). When the output of the comparator 221 changes from L to H while LATEN_S is H, the Latch_S 223 stores the counter value output by the counter 231 at that time. The counter value stored in Latch_S223 corresponds to a digital value (A signal data) representing the A signal level. Since LATEN_N is L, Latch_N222 is invalid and the count value is not stored. After that, at time t13, when the ramp signal level reaches a predetermined value, the ramp signal generator 230 stops the output of the ramp signal, and the timing generation circuit sets LATEN_S to L.

その後、時刻t14〜t15の間、水平走査回路232が、制御信号hsr(h)を順次一定期間ずつHにする。これにより、各読み出し回路235のスイッチ226、227が一定期間オンし、オフに戻る。各読み出し回路235のLatch_N222、Latch_S223に保持されたN信号データとA信号データは、共通出力線228、229へそれぞれ読み出され、データ出力部233に入力される。データ出力部233では各読み出し回路235から出力されたA信号データとN信号データについて、A信号データからN信号データを減じた値を外部へ出力する。 After that, from time t14 to t15, the horizontal scanning circuit 232 sequentially sets the control signal hsr(h) to H for each fixed period. As a result, the switches 226 and 227 of each read circuit 235 are turned on for a certain period of time and then turned off. The N signal data and the A signal data held in the Latch_N 222 and Latch_S 223 of each read circuit 235 are read to the common output lines 228 and 229, respectively, and input to the data output unit 233. The data output unit 233 outputs the value obtained by subtracting the N signal data from the A signal data for the A signal data and the N signal data output from each reading circuit 235 to the outside.

時刻t16からt17の間、垂直走査回路209が、制御信号TX_AおよびTX_BをHにし、転送スイッチ202a,202bをオンにする。これにより、両方のPD201a、201bから光電荷がFD203へ転送される。FD203は、転送された電荷を電位に変換し、この電位(A+B信号レベル)が、増幅部204および垂直出力線207を介して読み出し回路235へ出力される。オペアンプ213は、垂直出力線207に読み出されたA+B信号レベルと、基準電圧Vrefとの差分に基づく電圧を出力する。 From time t16 to t17, the vertical scanning circuit 209 sets the control signals TX_A and TX_B to H, and turns on the transfer switches 202a and 202b. As a result, photoelectric charges are transferred from both PDs 201a and 201b to the FD 203. The FD 203 converts the transferred charges into a potential, and this potential (A+B signal level) is output to the readout circuit 235 via the amplification unit 204 and the vertical output line 207. The operational amplifier 213 outputs a voltage based on the difference between the A+B signal level read to the vertical output line 207 and the reference voltage Vref.

次に、時刻t18において、ランプ信号発生器230が、ランプ信号の出力を開始し、同時にカウンタ231が、リセット状態からカウントアップを開始する。また、タイミング発生回路18はLATEN_SをHにして、Latch_Sを有効にする。比較器221は、オペアンプ213の出力信号とランプ信号発生器230が出力するランプ信号とを比較する。ランプ信号レベルがオペアンプ213の出力信号レベルを上回ると、比較器221の出力がLからHに変化する(時刻t19)。Latch_S223はLATEN_SがHの状態において、比較器221の出力がLからHに変化すると、その時点でカウンタ231が出力しているカウンタ値を記憶する。Latch_S223が記憶するカウンタ値が、A+B信号レベルを表すデジタル値(A+B信号データ)に相当する。その後時刻t20において、ランプ信号レベルが予め定められた値に達するとランプ信号発生器230がランプ信号の出力を停止し、またタイミング発生回路はLATEN_SをLにする。 Next, at time t18, the ramp signal generator 230 starts outputting the ramp signal, and at the same time, the counter 231 starts counting up from the reset state. Further, the timing generation circuit 18 sets LATEN_S to H to enable Latch_S. The comparator 221 compares the output signal of the operational amplifier 213 with the ramp signal output by the ramp signal generator 230. When the ramp signal level exceeds the output signal level of the operational amplifier 213, the output of the comparator 221 changes from L to H (time t19). When the output of the comparator 221 changes from L to H while LATEN_S is H, the Latch_S 223 stores the counter value output by the counter 231 at that time. The counter value stored in Latch_S223 corresponds to a digital value (A+B signal data) representing the A+B signal level. After that, at time t20, when the ramp signal level reaches a predetermined value, the ramp signal generator 230 stops the output of the ramp signal, and the timing generation circuit sets LATEN_S to L.

その後、時刻t21〜t22の間、水平走査回路232が、制御信号hsr(h)を順次一定期間ずつHにする。これにより、各読み出し回路235のスイッチ226、227が、一定期間オンし、オフに戻る。各読み出し回路235のLatch_N222、Latch_S223に保持されたN信号データとA+B信号データは、共通出力線228、229へそれぞれ読み出され、データ出力部233に入力される。データ出力部233では、各読み出し回路235から出力されたA+B信号データとN信号データについて、A+B信号データからN信号データを減じた値を外部へ出力する。 After that, from time t21 to t22, the horizontal scanning circuit 232 sequentially sets the control signal hsr(h) to H for each fixed period. As a result, the switches 226 and 227 of each read circuit 235 are turned on for a certain period of time and then turned off. The N signal data and the A+B signal data held in the Latch_N 222 and Latch_S 223 of each read circuit 235 are read to the common output lines 228 and 229, respectively, and input to the data output unit 233. The data output unit 233 outputs, for the A+B signal data and the N signal data output from each read circuit 235, a value obtained by subtracting the N signal data from the A+B signal data to the outside.

時刻t22において、タイミング発生回路18が、制御信号RES_CをHとする。時刻t23において、垂直走査回路209が制御信号RESをHとし、時刻t24において、垂直走査回路209が制御信号SELをLにすると、1行分の読み出し動作が完了する。この動作を所定の行数分繰り返すことにより、1画面分の像信号が取得される。 At time t22, the timing generation circuit 18 sets the control signal RES_C to H. At time t23, the vertical scanning circuit 209 sets the control signal RES to H, and at time t24, the vertical scanning circuit 209 sets the control signal SEL to L, and the read operation for one row is completed. By repeating this operation for a predetermined number of rows, an image signal for one screen is acquired.

本実施形態において、カメラ100は、静止画モードと動画モードを有する。システム制御部50は、静止画モードが設定されている場合、撮像素子14から全行分の画素データを読み出すように制御する。また、システム制御部50は、動画モードが設定されている場合、撮像素子14から、例えば3行周期(1行読んで2行飛ばす)で画素データを読み出すように制御する。このように、本実施形態では、読み出す行数が静止画モードより動画モードの方が少ない。ただし、静止画モードと動画モードにおける読み出し方法は、上記の方法に限定されない。 In this embodiment, the camera 100 has a still image mode and a moving image mode. When the still image mode is set, the system control unit 50 controls to read out pixel data for all rows from the image sensor 14. Further, when the moving image mode is set, the system control unit 50 controls to read pixel data from the image sensor 14 at, for example, a three-row cycle (one row is read and two rows are skipped). As described above, in the present embodiment, the number of rows to be read is smaller in the moving image mode than in the still image mode. However, the reading method in the still image mode and the moving image mode is not limited to the above method.

図4を参照して説明した読み出し方法により、リセットノイズが除去されたA信号とA+B信号とを撮像素子14から読み出すことができる。A信号は焦点検出用の信号として、A+B信号は撮影画像を構成する信号として用いられる。A+B信号およびA信号はまた、焦点検出用のB信号を生成するためにも用いられる。 By the reading method described with reference to FIG. 4, the A signal and the A+B signal from which the reset noise is removed can be read from the image sensor 14. The A signal is used as a focus detection signal, and the A+B signal is used as a signal forming a captured image. The A+B signal and the A signal are also used to generate a B signal for focus detection.

本実施形態の撮像素子14は、全画素読み出しモードと、間引き読み出しモードの2種類の読み出しモードを有する。全画素読み出しモードは、全ての有効画素を読み出すモードであり、例えば高精細静止画を得る際に設定される。間引き読み出しモードは、全画素読み出しモードより少ない画素を読み出すモードであり、例えば動画やプレビュー用の画像のように、高精細静止画よりも解像度の低い画素を得る場合や、高速に読み出す必要がある場合に設定される。間引き読み出しモードでは、例えば、画像の縦横比を変えないように水平および垂直方向の両方で同じ割合で、画素を間引いて読み出すことができる。なお、「間引き」は、読み出し自体を行わないことだけでなく、読み出しされた信号を棄てる(無視する)構成や、読み出した複数の信号から1つの信号を生成することも含む。例えば、隣接する複数の画素から読み出した信号を平均して1つの信号を生成することで、S/Nを改善することができる。 The image sensor 14 of the present embodiment has two types of read modes, that is, an all-pixel read mode and a thinned-out read mode. The all-pixel reading mode is a mode in which all effective pixels are read, and is set, for example, when obtaining a high-definition still image. The thinning-out reading mode is a mode in which less pixels are read out than the all-pixels reading mode, and it is necessary to read out at a high speed when obtaining pixels having a resolution lower than that of a high-definition still image such as a moving image or a preview image. If set. In the thinning-out reading mode, for example, pixels can be thinned out and read at the same ratio in both the horizontal and vertical directions so as not to change the aspect ratio of the image. Note that "thinning" includes not only not performing reading itself but also discarding (ignoring) the read signal and generating one signal from a plurality of read signals. For example, S/N can be improved by averaging signals read from a plurality of adjacent pixels to generate one signal.

図5は、撮影レンズの射出瞳面と光電変換部との共役関係と、射出瞳面上における光電変換部の投影像を説明する図である。
図5(A)は、撮影レンズ300の射出瞳面と、撮像素子14の像面の中央近傍に配置された画素200(中央画素)の光電変換部201a,201bとの共役関係を示す。撮像素子14内の光電変換部201a、201bと撮影レンズ300の射出瞳面は、オンチップマイクロレンズ201iによって、共役関係となるように設計される。そして、撮影レンズ300の射出瞳面は、光量調節用の虹彩絞りが設けられる面とほぼ一致する。
FIG. 5 is a diagram illustrating a conjugate relationship between the exit pupil plane of the photographing lens and the photoelectric conversion unit and a projected image of the photoelectric conversion unit on the exit pupil plane.
FIG. 5A shows the conjugate relationship between the exit pupil plane of the taking lens 300 and the photoelectric conversion units 201a and 201b of the pixel 200 (center pixel) arranged near the center of the image plane of the image sensor 14. The photoelectric conversion units 201a and 201b in the image sensor 14 and the exit pupil plane of the taking lens 300 are designed to have a conjugate relationship by the on-chip microlens 201i. The exit pupil surface of the taking lens 300 substantially coincides with the surface on which the iris diaphragm for adjusting the light amount is provided.

撮影レンズ300は、変倍機能を有したズームレンズである。ズームレンズには、変倍操作を行なうと、射出瞳の大きさや、像面から射出瞳までの距離(射出瞳距離)が変化するものがある。図5(A)では、撮影レンズ300の焦点距離が、広角端と望遠端の中央にある状態が示される。この状態における射出瞳距離Dlを標準値として、オンチップマイクロレンズの形状や、像高(画面中心からの距離またはXY座標)に応じた偏心パラメータの最適設計がなされる。 The taking lens 300 is a zoom lens having a variable magnification function. Some zoom lenses change the size of the exit pupil and the distance from the image plane to the exit pupil (exit pupil distance) when the zooming operation is performed. FIG. 5A shows a state in which the focal length of the taking lens 300 is at the center between the wide-angle end and the telephoto end. With the exit pupil distance Dl in this state as a standard value, the eccentricity parameter is optimally designed according to the shape of the on-chip microlens and the image height (distance from the screen center or XY coordinates).

図5(A)において、撮影レンズ300は、第1レンズ群101、第1レンズ群を保持する鏡筒部材101b、第3レンズ群105、および第3レンズ群を保持する鏡筒部材105bを有している。また、撮影レンズ300は、絞り102と、絞り開放時の開口径を規定する開口板102a、および絞り込み時の開口径を調節するための絞り羽根102bを有している。なお、撮影レンズ300を通過する光束CLa,CLbの制限部材101b、102a、102b、及び105bは、像面から観察した場合の光学的な虚像を示す。Lは、光束CLa,CLbの最外部である。また、絞り102の近傍における合成開口を撮影レンズ300の射出瞳と定義し、像面からの距離を射出瞳距離Dlとしている。 In FIG. 5A, the taking lens 300 includes a first lens group 101, a lens barrel member 101b holding the first lens group, a third lens group 105, and a lens barrel member 105b holding the third lens group. is doing. The photographic lens 300 also includes a diaphragm 102, an aperture plate 102a that defines the opening diameter when the diaphragm is open, and diaphragm blades 102b that adjust the opening diameter when the diaphragm is closed. The limiting members 101b, 102a, 102b, and 105b for the light fluxes CLa and CLb passing through the taking lens 300 show optical virtual images when observed from the image plane. L is the outermost part of the light beams CLa and CLb. The synthetic aperture in the vicinity of the diaphragm 102 is defined as the exit pupil of the taking lens 300, and the distance from the image plane is the exit pupil distance Dl.

画素200の最下層には、光電変換部201aおよび201bが配置される。光電変換部201a、201bの上層には、配線層201e〜201g、カラーフィルタ201h、及びオンチップマイクロレンズ201iが設けられる。光電変換部201a、201bは、オンチップマイクロレンズ201iによって、撮影レンズ300の射出瞳面に投影される。換言すれば、射出瞳が、オンチップマイクロレンズ201iを介して、光電変換部201a、201bの表面に投影される。 The photoelectric conversion units 201a and 201b are arranged in the lowermost layer of the pixel 200. Wiring layers 201e to 201g, a color filter 201h, and an on-chip microlens 201i are provided on the upper layers of the photoelectric conversion units 201a and 201b. The photoelectric conversion units 201a and 201b are projected onto the exit pupil plane of the taking lens 300 by the on-chip microlens 201i. In other words, the exit pupil is projected onto the surfaces of the photoelectric conversion units 201a and 201b via the on-chip microlens 201i.

図5(A)は、撮影レンズ300の射出瞳面上における、光電変換部201a、201bの投影像501、502を示す。射出瞳面における円400は、絞り102の開口板102aで規定される、画素200への光束の最大入射範囲を示す。円400は、開口板102aで規定されるので、図5(A)では、円400を102aとも記述している。図5(A)では、中央画素を示しているので、光束のケラレは、光軸に対して対称となり、光電変換部201a及び201bは、同じ大きさの瞳領域を通過した光束を受光する。そして、円400には、投影像501、502の大部分が含まれるので、光束のケラレはほぼ発生しない。従って、光電変換部201a、201bで光電変換された信号を加算した場合、円400、すなわち射出瞳領域のほぼ全体を通過した光束を光電変換した結果が得られる。光電変換部201aが受光する射出瞳の領域を第1の瞳領域と呼ぶ。光電変換部201bが受光する射出瞳の領域を第2の瞳領域と呼ぶ。また、第1の瞳領域と第2の瞳領域を合わせた領域を第3の瞳領域と呼ぶ。 FIG. 5A shows projected images 501 and 502 of the photoelectric conversion units 201a and 201b on the exit pupil plane of the taking lens 300. A circle 400 on the exit pupil plane indicates the maximum incident range of the light flux on the pixel 200, which is defined by the aperture plate 102a of the diaphragm 102. Since the circle 400 is defined by the aperture plate 102a, the circle 400 is also described as 102a in FIG. Since the central pixel is shown in FIG. 5A, vignetting of the light flux is symmetric with respect to the optical axis, and the photoelectric conversion units 201a and 201b receive the light flux that has passed through the pupil regions of the same size. Since most of the projected images 501 and 502 are included in the circle 400, vignetting of the light flux hardly occurs. Therefore, when the signals photoelectrically converted by the photoelectric conversion units 201a and 201b are added, the result obtained by photoelectrically converting the light flux passing through the circle 400, that is, almost the entire exit pupil region is obtained. The area of the exit pupil received by the photoelectric conversion unit 201a is referred to as a first pupil area. The area of the exit pupil received by the photoelectric conversion unit 201b is referred to as a second pupil area. Further, a region obtained by combining the first pupil region and the second pupil region is called a third pupil region.

図5(A)に示す画素200の構造を参照して、画素間で発生するクロストークについて説明する。隣接する画素間でのクロストークは、要因によって2 つに分類される。1つは、オンチップマイクロレンズ201i、カラーフィルタ201h、配線層201e〜201gの配置や、透過光の反射、散乱などによる迷光などによって発生する、光学的クロストークである。もう1つは、各画素の光電変換部で生じた電荷が、他の画素へ移動することにより発生する電気的クロストークである。 Crosstalk that occurs between pixels will be described with reference to the structure of the pixel 200 illustrated in FIG. Crosstalk between adjacent pixels is classified into two types depending on the factors. One is optical crosstalk generated by the arrangement of the on-chip microlens 201i, the color filter 201h, the wiring layers 201e to 201g, stray light due to reflection and scattering of transmitted light, and the like. The other is electrical crosstalk that occurs when electric charges generated in the photoelectric conversion unit of each pixel move to another pixel.

光学的なクロストークに関しては、光の波長に応じて透過率、反射率、屈折などが異なるので、発生するクロストーク量(隣接画素への光の移動量)が、色毎に異なる。また、光の入射角度により、発生するクロストーク量が異なる。さらに、画素の配線層201e〜201gの異方性に起因して、クロストークが発生する方向に関しても、異方性が生じる。 Regarding optical crosstalk, since the transmittance, reflectance, refraction, etc. differ depending on the wavelength of light, the amount of crosstalk generated (the amount of movement of light to adjacent pixels) differs for each color. In addition, the amount of generated crosstalk varies depending on the incident angle of light. Further, due to the anisotropy of the wiring layers 201e to 201g of the pixel, anisotropy also occurs in the direction in which crosstalk occurs.

電気的クロストークに関しても、光の波長に応じて光電変換部に侵入する深さ(光電変換される深さ)が異なるので、発生するクロストーク量(隣接画素への電化の移動量)が、色毎に異なる。また、電気的なクロストークは、波長に加えて、画素の配線層201e〜201gの異方性や、画素間の信号電荷に対する障壁の高さによって、クロストークの発生する方向に異方性が生じる。画素間の信号電荷に対する障壁の高さに関しては、特許文献3に開示されている。 Regarding the electrical crosstalk, the depth of penetration into the photoelectric conversion unit (the depth of photoelectric conversion) differs depending on the wavelength of light, so the amount of crosstalk generated (the amount of electrification movement to adjacent pixels) is Different for each color. In addition to the wavelength, the electrical crosstalk has anisotropy in the direction in which the crosstalk occurs due to the anisotropy of the wiring layers 201e to 201g of the pixels and the height of the barrier against signal charges between the pixels. Occurs. The height of the barrier against signal charges between pixels is disclosed in Patent Document 3.

本実施形態において、撮像素子14が有する画素は、クロストークに異方性を有し、水平方向の方が、垂直方向に対して、クロストーク量が多いことを想定する。このような状況は、例えば、画素の障壁の高さや配線層が、水平方向に対して、垂直方向の方が、クロストークが生じにくいような構成になっている場合に発生する。 In the present embodiment, it is assumed that the pixels included in the image sensor 14 have anisotropy in crosstalk and that the horizontal direction has a larger crosstalk amount than the vertical direction. Such a situation occurs, for example, when the height of the barrier of the pixel and the wiring layer are configured such that crosstalk is less likely to occur in the vertical direction than in the horizontal direction.

クロストークの発生量の波長や入射角度依存性や異方性がある場合に、焦点検出誤差が生じることについては、後述する。本実施形態の撮像装置によれば、クロストークの発生によらない高精度な焦点検出を実現することができる。 It will be described later that the focus detection error occurs when the crosstalk generation amount has wavelength dependency, incident angle dependency, or anisotropy. According to the image pickup apparatus of the present embodiment, highly accurate focus detection that does not depend on the occurrence of crosstalk can be realized.

図6は、光電変換部の分光ごとの入射角受光感度分布の特性を説明する図である。
図6には、撮像素子14の像面の中央近傍に配置された画素200に設けられた光電変換部201a、201bの入射角強度分布を示す。光電変換部201a、201bは、赤(R)と緑(G)のカラーフィルタを有する画素に対応する光電変換部であるものとする。横軸は入射角度であり、右側が正である。縦軸は受光感度に相当する信号強度であり、光電変換部201a、201bの信号強度の交点において規格化している。入射角度が負の時に強度の最大値をとるのが光電変換部201aの強度分布であり、入射角度が正の時に強度の最大値をとるのが光電変換部201bの強度分布である。波長による屈折率の違いにより、RとGの入射角受光感度の形状が異なる。なお、撮像素子14条の画素に施されたカラーフィルタには、青(B)もあるが、ここでは説明を簡単にするため、省略している。但し、青の場合も、赤や緑と異なる強度分布形状となる。
FIG. 6 is a diagram for explaining the characteristics of the incident angle light receiving sensitivity distribution for each of the spectra of the photoelectric conversion unit.
FIG. 6 shows incident angle intensity distributions of the photoelectric conversion units 201a and 201b provided in the pixels 200 arranged near the center of the image plane of the image sensor 14. The photoelectric conversion units 201a and 201b are assumed to be photoelectric conversion units corresponding to pixels having red (R) and green (G) color filters. The horizontal axis is the incident angle, and the right side is positive. The vertical axis represents the signal intensity corresponding to the light receiving sensitivity, and is normalized at the intersection of the signal intensities of the photoelectric conversion units 201a and 201b. The intensity distribution of the photoelectric conversion unit 201a has the maximum intensity when the incident angle is negative, and the intensity distribution of the photoelectric conversion unit 201b has the maximum intensity when the incident angle is positive. Due to the difference in the refractive index depending on the wavelength, the shapes of the R and G incident angle light receiving sensitivities are different. The color filter applied to the pixels of the image sensor 14 includes blue (B), but it is omitted here for simplification of description. However, the intensity distribution shape of blue is different from that of red or green.

図6に示すように、入射角度に対する信号強度の変化率が、RとGとで異なる。したがって、信号強度の交点の角度から外れた領域においては、RとGの信号強度比が、光電変換部201a、201bで異なる。例えば、信号強度の交点よりも入射角度が負の場合、光電変換部201aにおいては、RはGよりも信号強度が小さい。一方、光電変換部201bにおいては、RはGよりも信号強度が大きい。この場合、焦点検出に用いられる対の信号で、RとGの信号強度比が異なる。 As shown in FIG. 6, the change rate of the signal intensity with respect to the incident angle is different between R and G. Therefore, in the area deviating from the angle of the intersection of the signal intensities, the signal intensity ratio of R and G differs between the photoelectric conversion units 201a and 201b. For example, when the incident angle is more negative than the intersection of the signal intensities, R has a smaller signal intensity than G in the photoelectric conversion unit 201a. On the other hand, in the photoelectric conversion unit 201b, R has a larger signal intensity than G. In this case, the paired signals used for focus detection have different R and G signal intensity ratios.

図7は、撮像素子の周辺像高における第1の瞳領域、第2の瞳領域、第3の瞳領域の関係を説明する図である。
前述したように、光電変換部201aが受光する射出瞳の領域が第1の瞳領域501である。光電変換部201bが受光する射出瞳の領域が第2の瞳領域502である。第1の瞳領域と第2の瞳領域を合わせた領域、つまり撮像光学系の射出瞳400が、第3の瞳領域である。図7では、射出瞳400の水平方向をX軸、垂直方向をY軸としている。
FIG. 7 is a diagram illustrating the relationship among the first pupil region, the second pupil region, and the third pupil region at the peripheral image height of the image sensor.
As described above, the area of the exit pupil received by the photoelectric conversion unit 201a is the first pupil area 501. The area of the exit pupil received by the photoelectric conversion unit 201b is the second pupil area 502. An area obtained by combining the first pupil area and the second pupil area, that is, the exit pupil 400 of the imaging optical system is the third pupil area. In FIG. 7, the horizontal direction of the exit pupil 400 is the X axis and the vertical direction is the Y axis.

図7(A)に示す状態では、撮像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsとが同じである。この状態では、第1の瞳領域501と第2の瞳領域502により、撮像光学系の射出瞳400が、概ね、均等に瞳分割される。入射角受光感度分布で考えると、各像高への光線入射角度θは、光電変換部201a、201bを有する画素の最も感度の高い入射角度θcにほぼ等しくなる(θ=θc)。言い換えると、図6に示した入射角受光感度分布において、どの像高においても、入射角度θcを原点とした場合に、縦軸に対して対称な領域の光束を受光することになり、焦点検出に用いる対の信号におけるRGB信号強度比は、ほぼ等しくなる。 In the state shown in FIG. 7A, the exit pupil distance Dl of the image pickup optical system and the set pupil distance Ds of the image pickup element are the same. In this state, the first pupil area 501 and the second pupil area 502 divide the exit pupil 400 of the imaging optical system into substantially even pupils. Considering the incident angle light receiving sensitivity distribution, the ray incident angle θ to each image height is substantially equal to the incident angle θc with the highest sensitivity of the pixel having the photoelectric conversion units 201a and 201b (θ=θc). In other words, in the incident angle light receiving sensitivity distribution shown in FIG. 6, when the incident angle θc is the origin, the light flux in a region symmetrical to the vertical axis is received at any image height, and focus detection is performed. The RGB signal strength ratios of the pair of signals used for are almost equal.

図7(B)に示す状態では、撮像光学系の射出瞳距離Dlが、撮像素子の設定瞳距離Dsより短い。また、図7(C)に示す状態では、撮像光学系の射出瞳距離Dlが、撮像素子の設定瞳距離Dsより長い。図7(B)、(C)のいずれの状態においても、撮像素子の周辺像高において、撮像光学系の射出瞳撮像素子の入射瞳の瞳ずれが生じ、撮像光学系の射出瞳400が、不均一に瞳分割される。入射角受光感度分布で考えると、図7(B)、(C)の状態における光線入射角度θは、像高が高くなるほど光電変換部201a、201bを有する画素の最も感度の高い入射角度θcからずれる。したがって、レンズユニット100の射出瞳距離と設定瞳距離Dsのずれが大きく、像高が高くなるほど、光電変換部201a、201bは、図6の入射角受光感度分布において原点から離れた入射角度の光束を受光することになる。これにより、焦点検出に用いる対の信号におけるRGB信号強度の差は大きくなる。一方で、撮像素子の中央像高においては、撮像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsの関係によらず、瞳ずれが発生しないので、均一に瞳分割され、焦点検出に用いる対の信号におけるRGB信号強度の差は発生しない。本実施形態では、撮影レンズ300の焦点距離が広角端や望遠端になった場合に、図7(B)、図7(C)の状態が起こり得る。また、撮影レンズを交換した場合なども同様の状態が起こり得る。 In the state shown in FIG. 7B, the exit pupil distance Dl of the image pickup optical system is shorter than the set pupil distance Ds of the image pickup element. Further, in the state shown in FIG. 7C, the exit pupil distance Dl of the image pickup optical system is longer than the set pupil distance Ds of the image pickup element. 7B and 7C, at the peripheral image height of the image pickup device, the exit pupil of the image pickup optical system shifts the entrance pupil of the image pickup device, and the exit pupil 400 of the image pickup optical system becomes The pupils are unevenly divided. Considering the incident angle light receiving sensitivity distribution, the light ray incident angle θ in the states of FIGS. 7B and 7C is calculated from the incident angle θc with the highest sensitivity of the pixel having the photoelectric conversion units 201a and 201b as the image height increases. It shifts. Therefore, the larger the deviation between the exit pupil distance of the lens unit 100 and the set pupil distance Ds and the higher the image height, the more the photoelectric conversion units 201a and 201b have the light flux of the incident angle far from the origin in the incident angle light receiving sensitivity distribution of FIG. Will be received. As a result, the difference in RGB signal strength between the pair of signals used for focus detection becomes large. On the other hand, at the center image height of the image sensor, the pupil shift does not occur regardless of the relationship between the exit pupil distance Dl of the image pickup optical system and the set pupil distance Ds of the image sensor. There is no difference in RGB signal strength between the pair of signals used. In the present embodiment, the states of FIGS. 7B and 7C can occur when the focal length of the taking lens 300 is at the wide-angle end or the telephoto end. Moreover, the same state may occur when the photographing lens is replaced.

図8は、焦点検出領域の設定の一例を示す図である。
図8には、撮影範囲400内において設定された焦点検出領域401、402が示される。焦点検出領域を対象として、撮像素子14の出力に基づく位相差検出方式AFが行われる。焦点検出領域401は、撮影光学系の光軸と撮像素子の交点と焦点検出領域の中心が一致する、いわゆる中央像高に設定された焦点検出領域である。焦点検出領域402は、焦点検出領域の中心が、撮影光学系の光軸と撮像素子の交点から離れている、いわゆる周辺像高に設定された焦点検出領域である。撮像素子14が有する画素の出力を用いた焦点検出を行う場合、コントラスト検出方式、位相差検出方式のいずれにおいても、焦点検出領域401、402に対応する撮像素子14の領域内に含まれる画素の出力が用いられる。したがって、焦点検出領域401、402は、撮像素子14に設定されているとも言え、以下では説明及び理解を容易にするため、焦点検出領域401、402を撮像素子14の画素領域として説明する。また、焦点検出領域401、402には、図2(A)に示す構成の画素200が、4行2N列配置されているものとする。なお、これは単なる例示であり、焦点検出領域の数や大きさ(含まれる画素数)は、位相差検出に支障のない範囲で適宜定めることができる。
FIG. 8 is a diagram showing an example of setting the focus detection area.
FIG. 8 shows focus detection areas 401 and 402 set within the shooting range 400. The phase difference detection AF based on the output of the image sensor 14 is performed on the focus detection area. The focus detection area 401 is a focus detection area set at a so-called central image height, in which the intersection of the optical axis of the photographing optical system and the image sensor and the center of the focus detection area coincide with each other. The focus detection area 402 is a focus detection area that is set at a so-called peripheral image height, in which the center of the focus detection area is away from the intersection of the optical axis of the photographing optical system and the image sensor. When performing focus detection using the output of the pixels of the image sensor 14, the pixels included in the area of the image sensor 14 corresponding to the focus detection areas 401 and 402 are detected in both the contrast detection method and the phase difference detection method. The output is used. Therefore, it can be said that the focus detection areas 401 and 402 are set in the image sensor 14, and in the following, the focus detection areas 401 and 402 will be described as pixel areas of the image sensor 14 for ease of description and understanding. In addition, it is assumed that the pixels 200 having the configuration shown in FIG. 2A are arranged in 4 rows and 2N columns in the focus detection areas 401 and 402. Note that this is merely an example, and the number and size (the number of pixels included) of the focus detection areas can be appropriately determined within a range that does not hinder the phase difference detection.

図9は、焦点検出領域内に配置された画素の例を示す図である。
図9には、焦点検出領域401、402内に配置された4行2N列の画素が示される。i行j列目のAF用A像の信号を生成するために用いられる画素(PD201a)およびその出力をA(i,j)と表す。同様に、i行j列目のAF用B像の信号を生成するために用いられる画素(PD201b)およびその出力をB(i,j)と表す。図9に示す例では、画素領域の1行目と3行目は、赤(R)と緑(Gr)のカラーフィルタを有する画素が交互に配置されている。2行目と4行目は、緑(Gb)と青(B)のカラーフィルタを有する画素が交互に配置されている。本実施形態では、赤(R)の左右方向の隣に配置された緑の画素をGrとし、青(B)の左右方向の隣に配置された緑の画素をGbとして区別して表現する。
FIG. 9 is a diagram showing an example of pixels arranged in the focus detection area.
FIG. 9 shows pixels of 4 rows and 2N columns arranged in the focus detection areas 401 and 402. A pixel (PD 201a) used to generate a signal of an AF A image at the i-th row and the j-th column and its output are represented as A(i,j). Similarly, the pixel (PD 201b) used to generate the AF B image signal at the i-th row and the j-th column and its output are denoted as B(i,j). In the example shown in FIG. 9, pixels having red (R) and green (Gr) color filters are alternately arranged in the first and third rows of the pixel region. Pixels having green (Gb) and blue (B) color filters are alternately arranged in the second and fourth rows. In the present embodiment, the green pixels arranged next to red (R) in the left-right direction are designated as Gr, and the green pixels arranged next to blue (B) in the left-right direction are designated as Gb.

図10は、焦点検出領域401内の画素から得られる信号に関する、線像強度分布を示す図である。図11は、焦点検出領域402内の画素から得られる信号に関する、線像強度分布を示す図である。
図10および図11には、カラーフィルタの配置ごと、すなわち異なる分光特性を有する色ごとの信号強度が示される。横軸は、画素番号を示す。縦軸は、光量と対応する信号強度を示す。A像とB像の相対的な位置関係がわかりやすいように、上下に2つのグラフを隣接させている。図10(A)、図11(A)のグラフは、A像を示す。図10(B)、図11(B)のグラフが、B像を示す。
FIG. 10 is a diagram showing a line image intensity distribution regarding signals obtained from pixels in the focus detection area 401. FIG. 11 is a diagram showing a line image intensity distribution regarding signals obtained from pixels in the focus detection area 402.
10 and 11 show signal intensities for each arrangement of color filters, that is, for each color having different spectral characteristics. The horizontal axis represents the pixel number. The vertical axis represents the signal intensity corresponding to the light amount. Two graphs are vertically adjacent to each other so that the relative positional relationship between the A image and the B image can be easily understood. The graphs in FIGS. 10A and 11A show A images. The graphs of FIGS. 10B and 11B show the B image.

図10(A)、(B)において、赤(R)の信号は長破線、緑(Gr)の信号は、短破線、緑(Gb)の信号は、実線、青(B)の信号は、1点鎖線で示される。2つの緑の信号(Gr,Gb)は、略等しい出力が得られるので、重なって示されている。一方で、赤や青の信号に関して、緑に対してピークの高さがずれているのは、被写体の分光特性の違いに起因する。 In FIGS. 10A and 10B, the red (R) signal is a long broken line, the green (Gr) signal is a short broken line, the green (Gb) signal is a solid line, and the blue (B) signal is It is indicated by a one-dot chain line. The two green signals (Gr, Gb) are shown as overlapping, since they give substantially equal outputs. On the other hand, the peak heights of red and blue signals are different from those of green signals due to the difference in spectral characteristics of the subject.

また、図10(A)、(B)は、合焦近傍における信号強度を示すので、A像とB像間で像ずれは発生しておらず、重心位置は揃っている。焦点検出領域401(図8)は、中央像高であるため、撮影レンズ300によるケラレの程度なども略等しく、A像とB像の信号の差は小さい。 Further, FIGS. 10A and 10B show the signal intensity in the vicinity of the in-focus state, so that the image shift does not occur between the A image and the B image, and the centers of gravity are aligned. Since the focus detection area 401 (FIG. 8) has the central image height, the degree of vignetting by the taking lens 300 is substantially the same, and the difference between the signals of the A image and the B image is small.

図11(A)、(B)において、赤(R)の信号は長破線、緑(Gr)の信号は、短破線、緑(Gb)の信号は、実線、青(B)の信号は、1点鎖線で示される。図11(A)のグラフに対応するA像に関しては、2つの緑の信号(Gr,Gb)は、略等しい出力が得られるため、重なって示されている。一方で、赤や青の信号が、緑に対してピークの高さがずれているのは、被写体の分光特性の違いに起因する。A像では、さらに、赤や青の信号の重心の画素位置がずれている。これは、撮影レンズ300の有する倍率色収差により、色毎に異なる位置に線像が結像していることを示している。 In FIGS. 11A and 11B, a red (R) signal is a long dashed line, a green (Gr) signal is a short dashed line, a green (Gb) signal is a solid line, and a blue (B) signal is It is indicated by a one-dot chain line. Regarding the image A corresponding to the graph of FIG. 11A, the two green signals (Gr, Gb) are shown in an overlapping manner because substantially equal outputs are obtained. On the other hand, the peak heights of red and blue signals are different from those of green signals because of differences in spectral characteristics of the subject. In image A, the pixel position of the center of gravity of red and blue signals is further displaced. This indicates that line images are formed at different positions for each color due to the chromatic aberration of magnification of the taking lens 300.

図11(B)のグラフに対応するB像に関して、2つの緑の信号(Gr,Gb)は、ピークの高さ、重心の画素位置ともに、異なる出力が得られていることを示す。同じ分光特性を有する緑の信号であるにも関わらず、GrとGbで、信号出力が異なる形状になる。B像のGrとGbとでは、A像とB像の信号強度比、撮影光学系の倍率色収差、画素間のクロストークの異方性などの影響により、出力に差が生じるからである。画素間のクロストークの異方性の影響については、図12を参照して後述する。一方で、赤や青の信号が、緑に対してピークの高さがずれているのは、被写体の分光特性の違いに起因する。B像では、さらに、赤や青の信号の横軸方向の位置がずれている。これは、撮影レンズ300の有する倍率色収差によって、色毎に異なる位置に線像が結像していることを示している。 Regarding the B image corresponding to the graph of FIG. 11B, two green signals (Gr, Gb) indicate that different outputs are obtained for both the peak height and the pixel position of the center of gravity. Despite the green signal having the same spectral characteristic, Gr and Gb have different signal outputs. This is because the Gr and Gb of the B image have a difference in output due to the influence of the signal intensity ratio of the A image and the B image, chromatic aberration of magnification of the photographing optical system, anisotropy of crosstalk between pixels, and the like. The influence of crosstalk anisotropy between pixels will be described later with reference to FIG. On the other hand, the peak heights of red and blue signals are different from those of green signals because of differences in spectral characteristics of the subject. In the B image, the positions of the red and blue signals are further displaced in the horizontal axis direction. This indicates that line images are formed at different positions for each color due to the chromatic aberration of magnification of the taking lens 300.

また、図11(A)、(B)を見ると、どの色においても、A像の信号に対して、B像の信号の出力が、小さくなっている。これは、撮影レンズ300を通過したA像とB像の光束で非対称にケラレが発生していることを示している。撮影光束の入射角度に対応するA像信号とB像信号の入射角受光感度分布の違いから、A像の信号に対して、B像の信号の出力が小さくなっている。 Further, as shown in FIGS. 11A and 11B, the output of the B image signal is smaller than the output of the A image signal in any color. This indicates that vignetting occurs asymmetrically in the light fluxes of the A image and the B image that have passed through the taking lens 300. Due to the difference in the incident angle light receiving sensitivity distributions of the A image signal and the B image signal corresponding to the incident angle of the photographing light flux, the output of the B image signal is smaller than that of the A image signal.

さらに、図11(A)、(B)を見ると、A像とB像とで、色毎(RGB)の強度比が異なる。A像では、信号のピークが、G、R、Bの順に小さくなるに対して、B像では、R、G、Bの順に小さくなる。このことは、周辺像高の画素への入射光束の色毎の感度分布が、A像とB像で異なることを示している。 Further, as shown in FIGS. 11A and 11B, the intensity ratio of each color (RGB) is different between the A image and the B image. In the A image, the peak of the signal decreases in the order of G, R, and B, whereas in the B image, the signal peak decreases in the order of R, G, and B. This indicates that the sensitivity distribution for each color of the light flux incident on the pixels at the peripheral image height differs between the A image and the B image.

図12は、画素間のクロストークの一例を説明する図である。
図12(A)は、Gr画素に対するクロストークの発生経路を示す。図12(B)は、Gb画素に対するクロストークの発生経路を示す。画素間のクロストークは、本来、双方向で考える必要があるが、以下では、GrとGbとの差について説明するため、Gr画素、Gb画素に混入するクロストーク量について説明する。また、同じ画素内でのA像とB像間のクロストークについては、像ずれ量を打ち消すように働き、焦点検出誤差を生じさせる。但し、Gr画素、Gb画素ともに、A像,B像間の光量比は、略等しいので、クロストーク量の比も等しく、B像のGrとGbとの差を生じさせる要因にはならないため、説明を省略する。
FIG. 12 is a diagram illustrating an example of crosstalk between pixels.
FIG. 12A shows a crosstalk generation path for the Gr pixel. FIG. 12B shows a crosstalk generation path for the Gb pixel. Although crosstalk between pixels must be considered bidirectionally, the amount of crosstalk mixed in Gr and Gb pixels will be described below in order to explain the difference between Gr and Gb. Regarding crosstalk between the A image and the B image in the same pixel, it works to cancel the image shift amount, and causes a focus detection error. However, since the light amount ratio between the A image and the B image is substantially the same in both the Gr pixel and the Gb pixel, the ratio of the crosstalk amounts is also the same, which does not cause a difference between Gr and Gb of the B image. The description is omitted.

まず、図12(A)、(B)を参照して、A像のGr画素とGb画素の出力について説明する。図12(A)に示すとおり、A−Grは、左側のB−Rからクロストーク(CT_h1)を受け取る。但し、B−Rの光量は、図11に示した通り、A−Grの光量に対して小さいので、クロストークによる出力変化は小さい。さらに、A−Grは、上下からA−Bからのクロストーク(CT_v1)を受け取る。但し、A−Bの光量は、図11に示した通り、A−Grに対して小さいので、クロストークによる出力変化は小さい。つまり、A−Grは、図11に対応する撮影条件では、クロストークの影響が少ない。 First, the output of the Gr pixel and the Gb pixel of the A image will be described with reference to FIGS. As shown in FIG. 12A, A-Gr receives crosstalk (CT_h1) from B-R on the left side. However, since the B-R light amount is smaller than the A-Gr light amount as shown in FIG. 11, the output change due to crosstalk is small. Furthermore, A-Gr receives crosstalk (CT_v1) from A-B from above and below. However, since the light amount of A-B is smaller than that of A-Gr as shown in FIG. 11, the change in output due to crosstalk is small. That is, A-Gr is less affected by crosstalk under the shooting conditions corresponding to FIG.

A−Gbは、図12(B)に示すとおり、左側のB−Bからクロストーク(CT_h3)を受け取る。但し、B−Bの光量は、図11(B)に示したとおり、A−Gbに対して小さいので、クロストークによる出力変化は小さい。さらに、A−Gbは、上下からA−Rからのクロストーク(CT_v3)を受け取る。A−Rの光量は、図11(B)に示したとおり、A−Gbに対して比較的大きい。但し、本実施形態の撮像素子14が有する画素は、水平、垂直方向のクロストークの発生量に差があり、垂直方向の方が、クロストーク量が少ない。したがって、A−Gbは、図11(B)の撮影条件では、クロストークの影響をあまり受けない。その結果、A−GrとA−Gbとで、出力に大きな差が生じない。 As shown in FIG. 12B, A-Gb receives the crosstalk (CT_h3) from BB on the left side. However, the light amount of B-B is smaller than that of A-Gb as shown in FIG. 11B, and thus the output change due to crosstalk is small. Furthermore, A-Gb receives crosstalk (CT_v3) from A-R from above and below. The light amount of A-R is relatively larger than that of A-Gb, as shown in FIG. However, the pixels included in the image sensor 14 of the present embodiment differ in the amount of crosstalk generated in the horizontal and vertical directions, and the amount of crosstalk is smaller in the vertical direction. Therefore, A-Gb is not significantly affected by crosstalk under the shooting conditions of FIG. As a result, there is no large difference in output between A-Gr and A-Gb.

次に、図12(A)、(B)を参照して、B像のGr画素とGb画素の出力について説明する。B−Grは、右側のA−Rからクロストーク(CT_h2)を受け取る。図11(A)、(B)に示すように、A−Rの光量は、B−Grの光量に対して大きく、クロストークによる出力変化は大きい。そのため、図11(A)のA像のRの画素位置(横軸)において、B−Grは、クロストークによる出力変化が生じる。 Next, with reference to FIGS. 12A and 12B, the output of the Gr pixel and the Gb pixel of the B image will be described. B-Gr receives the crosstalk (CT_h2) from A-R on the right side. As shown in FIGS. 11A and 11B, the light amount of A-R is larger than the light amount of B-Gr, and the output change due to crosstalk is large. Therefore, at the pixel position of R (horizontal axis) of the A image in FIG. 11A, B-Gr causes an output change due to crosstalk.

さらに、B−Grは、上下からB−Bからのクロストーク(CT_v2)を受け取る。但し、図11(A)、(B)に示すように、B−Bの光量は、B−Grの光量に対して小さいので、クロストークによる出力変化は小さい。つまり、B−Grの出力は、図11の撮影条件では、A−Rの出力の影響によって、重心位置が変化する。 Further, B-Gr receives crosstalk (CT_v2) from BB from above and below. However, as shown in FIGS. 11A and 11B, the light quantity of BB is smaller than the light quantity of B-Gr, so that the output change due to crosstalk is small. That is, in the output of B-Gr, the position of the center of gravity changes due to the influence of the output of A-R under the shooting conditions of FIG.

クロストーク量が大きく、クロストークを受けた画素の信号量が小さい場合に、画素の出力変化が大きくなる。B−Grの信号と、A−RからB−Gr画素へ漏れ込んだクロストーク量(CT_h2)との比率CT_h2/B−Grを第1の比率とする。また、B−Gbの信号と、A−BからB−Gb画素へ漏れ込んだクロストーク量(CT_h4)との比率CT_h4/B−Gbを第2の比率とする。これらの各比率が大きいほど、比率の分母に対応する画素は、クロストークの影響による重心位置の変化が大きくなる。第1の比率が第2の比率より大きい場合には、クロストークの影響に関して、B−GrのほうがB−Gbより大きい。したがって、この場合には、B−GbをB−Grより大きい重みで重み付けして、焦点検出を行うことで、クロストークによる重心位置の変化を低減した上で、A像とB像の像ずれ量(重心間隔)を算出できる。本実施形態では、B−GrとB−Gbとに着目して説明したが、その他の異なる画素に関しても同様である。 When the crosstalk amount is large and the signal amount of the pixel which has received the crosstalk is small, the output change of the pixel becomes large. The ratio CT_h2/B-Gr between the signal of B-Gr and the crosstalk amount (CT_h2) leaked from the A-R to the B-Gr pixel is set as the first ratio. Further, the ratio CT_h4/B-Gb between the signal of B-Gb and the amount of crosstalk (CT_h4) leaking from the pixel AB to the pixel B-Gb is set as the second ratio. The larger each of these ratios, the greater the change in the position of the center of gravity of the pixel corresponding to the denominator of the ratio due to the influence of crosstalk. When the first ratio is larger than the second ratio, B-Gr is larger than B-Gb with respect to the influence of crosstalk. Therefore, in this case, B-Gb is weighted with a weight larger than B-Gr and focus detection is performed to reduce the change in the position of the center of gravity due to crosstalk, and then the image shift between the A image and the B image is performed. The amount (center of gravity interval) can be calculated. Although the present embodiment has been described focusing on B-Gr and B-Gb, the same applies to other different pixels.

次に、B像のGb画素の出力について説明する。図12(B)に示すように、B−Gbは、右側のA−Bからクロストーク(CT_h4)を受け取る。但し、図11(A)、(B)に示すように、A−Bの光量は、B−Gbの光量に対して小さいので、クロストークによる出力変化は小さい。 Next, the output of the Gb pixel of the B image will be described. As shown in FIG. 12B, B-Gb receives the crosstalk (CT_h4) from AB on the right side. However, as shown in FIGS. 11A and 11B, the light quantity of AB is smaller than the light quantity of B-Gb, so that the output change due to crosstalk is small.

また、B−Gbは、上下からB像のRからのクロストーク(CT_v4)を受け取る。図11(B)に示すように、B−Rの光量は、B−Gbの光量に対して比較的大きい。但し、本実施形態の撮像素子14の画素は、水平、垂直方向のクロストークの発生量に差があり、垂直方向の方が、クロストーク量が少ない。したがって、B−Gbは、図11の撮影条件では、クロストークの影響をあまり受けない。その結果、主としてA−Rからのクロストークにより、B−GbよりB−Grの出力が大きくなり、また重心位置が左側にずれるように変化する。 In addition, B-Gb receives crosstalk (CT_v4) from R of B image from above and below. As shown in FIG. 11B, the light amount of B-R is relatively larger than the light amount of B-Gb. However, the pixels of the image sensor 14 of the present embodiment differ in the amount of crosstalk generated in the horizontal and vertical directions, and the amount of crosstalk is smaller in the vertical direction. Therefore, B-Gb is less affected by crosstalk under the shooting conditions of FIG. As a result, mainly due to crosstalk from A-R, the output of B-Gr becomes larger than that of B-Gb, and the position of the center of gravity shifts to the left.

上述のように、デフォーカスしていないにもかかわらず、クロストークの影響で、図11(B)に示すように、Grは、Gbに対して、線像強度分布の重心位置が、左側にずれている。焦点検出は、A像とB像の像ずれ量(重心間隔)を算出することに相当するため、Grの重心位置誤差は、焦点検出誤差となってしまう。本実施形態では、システム制御部50が、クロストークの影響が少ない第1の分光特性の相関量と、クロストークの影響を考慮しない第2の分光特性の相関量を算出し、焦点検出領域の像高に応じて相関量の重み付け加算を行う。重み付け加算は、第1の分光特性の相関量と第2の分光特性の相関量に対して重みを付けて加算することである。具体的には、システム制御部50の制御にしたがって、AF部42が、焦点検出領域の像高に応じて、第1の相関量と第2の相関量とに対する重みの大きさを制御する。これにより、焦点検出誤差を抑えて、高精度な焦点検出を実現することができる。相関量の算出、重み付け加算など、焦点検出方法については後述する。 As described above, despite the fact that defocusing has not been performed, due to the influence of crosstalk, the center of gravity of the line image intensity distribution of Gr is on the left side with respect to Gb, as shown in FIG. 11(B). Deviated. The focus detection corresponds to the calculation of the image shift amount (the center-of-gravity interval) between the A image and the B image, and therefore the gravity center position error of Gr becomes a focus detection error. In the present embodiment, the system control unit 50 calculates the correlation amount of the first spectral characteristic that is less affected by crosstalk and the correlation amount of the second spectral characteristic that does not consider the influence of crosstalk, and determines the focus detection area Weighting addition of the correlation amount is performed according to the image height. The weighted addition is to add weights to the correlation amount of the first spectral characteristic and the correlation amount of the second spectral characteristic. Specifically, according to the control of the system control unit 50, the AF unit 42 controls the magnitude of the weight for the first correlation amount and the second correlation amount according to the image height of the focus detection area. This makes it possible to suppress focus detection error and realize highly accurate focus detection. Focus detection methods such as calculation of the correlation amount and weighted addition will be described later.

本来、同じ出力が得られるはずのGrとGbの画素から、異なる出力が得られる要因として、下記の要因が考えられる。
・被写体の分光特性(RGB比)
・対の光電変換部の入射角感度分布の角度依存、分光依存
・撮影光学系と焦点検出領域の像高
・撮影光学系で生じる倍率色収差
・画素間のクロストーク量(隣接方向毎)
The following factors are conceivable as factors that cause different outputs from the pixels of Gr and Gb that should originally obtain the same output.
・Spectroscopic characteristics of subject (RGB ratio)
・Angle dependence of incident angle sensitivity distribution of paired photoelectric converters, spectral dependence ・Image height of shooting optical system and focus detection area ・Chromatic aberration of magnification caused by shooting optical system ・Amount of crosstalk between pixels (each adjacent direction)

上記の要因に応じて、Gr画素とGb画素とから、異なる出力が得られる。したがって、それぞれの要因の寄与度を求めたり、得られた焦点検出誤差に対する影響度合いを要因ごとに求めたりすることは困難である。また、被写体の分光特性も焦点検出結果に寄与するので、事前に撮像装置がクロストーク量や焦点検出誤差を補正値として、記憶しておくことも困難である。そこで、本実施形態では、システム制御部50は、焦点検出領域の像高にクロストークが発生しやすい周辺像高の領域が含まれる場合、クロストークの影響が少ない第1の分光特性の相関量の重みを第2の分光特性の相関量の重みよりも大きく設定する。そして、システム制御部50は、第1の分光特性の相関量と第2の分光特性の相関量を重み付け加算して得られた相関量を用いて焦点検出を行う。 Different outputs can be obtained from the Gr pixel and the Gb pixel depending on the above factors. Therefore, it is difficult to obtain the contribution of each factor and the influence of the obtained focus detection error for each factor. Further, since the spectral characteristic of the subject also contributes to the focus detection result, it is difficult for the imaging device to store the crosstalk amount and the focus detection error as correction values in advance. Therefore, in the present embodiment, when the image height of the focus detection area includes a peripheral image height region where crosstalk is likely to occur, the system control unit 50 has a correlation amount of the first spectral characteristic that is less affected by crosstalk. Is set to be larger than the weight of the correlation amount of the second spectral characteristic. Then, the system control unit 50 performs focus detection using the correlation amount obtained by weighting and adding the correlation amount of the first spectral characteristic and the correlation amount of the second spectral characteristic.

(焦点検出動作)
図13は、撮像装置による焦点調節動作の一例を説明するフローチャートである。
図13を参照して説明する処理は、メインミラー130とサブミラー131が光路外へ退避(ミラーアップ)した状態の時、具体的にはライブビュー表示時(表示用動画撮影時)もしくは動画記録時(記録用動画撮影時)において実行される。なお、図13では、撮像素子14の出力を用いた位相差検出方式の自動焦点検出に関して説明するが、コントラスト検出方式の自動焦点検出を行うこともできる。また、図13を参照して説明する処理は、システム制御部50の制御にしたがって実行される。
(Focus detection operation)
FIG. 13 is a flowchart illustrating an example of the focus adjustment operation by the image pickup apparatus.
The process described with reference to FIG. 13 is performed when the main mirror 130 and the sub mirror 131 are retracted (mirror up) out of the optical path, specifically, during live view display (during video recording for display) or video recording. This is executed in (when recording a moving image for recording). Note that, although FIG. 13 illustrates the automatic focus detection of the phase difference detection method using the output of the image sensor 14, the automatic focus detection of the contrast detection method can also be performed. Further, the processing described with reference to FIG. 13 is executed under the control of the system control unit 50.

S501において、システム制御部50が、焦点検出開始指示が入力されたかを判断する。システム制御部50は、例えば、SW1(シャッタースイッチ62)がONとなった場合またはユーザによる操作部70を用いた操作入力がされた場合に、焦点検出開始指示が入力されたと判断する。焦点検出開始指示が入力されていない場合は、処理がS501に戻る。焦点検出開始指示が入力された場合は、処理がS502に進む。なお、システム制御部50は、焦点検出開始指示の入力に限らず、ライブビュー表示や動画記録の開始をトリガとして、処理をS502に進めてもよい。 In step S501, the system control unit 50 determines whether a focus detection start instruction has been input. The system control unit 50 determines that the focus detection start instruction is input, for example, when the SW1 (shutter switch 62) is turned on or when the user inputs an operation using the operation unit 70. If the focus detection start instruction has not been input, the process returns to S501. If the focus detection start instruction is input, the process proceeds to S502. It should be noted that the system control unit 50 may not only input the focus detection start instruction, but may proceed to S502 by using the start of live view display or moving image recording as a trigger.

S502において、システム制御部50が、撮影レンズ300のレンズ枠情報やフォーカスレンズ位置などの各種レンズ情報を、インターフェース部38、338およびコネクタ122、322を介してレンズシステム制御部346から取得する。S503において、システム制御部50が、逐次読み出されているフレーム画像データのうち、焦点検出領域内の画素データから、AF用の像信号対(焦点検出用RGB信号)を生成するように画像処理部20に指示する。画像処理部20は、AF用の像信号対を生成し、AF部42へ供給する。AF部42は、AF用の像信号対に対して信号レベルの差を補正する処理などを行う。また、AF部42は、AF用の像信号のピーク値(最大値)やボトム値(最小値)を検出する。画像処理部20は、AF用の像信号対として、画素のカラーフィルタ種別(R, Gr, Gb, B)ごとに処理を行い、像信号対を生成する。 In step S502, the system control unit 50 acquires various lens information such as the lens frame information of the taking lens 300 and the focus lens position from the lens system control unit 346 via the interface units 38 and 338 and the connectors 122 and 322. In step S<b>503, the system control unit 50 performs image processing so as to generate an AF image signal pair (focus detection RGB signal) from the pixel data in the focus detection area of the sequentially read frame image data. Instruct the section 20. The image processing unit 20 generates an image signal pair for AF and supplies it to the AF unit 42. The AF unit 42 performs a process of correcting the difference in signal level for the AF image signal pair. The AF unit 42 also detects the peak value (maximum value) and bottom value (minimum value) of the AF image signal. The image processing unit 20 processes as an image signal pair for AF for each color filter type (R, Gr, Gb, B) of the pixel to generate an image signal pair.

S504において、画像処理部20が、システム制御部50の制御にしたがって、S503で生成された像信号対に基づき、第1の分光特性のA信号と第2の分光特性のA信号を生成する。本実施形態では、画像処理部20は、第1の分光特性を、クロストークの影響が少なくなるように重み付けする。また、画像処理部20は、第2の分光特性については、クロストークの影響は考慮せず、信号のノイズを低減するように重み付けする。画像処理部20は、例えば、画素のカラーフィルタ種別(R, Gr, Gb, B)のうち、第1の分光特性についてはGbのみを用いたGb信号を生成する。画像処理部20は、第2の分光特性については、R,Gr,Gb, B全てを用いて色毎の特性を有さないY信号を生成する。このとき、第1の分光特性(Gb)の信号は、第2の分光特性(Y)の信号に比べて、クロストークの影響を受けにくくなっている。また、第1の分光特性の波長帯域は、第2の分光特性の波長帯域よりも狭くなっている。 In S504, the image processing unit 20 generates the A signal having the first spectral characteristic and the A signal having the second spectral characteristic based on the image signal pair generated in S503 under the control of the system control unit 50. In the present embodiment, the image processing unit 20 weights the first spectral characteristic so that the influence of crosstalk is reduced. Further, the image processing unit 20 weights the second spectral characteristic so as to reduce the noise of the signal without considering the influence of crosstalk. The image processing unit 20 generates a Gb signal using only Gb for the first spectral characteristic of the color filter types (R, Gr, Gb, B) of the pixel, for example. For the second spectral characteristic, the image processing unit 20 uses all of R, Gr, Gb, and B to generate a Y signal having no characteristic for each color. At this time, the signal having the first spectral characteristic (Gb) is less susceptible to the crosstalk than the signal having the second spectral characteristic (Y). Further, the wavelength band of the first spectral characteristic is narrower than the wavelength band of the second spectral characteristic.

本実施形態では、焦点検出領域401、402には、図9に示すように、4行2N列の画素が配置されている。1行目と2行目のA信号から第1の分光特性のA信号が生成され、3行目と4行目のA信号から第2の分光特性のA信号が生成される。これにより、水平、垂直方向に2画素ずつ信号が加算され、2行N列のA信号に圧縮される。このとき、1行目は第1の分光特性(Gb)のA信号、2行目は第2の分光特性(Y)のA信号となっている。すなわち、画像処理部20は、第1の領域の画素の出力に基づいて、第1の分光特性の信号を取得し、第2の領域の画素の出力に基づいて、第2の分光特性の信号を取得する。信号の加算方法の詳細については後述する。また、この例では、1行目が第1の分光特性のA信号、2行目が第2の分光特性のA信号となるように信号を生成するが、2行とも第1の分光特性のA信号、または、2行とも第2の分光特性のA信号を生成するように信号を加算してもよい。 In the present embodiment, pixels of 4 rows and 2N columns are arranged in the focus detection areas 401 and 402 as shown in FIG. An A signal of the first spectral characteristic is generated from the A signals of the first row and the second row, and an A signal of the second spectral characteristic is generated from the A signals of the third row and the fourth row. As a result, the signals are added every two pixels in the horizontal and vertical directions, and compressed into the A signal of 2 rows and N columns. At this time, the first line shows the A signal of the first spectral characteristic (Gb), and the second line shows the A signal of the second spectral characteristic (Y). That is, the image processing unit 20 acquires the signal of the first spectral characteristic based on the output of the pixel of the first area, and the signal of the second spectral characteristic based on the output of the pixel of the second area. To get. Details of the signal addition method will be described later. Further, in this example, the signal is generated so that the first row becomes the A signal having the first spectral characteristic and the second row becomes the A signal having the second spectral characteristic. The signals may be added so as to generate the A signal or the A signal having the second spectral characteristic in both rows.

S505において、画像処理部20が、S504と同様の処理によって、第1の分光特性のB信号と第2の分光特性のB信号を生成する。例えば、4行の2N列の画素が配置された焦点検出領域を対象に、1行目と2行目のB信号から第1の分光特性(Gb)のB信号が生成され、3行目と4行目のB信号から第2の分光特性(Y)のB信号が生成される。これにより、水平、垂直方向に2画素ずつ信号が加算され、2行N列のB信号に圧縮される。このとき、1行目は第1の分光特性(Gb)のB信号、2行目は第2の分光特性(Y)のB信号となっている。S504およびS505の処理によって、第1の光電変換部と第2の光電変換部のそれぞれから、第1の分光特性の信号と第2の分光特性の信号とが取得されることとなる。 In S505, the image processing unit 20 generates a B signal with the first spectral characteristic and a B signal with the second spectral characteristic by the same processing as in S504. For example, for a focus detection area in which 4 rows of 2N-column pixels are arranged, a B signal of the first spectral characteristic (Gb) is generated from the B signals of the 1st row and the 2nd row, and the 3rd row is generated. The B signal of the second spectral characteristic (Y) is generated from the B signal of the fourth row. As a result, signals are added every two pixels in the horizontal and vertical directions, and compressed into B signals in 2 rows and N columns. At this time, the first line is the B signal of the first spectral characteristic (Gb), and the second line is the B signal of the second spectral characteristic (Y). By the processing of S504 and S505, the signal of the first spectral characteristic and the signal of the second spectral characteristic are acquired from each of the first photoelectric conversion unit and the second photoelectric conversion unit.

S506において、AF部42が、S504で生成された第1の分光特性のA信号と、S505で生成された第1の分光特性のB信号とに基づいて、第1の相関量COR(k)を算出する。また、S507において、AF部42が、S504で生成された第2の分光特性のA信号と、S505で生成された第2の分光特性のB信号とに基づいて、第2の相関量COR(k)を算出する。続いて、S508において、AF部42が、焦点検出領域の像高情報を取得する。AF部42が取得した焦点検出領域の像高情報は、S509で第3の相関量COR(k)を算出する際に用いられる。 In step S506, the AF unit 42 determines the first correlation amount COR(k) based on the A signal having the first spectral characteristic generated in step S504 and the B signal having the first spectral characteristic generated in step S505. To calculate. In step S507, the AF unit 42 causes the second correlation amount COR( based on the A signal of the second spectral characteristic generated in step S504 and the B signal of the second spectral characteristic generated in step S505. k) is calculated. Subsequently, in S508, the AF unit 42 acquires image height information of the focus detection area. The image height information of the focus detection area acquired by the AF unit 42 is used when calculating the third correlation amount COR(k) in S509.

次に、S509において、AF部42が、第1の相関量と第2の相関量を重み付けして、第3の相関量を算出する。第1の相関量に対して付与する第1の重みと、第2の相関量に対して付与する第2の重みについては、AF部42は、焦点検出領域の像高が、クロストークが発生しやすい周辺像高の場合に、第1の重みのほうが第2の重みよりも大きくなるように設定する。具体的には、AF部42は、焦点検出領域が閾値以下の像高のみを含む場合は、例えば、第1の重み:第2の重み=0:1と設定する。また、AF部42は、焦点検出領域が閾値以上の像高を含む場合は、例えば、第1の重み:第2の重み=1:0と設定する。また、AF部42は、像高に関する閾値を設けずに、焦点検出領域の像高に応じて重みを変更してもよい。焦点検出領域401、402の1行目と2行目の像信号対から第1の分光特性に応じた第1の相関量が生成され、3行目と4行目の像信号対から第2の分光特性に応じた第2の相関量が生成される。第1の相関量と第2の相関量をもとに、S509の処理により、1行分の第3の相関量が算出される。 Next, in S509, the AF unit 42 weights the first correlation amount and the second correlation amount, and calculates the third correlation amount. With respect to the first weight given to the first correlation amount and the second weight given to the second correlation amount, the AF unit 42 causes the image height of the focus detection region to cause crosstalk. When the peripheral image height is easy to perform, the first weight is set to be larger than the second weight. Specifically, when the focus detection area includes only the image height equal to or less than the threshold value, the AF unit 42 sets, for example, the first weight:the second weight=0:1. Further, when the focus detection area includes an image height equal to or larger than the threshold value, the AF unit 42 sets, for example, the first weight:the second weight=1:0. Further, the AF unit 42 may change the weight according to the image height of the focus detection area without providing a threshold value regarding the image height. The first correlation amount according to the first spectral characteristic is generated from the image signal pair of the first and second rows of the focus detection regions 401 and 402, and the second correlation signal is generated from the image signal pair of the third and fourth rows. A second correlation amount is generated according to the spectral characteristic of. Based on the first correlation amount and the second correlation amount, the third correlation amount for one row is calculated by the processing in S509.

次に、S510において、AF部42が、S509で算出された第3の相関量COR(k)を最小にするシフト量kを像ずれ量(位相差)として検出する。そして、AF部42が、検出した像ずれ量をデフォーカス量に変換する。AF部42は、デフォーカス量をシステム制御部50に出力する。そして、S511において、システム制御部50が、S510でAF部42から得られたデフォーカス量に基づき、撮影レンズ300のフォーカスレンズ駆動量および駆動方向を決定する。 Next, in S510, the AF unit 42 detects the shift amount k that minimizes the third correlation amount COR(k) calculated in S509 as the image shift amount (phase difference). Then, the AF unit 42 converts the detected image shift amount into a defocus amount. The AF unit 42 outputs the defocus amount to the system control unit 50. Then, in S511, the system control unit 50 determines the focus lens drive amount and drive direction of the taking lens 300 based on the defocus amount obtained from the AF unit 42 in S510.

S512において、システム制御部50が、インターフェース部38、338、コネクタ122、322を介して、フォーカスレンズ駆動量および駆動方向の情報を撮影レンズ300のレンズシステム制御部346に送信する。レンズシステム制御部346は、フォーカスレンズ駆動量および駆動方向の情報をフォーカス制御部342に送信する。フォーカス制御部342は、受信したレンズ駆動量と駆動方向の情報に基づいて、フォーカスレンズを駆動する。これにより、撮影レンズ300の焦点調節が行われる。なお、焦点調節動作は、次フレーム移行の動画データが読み出された際にも継続的に実行されてもよい。また、フォーカスレンズ駆動量および駆動方向の情報は、システム制御部50からフォーカス制御部342に直接送信されてもよい。 In step S512, the system control unit 50 transmits the focus lens drive amount and drive direction information to the lens system control unit 346 of the taking lens 300 via the interface units 38 and 338 and the connectors 122 and 322. The lens system control unit 346 transmits the focus lens drive amount and drive direction information to the focus control unit 342. The focus control unit 342 drives the focus lens based on the received information on the lens driving amount and the driving direction. As a result, the focus of the taking lens 300 is adjusted. The focus adjustment operation may be continuously executed even when the moving image data of the next frame is read. Further, the information about the focus lens drive amount and the drive direction may be directly transmitted from the system control unit 50 to the focus control unit 342.

(第1の分光特性、第2の分光特性のA信号生成のサブルーチン)
図14は、図13のS504、S504の処理を説明するフローチャートである。
図14(A)は、図13のS504の処理を示す。画像処理部20は、4N行分のA信号からN行分の第1の分光特性のA信号と、N行分の第2の分光特性のA信号を生成する。4N行分のA信号は、図9に示すように、RとGrのカラーフィルタを有する画素が交互に配置されている行と、GbとBのカラーフィルタを有する画素が交互に配置されている行が、交互に配置されている撮像素子を想定している。
(Subroutine of A signal generation of the first spectral characteristic and the second spectral characteristic)
FIG. 14 is a flowchart illustrating the processing of S504 and S504 of FIG.
FIG. 14A shows the process of S504 of FIG. The image processing unit 20 generates an A signal having a first spectral characteristic for N rows and an A signal having a second spectral characteristic for N rows from the A signals for 4N rows. As shown in FIG. 9, in the A signal for 4N rows, rows in which pixels having R and Gr color filters are alternately arranged and pixels having Gb and B color filters are alternately arranged. An image sensor in which rows are arranged alternately is assumed.

図14(A)のS5041において、画像処理部20が、4N+1行目のA信号と4N+2行目のA信号をメモリ30から読み出す。S5042において、画像処理部20が、第1の分光特性のA信号となるように、4N+1行目のA信号と4N+2行目のA信号を2行2列ずつ画素加算していく。画像処理部20は、例えば、R:Gr:B:Gb=0:0:0:1となるように重み付けた上で加算を行い、Gb信号を生成する。また、このときのR:Gr:B:Gbの比率は、クロストークの影響が小さくなるような重み付けであれば、任意の比率とすることができる。 In S5041 of FIG. 14A, the image processing unit 20 reads the A signal of the 4N+1th row and the A signal of the 4N+2th row from the memory 30. In step S5042, the image processing unit 20 pixel-adds the A signal of the 4N+1th row and the A signal of the 4N+2th row by two rows and two columns so that the A signal has the first spectral characteristic. The image processing unit 20 weights so that R:Gr:B:Gb=0:0:0:1, for example, and performs addition to generate a Gb signal. Further, the ratio of R:Gr:B:Gb at this time can be set to an arbitrary ratio as long as it is weighted so that the influence of crosstalk is reduced.

次に、S5043において、画像処理部20が、4N+3行目のA信号と4N+4行目のA信号をメモリ30から読み出す。S5044において、画像処理部20が、第1の分光特性のA信号となるように、4N+3行目のA信号と4N+4行目のA信号を2行2列ずつ画素加算していく。画像処理部20は、例えば、R:Gr:B:Gb=1:1:1:1となるように重み付けを行い、色毎の特性を有さないY信号を生成する。S5045において、システム制御部50が、4N行全ての処理が完了したかを判断する。処理が完了していない場合は、処理がS5041に戻る。4N行全ての処理が完了した場合は、図13のS505の処理に進む。 Next, in S5043, the image processing unit 20 reads out the A signal of the 4N+3th row and the A signal of the 4N+4th row from the memory 30. In step S5044, the image processing unit 20 pixel-adds the A signal on the 4N+3th row and the A signal on the 4N+4th row by 2 rows and 2 columns so that the A signal has the first spectral characteristic. The image processing unit 20 performs weighting so that R:Gr:B:Gb=1:1:1:1, for example, and generates a Y signal that does not have characteristics for each color. In S5045, the system control unit 50 determines whether or not the processing of all 4N rows has been completed. If the process is not completed, the process returns to S5041. When the processing of all 4N rows is completed, the process proceeds to S505 of FIG.

(第1の分光特性、第2の分光特性のB信号生成のサブルーチン)
図14(B)は、図13のS505の処理を示す。S5051において、画像処理部20が、メモリ30から4N+1行目と4N+2行目のB信号を読み出す。続いて、S5052において、画像処理部20が、N行目のB信号(Gb)を生成する。S5053において、画像処理部20が、メモリ30から4N+3行目と4N+4行目のB信号を読み出す。続いて、S5054において、画像処理部20が、N行目のB信号(Y)を生成する。S5055は、図14(A)のS5045と同様である。
(Sub-routine of B signal generation of the first spectral characteristic and the second spectral characteristic)
FIG. 14B shows the processing of S505 of FIG. In step S5051, the image processing unit 20 reads the B signals of the 4N+1th row and the 4N+2th row from the memory 30. Subsequently, in S5052, the image processing unit 20 generates the B signal (Gb) of the Nth row. In S5053, the image processing unit 20 reads the B signals of the 4N+3th row and the 4N+4th row from the memory 30. Subsequently, in S5054, the image processing unit 20 generates the B signal (Y) of the Nth row. S5055 is the same as S5045 in FIG.

(相関量算出のサブルーチン)
図15および図16は、相関量算出のサブルーチンを説明する図である。
図15(A)は、図13のS506における第1の相関量の算出処理を説明するフローチャートである。
S5061において、AF部42が、N行目の第1の分光特性(Gb)のA信号と、N行目の第1の分光特性(Gb)のB信号とに基づいて、第1の相関量COR(k)を算出する。相関量COR(k)の算出方法は、下記の通りである。位相差検出方式の焦点検出では、AF部42は、同じ被写体に対応する部分を有する1対の像を生成し、1対の像の位相差(ずれ量)を検出する。AF部42は、位相差をデフォーカス量および方向に変換する。所定方向(例えば水平方向)に存在する複数の画素200のPD201aから得られる第1の信号に基づく信号列(A像)と、PD201bから得られる第2の信号に基づく信号列(B像)とは、同じ被写体を違う視点からみた像に相当する。したがって、AF部42が、A像とB像の位相差を検出し、デフォーカス量および方向に変換することで、位相差検出方式の焦点検出を実現できる。そして、AF部42が、所定方向におけるA像とB像との相対距離(シフト量)を変更しながら、個々の位置においてA像とB像との相関を表す値(相関量)を算出し、相関が最も高くなるシフト量を、A像とB像との位相差として検出することができる。相関量は、例えば、対応信号値の差分累積値であるが、他の値を相関量として用いてもよい。
(Subroutine for calculating the correlation amount)
15 and 16 are diagrams for explaining the subroutine for calculating the correlation amount.
FIG. 15A is a flowchart illustrating the calculation processing of the first correlation amount in S506 of FIG.
In step S5061, the AF unit 42 determines the first correlation amount based on the A signal of the first spectral characteristic (Gb) of the Nth row and the B signal of the first spectral characteristic (Gb) of the Nth row. Calculate COR(k). The method of calculating the correlation amount COR(k) is as follows. In the focus detection using the phase difference detection method, the AF unit 42 generates a pair of images having portions corresponding to the same subject, and detects the phase difference (shift amount) between the pair of images. The AF unit 42 converts the phase difference into a defocus amount and a direction. A signal sequence (A image) based on the first signal obtained from the PDs 201a of the plurality of pixels 200 existing in a predetermined direction (for example, horizontal direction) and a signal sequence (B image) based on the second signal obtained from the PD 201b. Corresponds to an image of the same subject viewed from different viewpoints. Therefore, the AF unit 42 detects the phase difference between the A image and the B image and converts it into the defocus amount and the direction, whereby the focus detection of the phase difference detection method can be realized. Then, the AF unit 42 calculates a value (correlation amount) representing the correlation between the A image and the B image at each position while changing the relative distance (shift amount) between the A image and the B image in the predetermined direction. , The shift amount with the highest correlation can be detected as the phase difference between the A image and the B image. The correlation amount is, for example, a difference cumulative value of corresponding signal values, but another value may be used as the correlation amount.

例えば、A像としてA(1,1)〜A(1,N)を、B像としてB(1,1)〜B(1,N)を生成し、シフト量kを画素単位で−kmax≦k≦kmaxの範囲で変化させるとする。個々の相対位置における相関量COR(k)は、以下の式(1)で算出することができる。

Figure 2020085920
For example, A(1,1) to A(1,N) are generated as the A image, B(1,1) to B(1,N) are generated as the B image, and the shift amount k is -kmax≦ in pixel units. It is assumed that the value is changed within the range of k≦kmax. The correlation amount COR(k) at each relative position can be calculated by the following equation (1).
Figure 2020085920

次に、S5062において、AF部42が、N行全ての処理が終わったかを判断する。処理が終わっていない行がある場合は、処理がS5061に戻る。N行全ての処理が終わっている場合は、処理が図13のS507に進む。 Next, in S5062, the AF unit 42 determines whether or not the processing of all N rows has been completed. If there is a line that has not been processed, the process returns to S5061. If all the N rows have been processed, the process proceeds to S507 in FIG.

図15(B)は、図13のS507における第2の相関量の算出処理を説明するフローチャートである。
S5071において、AF部42は、N行目の第2分光特性(Y)のA信号と,N行目の第2分光特性(Y)のB信号とに基づいて、第2の相関量COR(k)を算出する。S5071における第2の相関量COR(k)の算出方法は、図15(A)のS5061における第1の相関量COR(k)の算出方法と同様である。続いて、S5072において、AF部42が、N行全ての処理が終わったかを判断する。処理が終わっていない行がある場合は、処理がS5071に戻る。N行全ての処理が終わっている場合は、処理が図13のS508に進む。
FIG. 15B is a flowchart illustrating the calculation processing of the second correlation amount in S507 of FIG.
In S5071, the AF unit 42, based on the A signal of the second spectral characteristic (Y) of the Nth row and the B signal of the second spectral characteristic (Y) of the Nth row, outputs the second correlation amount COR( k) is calculated. The method of calculating the second correlation amount COR(k) in S5071 is the same as the method of calculating the first correlation amount COR(k) in S5061 of FIG. Subsequently, in S5072, the AF unit 42 determines whether or not the processing of all N rows has been completed. If there is a line that has not been processed, the process returns to S5071. If all the N rows have been processed, the process proceeds to S508 in FIG.

図16は、図13のS509における第3の相関量の算出処理を説明するフローチャートである。
S5091において、AF部42が、図13のS508で取得された焦点検出領域情報に基づいて、焦点検出領域に閾値以上の像高が含まれているかを判断する。焦点検出領域に閾値以上の像高が含まれている場合は、処理がS5092に進む。焦点検出領域に閾値以上の像高が含まれていない場合は、処理がS5093に進む。
FIG. 16 is a flowchart illustrating the calculation processing of the third correlation amount in S509 of FIG.
In step S5091, the AF unit 42 determines whether the focus detection area includes an image height equal to or higher than a threshold based on the focus detection area information acquired in step S508 of FIG. If the focus detection area includes an image height equal to or higher than the threshold value, the process proceeds to S5092. If the focus detection area does not include an image height equal to or higher than the threshold value, the process proceeds to S5093.

S5092において、AF部42が、第1の重みを第2の重みより大きくする。例えば、AF部42は、第1の重み:第2の重み=1:0を設定する。焦点検出領域に周辺像高を含まれる場合に、クロストークの影響が予想される。したがって、AF部42は、第1の重み:第2の重み=1:0と設定することで、クロストークの影響が小さい第1の分光特性の信号のみを用いて焦点検出が行われるようにする。S5092の処理の後、処理がS5094に進む。 In S5092, the AF unit 42 makes the first weight larger than the second weight. For example, the AF unit 42 sets the first weight:the second weight=1:0. The influence of crosstalk is expected when the peripheral image height is included in the focus detection area. Therefore, the AF unit 42 sets the first weight:the second weight=1:0 so that the focus detection is performed using only the signal of the first spectral characteristic that is less affected by the crosstalk. To do. After the processing of S5092, the processing proceeds to S5094.

S5093において、AF部42が、第2の重みを第1の重みより大きくする。例えば、AF部42は、第1の重み:第2の重み=0:1を設定する。また、SN比が良くない場合であって、全ての行の信号を焦点検出に用いるのが好ましいときは、S5093において、AF部42が、第1の重み:第2の重み=1:1とすることで、第1の重みと第2の重みを同じ大きさに設定してもよい。この設定は、読み出した信号を全てて加算し、ノイズを低減することを目的としている。 In S5093, the AF unit 42 makes the second weight larger than the first weight. For example, the AF unit 42 sets the first weight:the second weight=0:1. If the SN ratio is not good and it is preferable to use the signals of all rows for focus detection, the AF unit 42 sets the first weight:the second weight=1:1 in step S5093. By doing so, the first weight and the second weight may be set to the same size. This setting is intended to reduce noise by adding all read signals.

次に、S5094において、AF部42が、N行目の第1の相関量とN行目の第2の相関量とを重み付けした上で加算することで、N行目の第3の相関量を算出する。重み付けの際には、AF部42は、第1の相関量に対して第1の重みを付与する。また、AF部42は、第2の相関量に対して第2の重みを付与する。 Next, in step S5094, the AF unit 42 weights and adds the first correlation amount of the Nth row and the second correlation amount of the Nth row to obtain the third correlation amount of the Nth row. To calculate. At the time of weighting, the AF unit 42 gives a first weight to the first correlation amount. The AF unit 42 also gives a second weight to the second correlation amount.

次に、S5095において、システム制御部50が、N行全ての処理が完了したかを判断する。処理が完了していない行がある場合は、処理がS5094に戻る。N行全ての処理が完了した場合は、処理が図13のS510に進む。なお、AF部42が、公知の方法を用いて、第3の相関量の信頼度を算出し、算出した信頼度の大きさに応じて、第1の重みまたは第2の重みの大きさ、あるいは、第1の重みと第2の重みとの比率を変更するようにしてもよい。 Next, in S5095, the system control unit 50 determines whether or not the processing of all N rows has been completed. If there is a row for which the processing has not been completed, the processing returns to S5094. When the processing for all N rows is completed, the processing proceeds to S510 in FIG. The AF unit 42 calculates the reliability of the third correlation amount using a known method, and according to the calculated reliability, the first weight or the second weight, Alternatively, the ratio between the first weight and the second weight may be changed.

(デフォーカス量算出のサブルーチン)
図17は、図13のS510におけるデフォーカス量の算出処理を説明するフローチャートである。
まず、S5101において、AF部42が、図13のS509で算出した第3の相関量をメモリ30から読み出す。続いて、S5102において、AF部42が、相関量の行加算判定を実行する。焦点検出領域内に複数の行が存在し、相関演算を行う場合、AF部42が、相関量の行加算を行うと判定する。ただし、相関演算を行う行によっては、飽和などにより、信頼性の高い焦点検出結果が得られない行も存在する。したがって、相関量の行加算判定において、AF部42は、得られたN行目の第3の相関量を、事前に加算されている第3の相関量に対して加算するかを判定する。具体的には、S5102で読み出した第3の相関量の信頼度が閾値以上である場合は、AF部42が、第3の相関量を加算すると判定する。第3の相関量の信頼度が閾値未満である場合は、AF部42が、第3の相関量の行加算を行なわないと判定する。
(Defocus amount calculation subroutine)
FIG. 17 is a flowchart illustrating the defocus amount calculation process in S510 of FIG.
First, in S5101, the AF unit 42 reads the third correlation amount calculated in S509 of FIG. 13 from the memory 30. Subsequently, in step S5102, the AF unit 42 executes the row addition determination of the correlation amount. When there are a plurality of rows in the focus detection area and the correlation calculation is performed, the AF unit 42 determines to perform row addition of the correlation amount. However, depending on the row for which the correlation calculation is performed, there is a row for which a highly reliable focus detection result cannot be obtained due to saturation or the like. Therefore, in the row addition determination of the correlation amount, the AF unit 42 determines whether to add the obtained third correlation amount of the Nth row to the previously added third correlation amount. Specifically, when the reliability of the third correlation amount read out in S5102 is equal to or higher than the threshold value, the AF unit 42 determines to add the third correlation amount. When the reliability of the third correlation amount is less than the threshold value, the AF unit 42 determines not to perform the row addition of the third correlation amount.

S5103において、AF部42が、S5102での判定結果を確認する。そして、判定結果が、相関量の行加算を行うことを示す場合には、処理がS5104に進む。判定結果が、相関量の行加算を行なわないことを示す場合は、処理がS5105に進む。S5104において、AF部42が、事前に得ていた第3の相関量の加算結果に対して、S5101で得られたN行目の第3の相関量を加算する。 In S5103, the AF unit 42 confirms the determination result in S5102. Then, if the determination result indicates that the row addition of the correlation amount is performed, the process proceeds to S5104. If the determination result shows that the row addition of the correlation amount is not performed, the process proceeds to S5105. In S5104, the AF unit 42 adds the third correlation amount of the Nth row obtained in S5101 to the addition result of the third correlation amount obtained in advance.

次に、S5105において、AF部42が、焦点検出領域内の全行について処理を完了したか(相関演算を行ったか)を判断する。処理を終えていない行がある場合は、処理がS5101に戻る。焦点検出領域内の全行について処理を完了した場合は、処理がS5106に進む。 Next, in step S5105, the AF unit 42 determines whether processing has been completed for all rows in the focus detection area (whether correlation calculation has been performed). If there is a line that has not been processed, the process returns to S5101. If the processing has been completed for all the rows in the focus detection area, the processing proceeds to S5106.

S5106において、AF部42が、S5101乃至S5105の処理により得られた第3の相関量COR(k)に基づいて、デフォーカス量を算出する。まず、AF部42は、COR(k)を最小にするシフト量kの値を求める。ここで、前述した式(1)によると、算出されるシフト量kは整数であるが、分解能を向上させるため、最終的に求めるシフト量kは実数とする。例えば、式(1)によって得られる最小値がCOR(a)である場合、AF部42は、COR(a−1)、COR(a)、COR(a+1)からの補間演算を行って、この区間での相関量を最小にする実数値のシフト量を求める。 In S5106, the AF unit 42 calculates the defocus amount based on the third correlation amount COR(k) obtained by the processes of S5101 to S5105. First, the AF unit 42 obtains the value of the shift amount k that minimizes COR(k). Here, according to the above-mentioned formula (1), the calculated shift amount k is an integer, but in order to improve the resolution, the finally obtained shift amount k is a real number. For example, when the minimum value obtained by the equation (1) is COR(a), the AF unit 42 performs interpolation calculation from COR(a-1), COR(a), and COR(a+1), Find the real-valued shift amount that minimizes the correlation amount in the interval.

本実施形態では、AF部42は、相関量CORの差分値の符号が変化するシフト量dkを、相関量COR1(k)が最小となるシフト量kとして算出する。まず、AF部42は、相関量の差分値DCORを、以下の式(2)に基づいて、算出する。
DCOR(k)=COR1(k)−COR1(k−1)・・・式(2)
そして、AF部42は、相関量の差分値DCORを用いて、差分量の符号が変化するシフト量dkを求める。差分量の符号が変化する直前のkの値をk1、符号が変化したkの値をk2(k2=k1+1)とすると、AF部42は、シフト量dkを、以下の式(3)に基づいて算出する。
dk=k1+|DCOR(k1)|/|DCOR(k1)−DCOR(k2)|
・・・式(3)
In the present embodiment, the AF unit 42 calculates the shift amount dk at which the sign of the difference value of the correlation amount COR changes as the shift amount k at which the correlation amount COR1(k) becomes the minimum. First, the AF unit 42 calculates the difference value DCOR of the correlation amount based on the following equation (2).
DCOR(k)=COR1(k)-COR1(k-1)... Formula (2)
Then, the AF unit 42 uses the difference value DCOR of the correlation amount to obtain the shift amount dk in which the sign of the difference amount changes. Assuming that the value of k immediately before the sign of the difference amount changes is k1 and the value of k when the sign changes is k2 (k2=k1+1), the AF unit 42 calculates the shift amount dk based on the following equation (3). To calculate.
dk=k1+|DCOR(k1)|/|DCOR(k1)-DCOR(k2)|
...Formula (3)

以上のようにして、AF部42は、A像とB像の相関量が最大となるシフト量dkをサブピクセル単位で算出する。なお、2つの1次元像信号の位相差を算出する方法としては、上述した方法に限らず、公知の任意の方法を用いることができる。 As described above, the AF unit 42 calculates the shift amount dk that maximizes the correlation amount between the A image and the B image in subpixel units. The method for calculating the phase difference between the two one-dimensional image signals is not limited to the method described above, and any known method can be used.

AF部42は、算出したシフト量dkに対して、所定のデフォーカス換算係数を乗じることで、デフォーカス量Defに変換する。デフォーカス換算係数は、撮影時の光学条件(絞り、射出瞳距離、レンズ枠情報など)や、焦点検出領域の像高、A像、B像を構成する信号のサンプリングピッチなどから求めることができる。S5106におけるデフォーカス量の算出が完了すると、デフォーカス量の算出処理のサブルーチンが終了し、処理が図13のS511に進む。 The AF unit 42 converts the calculated shift amount dk into a defocus amount Def by multiplying it by a predetermined defocus conversion coefficient. The defocus conversion coefficient can be obtained from optical conditions at the time of shooting (aperture, exit pupil distance, lens frame information, etc.), the image height of the focus detection area, the sampling pitch of the signals forming the A image, and the B image. . When the calculation of the defocus amount in S5106 is completed, the subroutine of the defocus amount calculation process ends, and the process proceeds to S511 in FIG.

本実施形態の撮像装置は、クロストークの影響が少ない第1の分光特性の相関量と、クロストークの影響を考慮しない第2の分光特性の相関量に対して、焦点検出領域の像高に応じて重み付けを行って加算した結果に基づいて、焦点検出処理を実行する。これにより、クロストークの影響やクロストーク補正などで信号に誤差が含まれる場合でも、検出精度に関して信頼性の高い焦点検出結果を得ることができる。 The image pickup apparatus according to the present embodiment sets the image height of the focus detection region in relation to the correlation amount of the first spectral characteristic that is less affected by crosstalk and the correlation amount of the second spectral characteristic that does not consider the influence of crosstalk. Focus detection processing is executed based on the result of weighting and adding accordingly. As a result, even when the signal includes an error due to the influence of crosstalk or crosstalk correction, it is possible to obtain a focus detection result with high reliability regarding detection accuracy.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

50 システム制御部
100 カメラ
300 撮影レンズ
50 system control unit 100 camera 300 shooting lens

Claims (12)

撮像光学系の互いに異なる瞳領域を通過する光束を受光する複数の光電変換部を有する撮像素子と、
第1の瞳領域を通過する光束を受光する第1の光電変換部と、第2の瞳領域を通過する光束を受光する第2の光電変換部のそれぞれから、第1の分光特性の信号と第2の分光特性の信号を取得する取得手段と、
前記第1の分光特性の信号に基づき算出される第1の相関量と、前記第2の分光特性の信号に基づき算出される第2の相関量とに対して重み付けを行って、第3の相関量を算出する制御手段と、を有し、
前記制御手段は、焦点検出領域の像高に応じて、前記第1の相関量と第2の相関量とに対する重みの大きさを制御する
ことを特徴とする撮像装置。
An image pickup device having a plurality of photoelectric conversion units that receive light fluxes that pass through mutually different pupil regions of the image pickup optical system,
The first photoelectric conversion unit that receives the light flux that passes through the first pupil region and the second photoelectric conversion unit that receives the light flux that passes through the second pupil region respectively have a signal of the first spectral characteristic. Acquisition means for acquiring a signal having the second spectral characteristic,
The first correlation amount calculated based on the signal of the first spectral characteristic and the second correlation amount calculated based on the signal of the second spectral characteristic are weighted to obtain the third correlation amount. And a control means for calculating the correlation amount,
The image pickup apparatus, wherein the control unit controls the magnitude of the weight for the first correlation amount and the second correlation amount according to the image height of the focus detection area.
前記取得手段は、
前記第1の光電変換部から、前記第1の分光特性の第1の信号と前記第2の分光特性の第2の信号とを取得し、前記第2の光電変換部から、前記第1の分光特性の第3の信号と前記第2の分光特性の第4の信号とを取得し、
前記制御手段は、前記第1の信号と前記第3の信号とに基づいて、前記第1の相関量を算出し、前記第2の信号と前記第4の信号とに基づいて、前記第2の相関量を算出する
ことを特徴とする請求項1に記載の撮像装置。
The acquisition means is
The first signal having the first spectral characteristic and the second signal having the second spectral characteristic are acquired from the first photoelectric conversion unit, and the first signal having the first spectral characteristic is acquired from the second photoelectric conversion unit. Acquiring a third signal of the spectral characteristic and a fourth signal of the second spectral characteristic,
The control means calculates the first correlation amount based on the first signal and the third signal, and the second correlation amount based on the second signal and the fourth signal. The image pickup apparatus according to claim 1, wherein a correlation amount of 1 is calculated.
前記制御手段は、前記焦点検出領域の像高に閾値以上の像高が含まれる場合に、前記第1の相関量に対する重みである第1の重みを、前記第2の相関量に対する重みである第2の重みより大きくする
ことを特徴とする請求項1または請求項2に記載の撮像装置。
When the image height of the focus detection area includes an image height equal to or more than a threshold value, the control unit sets a first weight, which is a weight for the first correlation amount, to a weight for the second correlation amount. The image pickup device according to claim 1, wherein the image pickup device has a weight greater than the second weight.
前記制御手段は、前記焦点検出領域の像高に閾値以上の像高が含まれる場合に、前記第1の相関量のみを用いて、前記第3の相関量を算出する
ことを特徴とする請求項3に記載の撮像装置。
The control unit calculates the third correlation amount by using only the first correlation amount when the image height of the focus detection region includes an image height equal to or more than a threshold value. Item 3. The imaging device according to item 3.
前記制御手段は、前記焦点検出領域の像高に閾値以上の像高が含まれない場合に、前記第2の重みを前記第1の重みより大きくする
ことを特徴とする請求項3または請求項4に記載の撮像装置。
The control unit sets the second weight to be larger than the first weight when the image height of the focus detection area does not include an image height equal to or more than a threshold value. The imaging device according to item 4.
前記制御手段は、前記第3の相関量に基づいて、焦点検出処理を実行する
ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The image pickup apparatus according to claim 1, wherein the control unit executes a focus detection process based on the third correlation amount.
前記制御手段は、前記第3の相関量の信頼度に応じて、前記第1の相関量と第2の相関量とに対する重みを変更する
ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。
7. The control unit changes the weights for the first correlation amount and the second correlation amount according to the reliability of the third correlation amount. The imaging device according to the item.
前記第1の分光特性の波長帯域は、前記第2の分光特性の波長帯域よりも狭い
ことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 7, wherein the wavelength band of the first spectral characteristic is narrower than the wavelength band of the second spectral characteristic.
前記撮像素子は、1つのマイクロレンズに対して前記複数の光電変換部を有する画素を備える
ことを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
The image pickup device according to claim 1, wherein the image pickup device includes a pixel having the plurality of photoelectric conversion units with respect to one microlens.
前記画素は、分光特性の異なる複数の色のいずれかに対応するカラーフィルタを有しており、
前記取得手段は、複数の前記画素の出力を重み付けした上で加算することで、前記第1の分光特性の信号と前記第2の分光特性の信号とを取得する
ことを特徴とする請求項9に記載の撮像装置。
The pixel has a color filter corresponding to any of a plurality of colors having different spectral characteristics,
The acquisition unit acquires the signal of the first spectral characteristic and the signal of the second spectral characteristic by weighting and adding outputs of the plurality of pixels. The imaging device according to.
前記取得手段は、第1の領域の画素の出力に基づいて、前記第1の分光特性の信号を取得し、第2の領域の画素の出力に基づいて、前記第2の分光特性の信号を取得する
ことを特徴とする請求項10に記載の撮像装置。
The acquisition unit acquires the signal of the first spectral characteristic based on the output of the pixel of the first area, and acquires the signal of the second spectral characteristic based on the output of the pixel of the second area. The image capturing apparatus according to claim 10, wherein the image capturing apparatus acquires.
撮像光学系の互いに異なる瞳領域を通過する光束を受光する複数の光電変換部を有する撮像素子を有する撮像装置の制御方法であって、
第1の瞳領域を通過する光束を受光する第1の光電変換部と、第2の瞳領域を通過する光束を受光する第2の光電変換部のそれぞれから、第1の分光特性の信号と第2の分光特性の信号を取得する取得工程と、
前記第1の分光特性の信号に基づき算出される第1の相関量と、前記第2の分光特性の信号に基づき算出される第2の相関量とに対して重み付けを行って、第3の相関量を算出する制御工程と、を有し、
前記制御工程では、焦点検出領域の像高に応じて、前記第1の相関量と第2の相関量とに対する重みの大きさを制御する
ことを特徴とする制御方法。
A control method for an image pickup apparatus having an image pickup device having a plurality of photoelectric conversion units for receiving light fluxes passing through different pupil regions of an image pickup optical system,
The first photoelectric conversion unit that receives the light flux that passes through the first pupil region and the second photoelectric conversion unit that receives the light flux that passes through the second pupil region respectively have a signal of the first spectral characteristic. An acquisition step of acquiring a signal of the second spectral characteristic,
The first correlation amount calculated based on the signal of the first spectral characteristic and the second correlation amount calculated based on the signal of the second spectral characteristic are weighted to obtain the third correlation amount. And a control step of calculating a correlation amount,
In the control step, the weight of the first correlation amount and the second correlation amount is controlled according to the image height of the focus detection area.
JP2018214390A 2018-11-15 2018-11-15 Imaging device and control method of the same Pending JP2020085920A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018214390A JP2020085920A (en) 2018-11-15 2018-11-15 Imaging device and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018214390A JP2020085920A (en) 2018-11-15 2018-11-15 Imaging device and control method of the same

Publications (1)

Publication Number Publication Date
JP2020085920A true JP2020085920A (en) 2020-06-04

Family

ID=70907718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214390A Pending JP2020085920A (en) 2018-11-15 2018-11-15 Imaging device and control method of the same

Country Status (1)

Country Link
JP (1) JP2020085920A (en)

Similar Documents

Publication Publication Date Title
JP6405243B2 (en) Focus detection apparatus and control method thereof
JP6906360B2 (en) Focus detector and its control method
JP5361535B2 (en) Imaging device
US8902349B2 (en) Image pickup apparatus
JP7195120B2 (en) Imaging device and its control method
JP6530593B2 (en) Imaging device, control method therefor, storage medium
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
US10412295B2 (en) Image capturing apparatus and control method thereof, and storage medium
JP6529387B2 (en) Imaging device, control method therefor, program, storage medium
JP6941011B2 (en) Imaging device and its control method, program, storage medium
JP7130473B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP6758964B2 (en) Control device, image pickup device, control method, program, and storage medium
CN106993110B (en) Image pickup apparatus and control method thereof
US11025884B2 (en) Image capturing apparatus, control method thereof, and storage medium
JP7005313B2 (en) Imaging device and its control method, program, storage medium
JP2020085920A (en) Imaging device and control method of the same
JP7157642B2 (en) IMAGING DEVICE, CONTROL METHOD, AND PROGRAM
JP7066458B2 (en) Imaging device and its control method, program
JP6711886B2 (en) Imaging device, control method thereof, program, and storage medium
JP2019117333A (en) Imaging device and control method therefor
JP2016218157A (en) Focus detection device and method for controlling the same