JP2023057134A - Image pickup device and imaging apparatus - Google Patents

Image pickup device and imaging apparatus Download PDF

Info

Publication number
JP2023057134A
JP2023057134A JP2023021862A JP2023021862A JP2023057134A JP 2023057134 A JP2023057134 A JP 2023057134A JP 2023021862 A JP2023021862 A JP 2023021862A JP 2023021862 A JP2023021862 A JP 2023021862A JP 2023057134 A JP2023057134 A JP 2023057134A
Authority
JP
Japan
Prior art keywords
signal
unit
pixel
photoelectric conversion
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023021862A
Other languages
Japanese (ja)
Inventor
顯 佐々木
Akira Sasaki
美絵 石井
Mie Ishii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016144756A external-priority patent/JP6929027B2/en
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2023057134A publication Critical patent/JP2023057134A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device that can reduce as much as possible the time required for outputting a signal necessary for the drive control of an imaging apparatus from the image pickup device.
SOLUTION: An image pickup device comprises: a pixel unit in which a plurality of unit pixels each having one microlens and a plurality of photoelectric conversion units are arranged in a matrix shape; a signal holding unit that holds a signal corresponding to electric charges accumulated in one photoelectric conversion unit of the plurality of photoelectric conversion units in each of the unit pixels, and a signal corresponding to electric charges obtained by mixing the electric charges accumulated in all of the plurality of photoelectric conversion units; and an output unit that outputs a signal based on the signal corresponding to electric charges accumulated in one photoelectric conversion unit of the plurality of photoelectric conversion units in each of the unit pixels and the signal corresponding to electric charges obtained by mixing the electric charges accumulated in all of the plurality of photoelectric conversion units, which are held by the signal holding unit. The pixel unit is formed on a first semiconductor substrate, and the signal holding unit is formed on a second semiconductor substrate different from the first semiconductor substrate. The first semiconductor substrate and the second semiconductor substrate are laminated with each other.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、撮像素子及び撮像装置に関するものである。 The present invention relates to an imaging device and an imaging device.

近年、CMOS撮像素子などを用いた撮像装置において、様々なニーズに対応するべく高機能化、多機能化が進んでいる。CMOS撮像素子は、多画素化、高速撮像化が進み、より高速に画素信号を読み出せる方式への要求が高まっている。 2. Description of the Related Art In recent years, imaging apparatuses using CMOS imaging elements and the like are becoming more sophisticated and multi-functional in order to meet various needs. CMOS imaging devices are becoming more pixel-rich and faster, and there is an increasing demand for a system that can read out pixel signals at higher speeds.

例えば、高速読み出しを行う方式としては、特許文献1に記載されているように、列毎にアナログ/デジタル変換回路(以下、列ADC)を配置し、デジタル出力を行う方式が近年普及している。列ADCを導入することで、撮像素子の外部への画素信号の伝送をデジタルで行うことが可能となり、デジタル信号伝送の技術向上に伴い、高速読み出しが可能となる。 For example, as a method for performing high-speed readout, as described in Patent Document 1, a method of arranging an analog/digital conversion circuit (hereinafter referred to as a column ADC) for each column and performing digital output has become widespread in recent years. . By introducing a column ADC, it becomes possible to perform digital transmission of pixel signals to the outside of the image pickup device, and high-speed readout becomes possible as technology for digital signal transmission improves.

一方、多機能化の例としては、例えば光の強度分布のみならず、光の入射方向や距離情報をも取得可能な撮像装置が提案されている。特許文献2では、撮像素子から得られた信号を用いて焦点検出が可能な撮像素子について開示されている。1つのマイクロレンズに対応するフォトダイオード(以下、PD)を2つに分割することによって、各PDが撮影レンズの異なる瞳面の光を受光するように構成されている。そして、2つのPDの出力を比較することによって、焦点検出を行っている。また、単位画素を構成する2つのPDからの出力信号を加算することで、通常の撮像画像を得ることもできる。 On the other hand, as an example of multifunctionality, an imaging device capable of acquiring not only the light intensity distribution but also the light incident direction and distance information has been proposed. Japanese Patent Application Laid-Open No. 2002-200000 discloses an image pickup device capable of focus detection using a signal obtained from the image pickup device. By dividing a photodiode (PD) corresponding to one microlens into two, each PD is configured to receive light from different pupil planes of the photographing lens. Focus detection is performed by comparing the outputs of the two PDs. Also, by adding the output signals from two PDs forming a unit pixel, a normal captured image can be obtained.

また、特許文献3に記載の撮像装置は、ライブビュー表示のための撮像用信号、焦点検出用信号、露光制御用信号を、同じフレームの一回の垂直走査で固体撮像素子から読み出すモードを備えている。そして、特許文献3に記載の撮像装置は、焦点検出制御および露光制御の両方を高速化した上でライブビュー表示ができるとしている。 Further, the imaging apparatus described in Patent Document 3 has a mode in which an imaging signal for live view display, a focus detection signal, and an exposure control signal are read out from the solid-state imaging device in one vertical scan of the same frame. ing. The imaging apparatus described in Japanese Patent Laid-Open No. 2002-200001 is capable of performing live view display while speeding up both focus detection control and exposure control.

特開2005-278135号公報JP-A-2005-278135 特許第3774597号公報Japanese Patent No. 3774597 特開2009-89105号公報JP 2009-89105 A

しかし、特許文献2、特許文献3に開示されているような撮像素子において焦点検出や露光制御を行う場合、全てのPDの信号を読み出す必要があるため、PDの信号を読み出すのに必要な時間が長くなり、フレームレートが下がってしまうという課題がある。特許文献1のように列ADCを用いた読み出し方式により信号読み出し時間を高速化しても、今後更なる多画素化、高フレームレート化が進むことが予想され、信号読み出し時間の更なる短縮が望まれる。 However, when performing focus detection and exposure control in an image sensor as disclosed in Patent Documents 2 and 3, it is necessary to read out all PD signals. becomes longer and the frame rate drops. Even if the signal readout time is increased by a readout method using a column ADC as in Patent Document 1, it is expected that the number of pixels and the frame rate will be further increased in the future, and it is desirable to further shorten the signal readout time. be

本発明は、上述した課題に鑑みてなされたものであり、その目的は、焦点検出信号のような撮像装置の駆動制御に必要な信号を撮像素子から出力するためにかかる時間を大幅に短縮できる撮像素子を提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and an object of the present invention is to significantly reduce the time required to output a signal, such as a focus detection signal, necessary for drive control of an image pickup device from an image pickup device. It is to provide an imaging device.

本発明に係わる撮像素子は、各々が1つのマイクロレンズと複数の光電変換部とを有する単位画素が行列状に複数配列された画素部と、前記単位画素の各々における前記複数の光電変換部のうちの一部の光電変換部に蓄積された電荷に対応する信号と、前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号とを保持する信号保持部と、前記信号保持部に保持された前記複数の単位画素の各々における前記複数の光電変換部のうちの一部の光電変換部に蓄積された電荷に対応する信号および前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号に基づく信号を出力する出力部と、を備え、前記画素部が第1の半導体基板に形成されるとともに、前記信号保持部が前記第1の半導体基板と異なる第2の半導体基板に形成され、前記第1の半導体基板と前記第2の半導体基板は互いに積層されていることを特徴とする。 An imaging device according to the present invention includes a pixel section in which a plurality of unit pixels each having one microlens and a plurality of photoelectric conversion sections are arranged in a matrix, and the plurality of photoelectric conversion sections in each of the unit pixels. Signal holding for holding a signal corresponding to charges accumulated in some of the photoelectric conversion units and a signal corresponding to charges obtained by mixing the charges accumulated in all of the plurality of photoelectric conversion units a signal corresponding to charges accumulated in some of the plurality of photoelectric conversion units in each of the plurality of unit pixels held in the signal holding unit and the plurality of photoelectric conversion units; and an output unit for outputting a signal based on a signal corresponding to the charge obtained by mixing the charges accumulated in all of the above, wherein the pixel unit is formed on the first semiconductor substrate, and the signal holding A part is formed on a second semiconductor substrate different from the first semiconductor substrate, and the first semiconductor substrate and the second semiconductor substrate are stacked on each other.

本発明によれば、焦点検出信号のような撮像装置の駆動制御に必要な信号を撮像素子から出力するためにかかる時間を大幅に短縮できる撮像素子を提供することが可能となる。 According to the present invention, it is possible to provide an imaging device capable of greatly shortening the time required to output a signal, such as a focus detection signal, necessary for drive control of an imaging device from the imaging device.

本発明の第1の実施形態に係わる撮像装置の構成を示すブロック図。1 is a block diagram showing the configuration of an imaging device according to a first embodiment of the present invention; FIG. 第1の実施形態の撮像素子の単位画素の構成を説明する図。4A and 4B are diagrams for explaining the configuration of a unit pixel of the image sensor according to the first embodiment; FIG. 撮影レンズの射出瞳から出射された光束が単位画素に入射する概念図。FIG. 4 is a conceptual diagram of a luminous flux emitted from an exit pupil of a photographing lens and incident on a unit pixel; 第1の実施形態の撮像素子の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of the imaging element of the first embodiment; FIG. 第1の実施形態の撮像素子の画素回路及び読み出し回路を説明する図。4A and 4B are diagrams for explaining a pixel circuit and a readout circuit of the image sensor according to the first embodiment; FIG. 第1の実施形態の撮像素子の信号読み出し動作を示すタイミングチャート。4 is a timing chart showing a signal readout operation of the imaging element of the first embodiment; 第1の実施形態の撮像素子における信号処理部の構成を説明する図。FIG. 4 is a diagram for explaining the configuration of a signal processing unit in the image sensor according to the first embodiment; 第2の実施形態の画素領域における焦点検出用信号出力領域を示した図。FIG. 10 is a diagram showing a focus detection signal output area in a pixel area according to the second embodiment; 本発明の第3の実施形態に係わる撮像装置の構成を示すブロック図。FIG. 11 is a block diagram showing the configuration of an imaging device according to a third embodiment of the present invention; 第3の実施形態における撮像面位相差AFの処理の流れを示すフローチャート。10 is a flow chart showing the flow of imaging plane phase difference AF processing in the third embodiment. 第3の実施形態における焦点検出領域の選択画面を示す図。FIG. 11 is a view showing a selection screen for focus detection areas according to the third embodiment; 第3の実施形態における被写体検出結果画面を示す図。FIG. 11 is a view showing a subject detection result screen according to the third embodiment; FIG. 第4の実施形態の撮像素子の構成を説明する図。The figure explaining the structure of the image pick-up element of 4th Embodiment. 第4の実施形態の撮像素子の画素回路及び読み出し回路を説明する図。FIG. 10 is a diagram for explaining a pixel circuit and a readout circuit of an image sensor according to a fourth embodiment; 第5の実施形態の撮像素子の全体構成図。The whole block diagram of the image pick-up element of 5th Embodiment. 第5の実施形態の撮像素子の全体構成図。The whole block diagram of the image pick-up element of 5th Embodiment. 第6の実施形態の撮像素子の全体構成図。The whole block diagram of the image pick-up element of 6th Embodiment. 第7の実施形態に係わる撮像装置の構成を示すブロック図。FIG. 11 is a block diagram showing the configuration of an imaging device according to the seventh embodiment; 第8の実施形態に係わる撮像装置の構成を示すブロック図。FIG. 11 is a block diagram showing the configuration of an imaging device according to an eighth embodiment;

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態の撮像素子を有する撮像装置の構成を示すブロック図である。撮像素子100は、受光部102、読み出し部103、制御部104、信号処理部105、出力部106を備えて構成される。受光部102は、複数の単位画素が行列状に配置されており、撮影レンズ101により結像された光学像を受光する。受光部102の構成については後述する。読出し部(AD変換部)103は、制御部104の駆動制御信号を受けて、受光部102から出力される画像信号をA/D変換し、信号処理部105に送る。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of an image pickup apparatus having an image pickup device according to the first embodiment of the present invention. The imaging device 100 includes a light receiving section 102 , a reading section 103 , a control section 104 , a signal processing section 105 and an output section 106 . The light receiving unit 102 has a plurality of unit pixels arranged in a matrix and receives an optical image formed by the imaging lens 101 . A configuration of the light receiving unit 102 will be described later. A reading unit (AD conversion unit) 103 receives a drive control signal from the control unit 104 , A/D converts the image signal output from the light receiving unit 102 , and sends the signal to the signal processing unit 105 .

信号処理部105は、A/D変換された画像信号に対して、信号の加算、減算、乗算等の演算処理や、出力部106を介して撮像素子100から外部に出力する信号の選択処理などを行う。また、信号処理部105では、基準レベル調整等の各種補正やデータの並べ替えなども行う。これらの処理は、制御部104からの制御信号を受けて実行される。信号処理部105の詳細は後述するが、信号処理部105においては、受光部102から得られた画像信号に対して、撮像画像用の信号処理と焦点検出用の信号処理を行い、それらを出力部106に送る。出力部106は、信号処理部105により処理された画像信号を撮像素子100の外部に出力する。 The signal processing unit 105 performs arithmetic processing such as signal addition, subtraction, and multiplication on the A/D-converted image signal, selection processing of signals to be output from the image sensor 100 to the outside via the output unit 106, and the like. I do. The signal processing unit 105 also performs various corrections such as reference level adjustment and data rearrangement. These processes are executed upon receiving control signals from the control unit 104 . Although the details of the signal processing unit 105 will be described later, the signal processing unit 105 performs signal processing for captured image and signal processing for focus detection on the image signal obtained from the light receiving unit 102, and outputs them. Send to section 106 . The output unit 106 outputs the image signal processed by the signal processing unit 105 to the outside of the imaging device 100 .

画像処理部107は、撮像素子100の出力部106から撮像画像用の信号を受け取り、欠陥画素の補正、ノイズリダクション、色変換、ホワイトバランス補正、画像補正等の画像処理や、解像度変換処理、画像圧縮処理などを行い、静止画像や動画像を生成する。位相差検出部108は、出力部106からの焦点検出用の信号を受けて、焦点検出を行うための位相差評価値を算出する。 The image processing unit 107 receives a captured image signal from the output unit 106 of the image sensor 100, and performs image processing such as defective pixel correction, noise reduction, color conversion, white balance correction, image correction, resolution conversion processing, image processing, and so on. Performs compression processing, etc., and generates still images and moving images. A phase difference detection unit 108 receives a focus detection signal from the output unit 106 and calculates a phase difference evaluation value for focus detection.

全体制御・演算部109は、撮像素子100や撮像装置全体の統括的な駆動及び制御を行う。表示部110は、撮影後の画像やライブビュー画像、各種設定画面等を表示する。記録部111及びメモリ部112は、全体制御・演算部109から出力された画像信号等を記録保持する不揮発性メモリあるいはメモリカード等の記録媒体である。操作部113は、撮像装置に備え付けられた操作部材によりユーザーの命令を受け付け、全体制御・演算回路106にその命令を入力する。レンズ制御部114は、位相差検出部108で算出された位相差評価値に基づいて光学系駆動情報を算出し、撮影レンズ101のフォーカスレンズ位置を制御する。 An overall control/calculation unit 109 performs overall driving and control of the imaging element 100 and the imaging apparatus as a whole. The display unit 110 displays an image after shooting, a live view image, various setting screens, and the like. A recording unit 111 and a memory unit 112 are recording media such as a non-volatile memory or a memory card for recording and holding image signals and the like output from the overall control/calculation unit 109 . An operation unit 113 receives a user's command from an operation member provided in the imaging apparatus, and inputs the command to the overall control/arithmetic circuit 106 . A lens control unit 114 calculates optical system drive information based on the phase difference evaluation value calculated by the phase difference detection unit 108 and controls the focus lens position of the imaging lens 101 .

次に、本実施形態の撮像装置における撮影レンズ101、撮像素子100の受光部102の関係と、画素の定義、及び瞳分割方式による焦点検出の原理について説明する。 Next, the relationship between the imaging lens 101 and the light receiving unit 102 of the imaging element 100 in the imaging apparatus of this embodiment, the definition of pixels, and the principle of focus detection by the pupil division method will be described.

図2は、撮像素子100の単位画素200の構成を示す模式図である。図2において、マイクロレンズ202は、撮影レンズ101によって撮像素子100上に結像された光を画素毎にさらに集光する。フォトダイオード(PD)からなる光電変換部201A,201Bは、単位画素200に入射した光を受光し、その受光量に応じた信号電荷を生成して蓄積する。単位画素200は、1つのマイクロレンズ202の下に2つの光電変換部を有することによって、2つの光電変換部201A,201Bが、2つに分割された射出瞳領域の光を各々受光可能である。光電変換部201A,201Bの2つの信号を、画素毎に混合した信号が、画像生成用としての1画素の出力信号である。また、画素毎に2つの光電変換部から得られる信号を比較することで、撮影レンズ101の焦点検出を行うことができる。すなわち、単位画素200内のある領域において、光電変換部201Aから得られる信号と、光電変換部201Bから得られる信号を相関演算することで、左右方向に瞳分割された位相差検出方式の焦点検出が可能である。 FIG. 2 is a schematic diagram showing the configuration of a unit pixel 200 of the imaging device 100. As shown in FIG. In FIG. 2, the microlens 202 further collects the light imaged on the image sensor 100 by the imaging lens 101 for each pixel. The photoelectric conversion units 201A and 201B, which are photodiodes (PD), receive light incident on the unit pixel 200, and generate and accumulate signal charges corresponding to the amount of received light. Since the unit pixel 200 has two photoelectric conversion units under one microlens 202, the two photoelectric conversion units 201A and 201B can respectively receive the light of the exit pupil area divided into two. . A signal obtained by mixing the two signals of the photoelectric conversion units 201A and 201B for each pixel is an output signal of one pixel for image generation. Further, by comparing signals obtained from two photoelectric conversion units for each pixel, focus detection of the imaging lens 101 can be performed. That is, in a certain area in the unit pixel 200, the signal obtained from the photoelectric conversion unit 201A and the signal obtained from the photoelectric conversion unit 201B are subjected to correlation calculation, thereby performing focus detection of the phase difference detection method with pupil division in the horizontal direction. is possible.

図3は、撮影レンズ101を通過した光が1つのマイクロレンズ202を通過して撮像素子100の受光部102の単位画素200で受光される様子を光軸(Z軸)に対して垂直な方向(Y軸方向)から観察した図である。撮影レンズの射出瞳302,303を通過した光は、光軸を中心として単位画素200に入射する。その際に、レンズ絞り301により入射光量が調節される。図3に示すように瞳領域302を通過する光束はマイクロレンズ202を通過して光電変換部201Aで受光され、瞳領域303を通過する光束はマイクロレンズ202を通して光電変換部201Bで受光される。したがって、光電変換部201A,201Bは、それぞれ撮影レンズの射出瞳の異なる領域の光を受光する。 FIG. 3 shows how light that has passed through the imaging lens 101 passes through one microlens 202 and is received by the unit pixel 200 of the light receiving unit 102 of the image sensor 100 in the direction perpendicular to the optical axis (Z-axis). It is the figure observed from (Y-axis direction). Light passing through the exit pupils 302 and 303 of the photographing lens enters the unit pixel 200 centering on the optical axis. At that time, the amount of incident light is adjusted by the lens diaphragm 301 . As shown in FIG. 3, the luminous flux passing through the pupil region 302 passes through the microlens 202 and is received by the photoelectric conversion unit 201A, and the luminous flux passing through the pupil region 303 passes through the microlens 202 and is received by the photoelectric conversion unit 201B. Therefore, the photoelectric conversion units 201A and 201B receive light in different regions of the exit pupil of the photographing lens.

撮影レンズ101からの光を瞳分割する光電変換部201Aの信号をX軸方向に並ぶ複数の単位画素200から取得し、これらの出力信号群で構成した被写体像をA像とする。同様に瞳分割する光電変換部201Bの信号をX軸方向に並ぶ複数の単位画素200から取得し、これらの出力信号群で構成した被写体像をB像とする。 Signals of a photoelectric conversion unit 201A that pupil-divides the light from the photographing lens 101 are acquired from a plurality of unit pixels 200 arranged in the X-axis direction, and an object image composed of these output signal groups is assumed to be an A image. Similarly, the signals of the photoelectric conversion unit 201B for pupil division are obtained from a plurality of unit pixels 200 arranged in the X-axis direction, and the subject image composed of these output signal groups is referred to as a B image.

A像とB像に対して相関演算を実施し、像のずれ量(瞳分割位相差)を検出する。さらに像のずれ量に対して撮影レンズ101の焦点位置と光学系から決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。ここで算出された焦点位置情報に基づいて撮影レンズ101のフォーカス位置を制御することで、撮像面位相差AF(オートフォーカス)が可能となる。また、A像信号とB像信号との足し合わせた信号をA+B像信号とすることで、このA+B像信号を通常の撮影画像に用いることができる。 A correlation calculation is performed on the A image and the B image to detect an image shift amount (pupil division phase difference). Further, by multiplying the image shift amount by a conversion coefficient determined by the focal position of the photographing lens 101 and the optical system, the focal position corresponding to an arbitrary object position within the screen can be calculated. By controlling the focus position of the photographing lens 101 based on the focus position information calculated here, imaging plane phase difference AF (autofocus) becomes possible. Further, by using the A+B image signal as a signal obtained by adding the A image signal and the B image signal, the A+B image signal can be used for a normal photographed image.

次に、撮像素子100の受光部102と読み出し部103の構成を図4、図5を用いて説明する。図4は、撮像素子100の受光部102と読出し部103の構成例を示すブロック図である。 Next, the configurations of the light receiving section 102 and the readout section 103 of the image sensor 100 will be described with reference to FIGS. 4 and 5. FIG. FIG. 4 is a block diagram showing a configuration example of the light receiving section 102 and the readout section 103 of the image sensor 100. As shown in FIG.

受光部102は、画素部401と駆動回路部402とを有する。画素部401には、複数の単位画素200が水平方向(行方向)および垂直方向(列方向)に行列状に複数配列されている。図4においては、単位画素200を2行3列の計6個のみ図示しているが、実際には数百万、数千万の単位画素200が配置されている。駆動回路部402は、画素部401を駆動するための電源回路、タイミングジェネレータ(TG)、走査回路などを含む。駆動回路部402によって画素部401を駆動することにより、画素部401の全撮像領域の画素信号が画素部401から読み出し部103に出力される。駆動回路部402は、図1の制御部104からの制御を受けて駆動される。読み出し部103に入力された画素部401からの画素信号に対し、アナログデジタル変換(A/D変換)が行われる。なお、読出し部103は複数の読み出し回路、例えば1列に1つの読み出し回路を備えて構成される。 The light receiving portion 102 has a pixel portion 401 and a driver circuit portion 402 . In the pixel portion 401, a plurality of unit pixels 200 are arranged in a matrix in the horizontal direction (row direction) and the vertical direction (column direction). In FIG. 4, only six unit pixels 200 of 2 rows and 3 columns are shown, but actually, millions or tens of millions of unit pixels 200 are arranged. The driver circuit portion 402 includes a power supply circuit for driving the pixel portion 401, a timing generator (TG), a scanning circuit, and the like. By driving the pixel portion 401 by the drive circuit portion 402 , pixel signals of the entire imaging region of the pixel portion 401 are output from the pixel portion 401 to the reading portion 103 . The drive circuit section 402 is driven under the control of the control section 104 in FIG. A pixel signal from the pixel unit 401 input to the reading unit 103 is subjected to analog-to-digital conversion (A/D conversion). The readout unit 103 is configured by including a plurality of readout circuits, for example, one readout circuit per column.

ところで、画素部401の駆動方法に関して、互いに隣接する行が異なる条件(フレームレート、蓄積時間など)で駆動されると、クロストークやブルーミング等のノイズが発生し易くなる。しかしながら、本実施形態では、駆動回路部402が画素部401を全領域一様に同じ条件で駆動するため、このような問題は発生しない。 By the way, regarding the driving method of the pixel unit 401, when adjacent rows are driven under different conditions (frame rate, accumulation time, etc.), noise such as crosstalk and blooming is likely to occur. However, in this embodiment, the drive circuit portion 402 drives the pixel portion 401 uniformly under the same conditions over the entire region, so such a problem does not occur.

図5は、撮像素子100の単位画素200、及び読み出し部103を構成する読み出し回路509の一例を示す図である。単位画素200において、フォトダイオード(PD)からなる光電変換部201Aには転送スイッチ502Aが接続され、光電変換部201Bには転送スイッチ502Bが接続される。光電変換部201A,201Bで発生した電荷は、それぞれ転送スイッチ502A,502Bを介して共通のフローティングディフュージョン部(FD)504に転送され、一時的に保存される。FD504に転送された電荷は、選択スイッチ506がオンされると、ソースフォロワアンプを形成する増幅MOSトランジスタ(SF)505を介して電荷に対応した電圧として列出力線507に出力される。列出力線507には電流源508が接続されている。 FIG. 5 is a diagram showing an example of the unit pixel 200 of the image sensor 100 and a readout circuit 509 that constitutes the readout unit 103. As shown in FIG. In the unit pixel 200, a transfer switch 502A is connected to a photoelectric conversion unit 201A made up of a photodiode (PD), and a transfer switch 502B is connected to the photoelectric conversion unit 201B. The charges generated in the photoelectric conversion units 201A and 201B are transferred to a common floating diffusion (FD) 504 via transfer switches 502A and 502B, respectively, and temporarily stored. The charge transferred to the FD 504 is output to the column output line 507 as a voltage corresponding to the charge through an amplifying MOS transistor (SF) 505 forming a source follower amplifier when the selection switch 506 is turned on. A current source 508 is connected to the column output line 507 .

リセットスイッチ503は、FD504の電位、及び転送スイッチ502A,502Bを介して光電変換部201A,201Bの電位をVDDにリセットする。転送スイッチ502A,502B、リセットスイッチ503、選択スイッチ506は、それぞれ周辺の駆動回路部402に接続されている信号線を介して、制御信号PTXA、PTXB、PRES、PSELにより制御される。 The reset switch 503 resets the potential of the FD 504 and the potential of the photoelectric conversion units 201A and 201B to VDD via the transfer switches 502A and 502B. The transfer switches 502A and 502B, the reset switch 503, and the selection switch 506 are controlled by control signals PTXA, PTXB, PRES, and PSEL via signal lines connected to the peripheral drive circuit section 402, respectively.

次に、読み出し回路509の回路構成について説明する。アンプ510は、列出力線507に出力された信号を増幅し、容量512は信号電圧を保持するために用いられる。容量512への書き込みは、制御信号PSHによりオン、オフされるスイッチ511により制御される。比較器513の一方の入力には、不図示のスロープ電圧発生回路から供給された参照電圧Vslopeが入力され、他方の入力には、容量512に書き込まれたアンプ510の出力が入力される。比較器513はアンプ510の出力と参照電圧Vslopeを比較し、その大小関係によってローレベル、ハイレベルの2値のいずれかを出力する。具体的には、参照電圧Vslopeがアンプ510の出力に対して小さい場合にはローレベル、大きい場合にはハイレベルを出力する。参照電圧Vslopeの遷移開始と同時にクロックCLKが動き出し、カウンタ514は比較器513の出力がハイレベルの場合にクロックCLKに対応してカウントアップし、比較器513の出力がローレベルに反転すると同時にカウントの信号を停止する。このときのカウント値をデジタル信号としてメモリ516またはメモリ517のいずれかに保持する。 Next, the circuit configuration of the reading circuit 509 will be described. An amplifier 510 amplifies the signal output to the column output line 507, and a capacitor 512 is used to hold the signal voltage. Writing to the capacitor 512 is controlled by a switch 511 that is turned on and off by a control signal PSH. A reference voltage Vslope supplied from a slope voltage generation circuit (not shown) is input to one input of the comparator 513 , and the output of the amplifier 510 written to the capacitor 512 is input to the other input. A comparator 513 compares the output of the amplifier 510 with the reference voltage Vslope, and outputs either a low level or high level binary value depending on the magnitude relationship. Specifically, when the reference voltage Vslope is smaller than the output of the amplifier 510, it outputs a low level, and when it is greater than that, it outputs a high level. The clock CLK starts running at the same time as the transition of the reference voltage Vslope starts, and the counter 514 counts up in response to the clock CLK when the output of the comparator 513 is at high level, and counts at the same time when the output of the comparator 513 is inverted to low level. stop signal. The count value at this time is held in either memory 516 or memory 517 as a digital signal.

メモリ516には、FD504のリセットレベルの信号(以下、「N信号」)をAD変換したデジタル信号が保持され、メモリ517には、光電変換部201Aや光電変換部201Bの信号をFD504のN信号に重畳した信号(以下「S信号」)をAD変換したデジタル信号が保持される。カウンタ514のカウント値がメモリ516,517のどちらに書き込まれるかはスイッチ515により振り分けられる。メモリ516,517に保持された信号はCDS回路518にてS信号からN信号を差し引いた差分が算出される。そして、駆動回路部402の制御により、デジタル信号出力線519を介して信号処理部105へ出力される。 A memory 516 holds a digital signal obtained by AD-converting the reset level signal of the FD 504 (hereinafter referred to as “N signal”), and a memory 517 stores the signal of the photoelectric conversion unit 201A and the photoelectric conversion unit 201B as the N signal of the FD 504. A digital signal obtained by AD-converting the signal superimposed on (hereinafter referred to as "S signal") is held. A switch 515 determines to which of the memories 516 and 517 the count value of the counter 514 is written. The signals held in the memories 516 and 517 are subtracted by the CDS circuit 518 from the S signal to calculate the difference. Then, it is output to the signal processing unit 105 through the digital signal output line 519 under the control of the driving circuit unit 402 .

なお、読み出し回路509は画素の各列に対して1つ配置され、画素信号は行単位で読み出される。この場合、選択スイッチ506は行単位で制御され、選択された行の画素信号が一括して列出力線507に出力される。この読み出し回路509の数が多いほど、画素部401の画素信号を高速に信号処理部105に読み出すことができる。 Note that one readout circuit 509 is arranged for each column of pixels, and pixel signals are read out in units of rows. In this case, the selection switches 506 are controlled row by row, and the pixel signals of the selected row are collectively output to the column output line 507 . As the number of readout circuits 509 increases, the pixel signals of the pixel portion 401 can be read out to the signal processing portion 105 at high speed.

図6は、図5に示す回路構成を有する撮像素子100の単位画素200からの電荷読み出し動作の一例を示すタイミングチャートである。各駆動パルスのタイミング、参照電圧Vslope、クロックCLK、水平走査信号を模式的に示している。また、各タイミングにおける列出力線の電位Vlも併せて示している。 FIG. 6 is a timing chart showing an example of the charge reading operation from the unit pixel 200 of the imaging device 100 having the circuit configuration shown in FIG. The timing of each drive pulse, reference voltage Vslope, clock CLK, and horizontal scanning signal are shown schematically. The potential Vl of the column output line at each timing is also shown.

光電変換部201Aからの信号の読み出しに先立って、リセットスイッチ503の信号線PRESがHiとなる(t600)。これによって、SF(ソースフォロワアンプ)505のゲートがリセット電源電圧にリセットされる。時刻t601で制御信号PSELをHiとし、SF505を動作状態とする。そして、t602で制御信号PRESをLoとすることでFD504のリセットを解除する。このときのFD504の電位を列出力線507にリセット信号レベル(N信号)として出力し、読み出し回路509に入力する。 Prior to reading the signal from the photoelectric conversion unit 201A, the signal line PRES of the reset switch 503 becomes Hi (t600). This resets the gate of SF (source follower amplifier) 505 to the reset power supply voltage. At time t601, the control signal PSEL is set to Hi, and the SF 505 is brought into operation. At t602, the reset of the FD 504 is released by setting the control signal PRES to Lo. The potential of the FD 504 at this time is output to the column output line 507 as a reset signal level (N signal) and input to the readout circuit 509 .

時刻t603、t604で制御信号PSHをHi、Loとしてスイッチ511をオン、オフすることで、列出力線507に出力されたN信号はアンプ510で所望のゲインで増幅されたのち容量512に保持される。容量512に保持されたN信号の電位は比較器513の一方に入力される。時刻t604でスイッチ511がオフされた後、時刻t605からt607まで、不図示のスロープ電圧発生回路により、参照電圧Vslopeを時刻と共に初期値から減少させていく。参照電圧Vslopeの遷移開始と共に、クロックCLKをカウンタ514に供給する。CLKの数に応じてカウンタ514の値は増加していく。そして、比較器513に入力された参照電圧VslopeがN信号と同じレベルになると、比較器513の出力COMPはローレベルとなり、同時にカウンタ514の動作も停止する(時刻t606)。この、カウンタ514の動作が停止した時の値が、N信号がAD変換された値となり、スイッチ515により、カウンタ514とメモリ516が接続され、N信号のデジタル値がN信号用メモリ516に保持される。 By turning on and off the switch 511 with the control signal PSH set to Hi and Lo at times t603 and t604, the N signal output to the column output line 507 is amplified with a desired gain by the amplifier 510 and then held in the capacitor 512. be. The potential of the N signal held in capacitor 512 is input to one side of comparator 513 . After the switch 511 is turned off at time t604, from time t605 to t607, a slope voltage generation circuit (not shown) decreases the reference voltage Vslope from the initial value with time. The clock CLK is supplied to the counter 514 with the start of transition of the reference voltage Vslope. The value of the counter 514 increases according to the number of CLKs. Then, when the reference voltage Vslope input to the comparator 513 becomes the same level as the N signal, the output COMP of the comparator 513 becomes low level, and the operation of the counter 514 also stops at the same time (time t606). The value when the operation of the counter 514 stops becomes the AD-converted value of the N signal. be done.

次に、デジタル化されたN信号をN信号メモリ516に保持した後の時刻t607、t608で制御信号PTXAを順次Hi、Loとして光電変換部201Aに蓄積された光電荷をFD504に転送する。すると、電荷量に応じたFD504の電位変動が列出力線507に信号レベル(光成分+リセットノイズ成分(N信号))として出力され、読み出し回路509に入力される。入力された信号(S(A)+N)はアンプ510で所望のゲインで増幅されたのち、時刻t609、t610で制御信号PSHを順次Hi、Loとしてスイッチ511をオン、オフするタイミングで容量512に保持される。容量512に保持された電位は比較器513の一方に入力される。時刻t610でスイッチ511がオフされた後、時刻t611からt613まで、スロープ電圧発生回路により、参照電圧Vslopeを時刻と共に初期値から減少させていく。参照電圧Vslopeの遷移開始と共に、CLKをカウンタ514に供給する。CLKの数に応じてカウンタ514の値は増加していく。そして、比較器513に入力した参照電圧VslopeがS信号と同じレベルになると、比較器513の出力COMPはローレベルとなり、同時にカウンタ514の動作も停止する(時刻t612)。この、カウンタ514の動作が停止した時の値が、S(A)+N信号がAD変換された値となる。そして、スイッチ515により、カウンタ514とメモリ517が接続され、S(A)+N信号のデジタル値がS信号用メモリ517に保持される。メモリ516及びメモリ517に保持された信号からCDS回路518により差動信号レベル(光成分)が算出され、リセットノイズ成分が除去されたS(A)信号が得られる。S(A)信号は、制御部104の制御により順次信号処理部105に送られる。 Next, at times t607 and t608 after the digitized N signal is held in the N signal memory 516, the control signal PTXA is sequentially set to Hi and Lo to transfer the photoelectric charges accumulated in the photoelectric conversion unit 201A to the FD504. Then, the potential fluctuation of the FD 504 corresponding to the amount of charge is output to the column output line 507 as a signal level (light component+reset noise component (N signal)) and input to the readout circuit 509 . The input signal (S(A)+N) is amplified with a desired gain by the amplifier 510, and then the control signal PSH is sequentially set to Hi and Lo at times t609 and t610 to turn the switch 511 on and off. retained. The potential held in capacitor 512 is input to one side of comparator 513 . After the switch 511 is turned off at time t610, the slope voltage generation circuit decreases the reference voltage Vslope from the initial value with time from time t611 to t613. CLK is supplied to the counter 514 with the start of transition of the reference voltage Vslope. The value of the counter 514 increases according to the number of CLKs. Then, when the reference voltage Vslope input to the comparator 513 becomes the same level as the S signal, the output COMP of the comparator 513 becomes low level, and the operation of the counter 514 also stops at the same time (time t612). The value when the operation of the counter 514 stops is the value obtained by AD converting the S(A)+N signal. A switch 515 connects the counter 514 and the memory 517 , and the digital value of the S(A)+N signal is held in the S signal memory 517 . A CDS circuit 518 calculates the differential signal level (light component) from the signals held in the memory 516 and the memory 517, and obtains the S(A) signal from which the reset noise component has been removed. The S(A) signal is sequentially sent to the signal processing section 105 under the control of the control section 104 .

以上が、単位画素200の光電変換部201Aからの信号を読み出す動作である。単位画素200のもう一方の光電変換部201Bからの信号を読み出す場合も同様に図6のタイミングチャートに従って駆動すればよい。ただし、この場合は時刻t607、t608において制御信号PTXAの代わりに制御信号PTXBを順次Hi、Loとする。すなわち、図6の時刻t600から時刻t613の駆動を1回目に制御信号PTXAをHi、Loとして画素信号S(A)を出力し、続いて2回目に制御信号PTXBをHi、Loとして画素信号S(B)を出力することで、1行分の画素信号の出力が完了する。これを全行分繰り返すことで、全画素の画素信号S(A)、S(B)の出力が完了する。 The above is the operation of reading the signal from the photoelectric conversion unit 201A of the unit pixel 200. FIG. When reading out a signal from the other photoelectric conversion unit 201B of the unit pixel 200, it is similarly driven according to the timing chart of FIG. However, in this case, instead of the control signal PTXA, the control signal PTXB is sequentially set to Hi and Lo at times t607 and t608. That is, in the driving from time t600 to time t613 in FIG. By outputting (B), the output of pixel signals for one row is completed. By repeating this for all rows, the output of pixel signals S(A) and S(B) of all pixels is completed.

図7は、撮像素子100の信号処理部105及び出力部106の構成例を示す図である。信号処理部105は撮像画像用信号処理部701と焦点検出用信号処理部702を有する。読み出し部103から出力された画素信号はデジタル信号出力線519を介して信号処理部105に入力される。入力された信号は制御部104からの制御に従って処理される。なお、撮像画像用信号処理部701と焦点検出用信号処理部702は、それぞれ不図示のメモリを備えるものとする。 FIG. 7 is a diagram showing a configuration example of the signal processing unit 105 and the output unit 106 of the image sensor 100. As shown in FIG. The signal processing unit 105 has a captured image signal processing unit 701 and a focus detection signal processing unit 702 . A pixel signal output from the reading unit 103 is input to the signal processing unit 105 via a digital signal output line 519 . The input signal is processed according to control from the control section 104 . Note that the captured image signal processing unit 701 and the focus detection signal processing unit 702 are each provided with a memory (not shown).

撮像画像用信号処理部701では、読み出し部103から出力された信号から、撮像画像用信号を算出する。すなわち、単位画素200の光電変換部201A、及び光電変換部201Bの画素信号S(A)、S(B)を受けて混合処理を行い、S(A+B)信号を算出する。そして、画素信号S(A+B)を撮像画像用信号出力線703を介して出力部106に送る。撮像画像用信号処理部701において、2つの光電変換部の画素信号S(A)、S(B)を混合処理して出力部106から撮像素子100の外部に出力することで、撮像素子100の外部への信号伝送量を減らすことができる。なお、画素信号S(A)と画素信号S(B)の演算は、単位画素の両方の信号がそろった段階で可能となる。先に読み出された画素信号S(A)はメモリで保持しておき、画素信号S(B)が読み出され、撮像画像用信号処理部701に入力されると、順次S(A)+S(B)の演算が行われ、出力部106から出力される。 The captured image signal processing unit 701 calculates a captured image signal from the signal output from the reading unit 103 . That is, the pixel signals S(A) and S(B) of the photoelectric conversion unit 201A and the photoelectric conversion unit 201B of the unit pixel 200 are received and mixed to calculate the S(A+B) signal. Then, the pixel signal S(A+B) is sent to the output unit 106 via the captured image signal output line 703 . In the captured image signal processing unit 701 , the pixel signals S(A) and S(B) of the two photoelectric conversion units are mixed and output from the output unit 106 to the outside of the image sensor 100 . It is possible to reduce the amount of signal transmission to the outside. Note that the calculation of the pixel signal S(A) and the pixel signal S(B) becomes possible at the stage when both the signals of the unit pixels are ready. The previously read pixel signal S(A) is held in a memory, and when the pixel signal S(B) is read and input to the captured image signal processing unit 701, S(A)+S The calculation of (B) is performed and output from the output unit 106 .

なお、撮像画像用信号処理部701では更に単位画素200同士の信号を混合したり、平均化処理を行ってもよい。例えば、赤(R)、緑(G)、青(B)のベイヤ―配列のカラーフィルタが設けられた一般的な構成の画素部において、隣接する同色画素の信号を混合平均化演算して出力部106に送れば、更に信号伝送量を減らすことができる。また、画素部全ての信号を出力部106に出力するのではなく、必要な領域のみの信号を出力してもよい。これらの処理は制御部104により制御される。 Note that the captured image signal processing unit 701 may further mix the signals of the unit pixels 200 or perform an averaging process. For example, in a pixel unit having a general configuration provided with Bayer array color filters of red (R), green (G), and blue (B), the signals of adjacent pixels of the same color are mixed and averaged and output. If it is sent to the unit 106, the amount of signal transmission can be further reduced. In addition, instead of outputting signals of all the pixel portions to the output portion 106, signals of only necessary regions may be output. These processes are controlled by the control unit 104 .

続いて、焦点検出用信号処理部702の処理について説明する。焦点検出用信号処理部702では、読み出し部103から出力された信号から、焦点検出用信号を算出して出力する。位相差検出を行うためには、前述した通り、画素信号S(A)と画素信号S(B)がそれぞれ必要である。しかし、画素部401の全ての画素の画素信号S(A)と画素信号S(B)を出力部106から撮像素子100の外部に出力するとなると信号伝送量が膨大になり、高速読み出しの妨げとなる。 Next, processing of the focus detection signal processing unit 702 will be described. The focus detection signal processing unit 702 calculates and outputs a focus detection signal from the signal output from the reading unit 103 . In order to detect the phase difference, as described above, the pixel signal S(A) and the pixel signal S(B) are required. However, if the pixel signals S(A) and pixel signals S(B) of all the pixels of the pixel unit 401 are output from the output unit 106 to the outside of the image sensor 100, the amount of signal transmission becomes enormous, hindering high-speed readout. Become.

そこで、焦点検出用信号処理部702において演算処理を行い、信号量を減らして出力部106から出力する。例えば、画素信号S(A)、S(B)をそれぞれベイヤ加算して輝度値Y値を算出して、輝度信号Y(A)、Y(B)を出力する。焦点検出のための演算は、信号をY値に変換してから行うこともあり、撮像素子100から出力する前にY値に変換することで、信号伝送量を1/4に減らすことができる。なお、Y値の算出にはベイヤ単位の信号が必要になるため、算出に必要な信号が揃うまで、焦点検出用信号処理部702に入力された画素信号をメモリに保持しておく。つまり、R・G行の信号が出力された後、G・B行の信号が出力されるので、R・G行の画素信号S(A)と画素信号S(B)はメモリに保持しておき、G・B行の信号が出力されたら順次輝度信号Y(A)、Y(B)を演算し、信号線704を介して出力部106から出力する。 Therefore, arithmetic processing is performed in the focus detection signal processing unit 702 to reduce the signal amount and output from the output unit 106 . For example, the pixel signals S(A) and S(B) are Bayer-added to calculate the luminance value Y, and the luminance signals Y(A) and Y(B) are output. Calculations for focus detection may be performed after converting the signals into Y values. By converting the signals into Y values before output from the image sensor 100, the amount of signal transmission can be reduced to 1/4. . Since a signal in Bayer units is required for calculating the Y value, the pixel signals input to the focus detection signal processing unit 702 are held in the memory until all the signals required for the calculation are obtained. That is, after the signals for the R and G rows are output, the signals for the G and B rows are output. Then, when the signals of the G and B rows are output, the luminance signals Y(A) and Y(B) are sequentially calculated and output from the output unit 106 via the signal line 704 .

また、更に焦点検出用信号処理部702において相関演算を行い、演算された値を信号線704から出力部106に出力してもよい。なお、相関演算を用いた位相差検出は公知の手法により実施可能である。相関演算値のみの出力であれば、その演算時の領域分割数に依存するものの、出力する信号量は大幅に減らすことができる。 Further, correlation calculation may be performed in the focus detection signal processing unit 702 and the calculated value may be output from the signal line 704 to the output unit 106 . Phase difference detection using correlation calculation can be performed by a known technique. If only the correlation calculation value is output, the amount of signal to be output can be greatly reduced, although it depends on the number of regions divided at the time of calculation.

以上のように、撮像画像用信号処理部701と焦点検出用信号処理部702を備える撮像素子100において、必要な信号のみを撮像素子100の外部に出力する信号処理を行う。これにより、信号伝送量を減らすことができ、撮像画像データと焦点検出情報を共に高速に得ることができる。 As described above, the image sensor 100 including the captured image signal processing unit 701 and the focus detection signal processing unit 702 performs signal processing to output only necessary signals to the outside of the image sensor 100 . As a result, the amount of signal transmission can be reduced, and both captured image data and focus detection information can be obtained at high speed.

なお、本実施形態においては、撮像画像用信号処理部701と焦点検出用信号処理部702それぞれにメモリを備える構成とした。しかし、これらの前段にメモリを備えて、各処理部における演算に必要な信号が揃った段階で、撮像画像用信号処理部701と焦点検出用信号処理部702に信号を送る構成であってもよい。 Note that in this embodiment, the captured image signal processing unit 701 and the focus detection signal processing unit 702 are each provided with a memory. However, even if a memory is provided in the front stage of these components and signals are sent to the captured image signal processing unit 701 and the focus detection signal processing unit 702 at the stage when the signals necessary for the calculation in each processing unit are ready. good.

また、本実施形態の説明において、焦点検出用信号として、輝度信号Y(A)、及びY(B)を出力したが、出力部106からは輝度信号Y(A)のみを出力してもよい。具体的には、撮像画像用信号処理部701からは、撮像画像用信号、すなわち画素信号S(A+B)が出力されている。そのため、撮像素子100の外部に出力された後、位相差検出部108などで画素信号S(A+B)から輝度信号Y(A+B)を演算し、輝度信号Y(A)の減算処理を行い、輝度信号Y(B)を算出することで、焦点検出用信号を得てもよい。このように、焦点検出用信号処理部702からは輝度信号Y(A)のみを出力することによって、信号伝送量を更に減らすことができる。 Further, in the description of the present embodiment, the luminance signals Y(A) and Y(B) are output as focus detection signals, but the output unit 106 may output only the luminance signal Y(A). . Specifically, the captured image signal, that is, the pixel signal S(A+B) is output from the captured image signal processing unit 701 . Therefore, after being output to the outside of the image sensor 100, the phase difference detection unit 108 or the like calculates the luminance signal Y(A+B) from the pixel signal S(A+B), performs subtraction processing of the luminance signal Y(A), and obtains the luminance signal. A focus detection signal may be obtained by calculating the signal Y(B). By outputting only the luminance signal Y(A) from the focus detection signal processing unit 702 in this manner, the amount of signal transmission can be further reduced.

例えば、画素数が2000万画素であった場合、信号処理部を備えない場合は全画素分の画素信号S(A)、S(B)、すなわち4000万個のデータを出力する必要がある。一方、本実施形態の信号処理部を備える撮像素子により焦点検出用信号としてY値を演算して出力する場合、撮像画像用の2000万個のデータと焦点検出用の2000万/4=500万個のデータを出力することになり、信号伝送量が減ることがわかる。その結果、高速読み出しが可能となる。また、焦点検出用信号が相関演算値である場合、更に信号伝送量が減ることは明らかである。 For example, if the number of pixels is 20 million, it is necessary to output pixel signals S(A) and S(B) for all pixels, that is, 40 million pieces of data if the signal processing section is not provided. On the other hand, when the Y value is calculated and output as the focus detection signal by the image sensor having the signal processing section of the present embodiment, 20 million pieces of data for the captured image and 20 million/4=5 million pieces of data for focus detection. data is output, and the amount of signal transmission is reduced. As a result, high-speed reading becomes possible. Further, when the focus detection signal is a correlation calculation value, it is clear that the amount of signal transmission is further reduced.

また、図6のタイミングチャートにおいて、時刻t607、t608で制御信号PTXA、PTXBを同時に制御して光電変換部201Aと光電変換部201Bの電荷が混合された単位画素200の信号を得ることも可能である。具体的には、図6のタイミングチャートに従って、光電変換部201Aの信号を読み出した後、制御信号PTXA、PTXBを同時にHi、Loとなるように制御して信号を読み出せば画素信号S(A+B)を得ることが可能である。この場合、リセット信号の読み出しが1回減るため、更に高速読み出しが可能となる。 In the timing chart of FIG. 6, it is also possible to simultaneously control the control signals PTXA and PTXB at times t607 and t608 to obtain a signal of the unit pixel 200 in which charges of the photoelectric conversion units 201A and 201B are mixed. be. Specifically, according to the timing chart of FIG. 6, after the signal of the photoelectric conversion unit 201A is read out, the control signals PTXA and PTXB are controlled to be Hi and Lo at the same time, and the signal is read out to obtain the pixel signal S (A+B). ) can be obtained. In this case, reading of the reset signal is reduced by one, so that reading can be performed at a higher speed.

画素から画素信号S(A)とS(A+B)が読み出された場合には、焦点検出用信号処理部702において、画素信号S(A+B)から画素信号S(A)を減算する処理を行えば、画素信号S(B)を得ることができる。もしくは、焦点検出処理部702においては、画素信号S(A)のみ処理して出力し、位相差検出部108で画素信号S(B)あるいは輝度信号Y(B)の算出を行ってもよい。 When the pixel signals S(A) and S(A+B) are read out from the pixels, the focus detection signal processing unit 702 performs processing for subtracting the pixel signal S(A) from the pixel signal S(A+B). For example, a pixel signal S(B) can be obtained. Alternatively, the focus detection processing unit 702 may process and output only the pixel signal S(A), and the phase difference detection unit 108 may calculate the pixel signal S(B) or the luminance signal Y(B).

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態においては、画素部の全領域において焦点検出用信号の出力を行ったが、焦点検出用信号については必要な領域のみの信号を選択して出力すれば、更に高速化を実現することができる。
(Second embodiment)
Next, a second embodiment of the invention will be described. In the first embodiment, the focus detection signal is output in the entire area of the pixel unit. However, if the focus detection signal is selected and output only in the necessary area, the speed can be further increased. can do.

図8は、画素領域における、焦点検出用信号の出力領域の例を示した図である。斜線で示した領域は、焦点検出用信号と撮像画像用信号を出力し、それ以外の領域は撮像画像用信号のみを出力する。例えば、図8(a)に示した例のように、画素の広範囲において目的とする領域のみの焦点検出用信号を離散的に(選択的に)出力する。これによって、画素領域全体の焦点検出情報を得ることが可能となる一方で、撮像素子100の外部に出力する信号量を抑制することが可能となる。また、図8(b)に示した例の場合、一部の領域について詳細な焦点検出情報を得ることが可能となり、また撮像素子100の外部に出力する信号量を抑制することが可能となる。これらの出力する領域の選択は制御部104により制御される。焦点検出用信号処理部702において、出力対象領域の信号のみをメモリから読み出して演算する。 FIG. 8 is a diagram showing an example of a focus detection signal output area in a pixel area. The hatched areas output the focus detection signal and the captured image signal, and the other areas output only the captured image signal. For example, as in the example shown in FIG. 8A, focus detection signals are discretely (selectively) output only for a target area in a wide range of pixels. This makes it possible to obtain the focus detection information of the entire pixel area, while suppressing the amount of signal output to the outside of the image sensor 100 . Further, in the case of the example shown in FIG. 8B, it is possible to obtain detailed focus detection information for a partial area, and it is possible to suppress the amount of signal output to the outside of the imaging device 100. . Selection of these output areas is controlled by the control unit 104 . In the focus detection signal processing unit 702, only the signal of the output target area is read from the memory and calculated.

なお、図8に示したような一部の領域における焦点検出用信号の出力は、Y値信号や相関演算結果でもよいが、画素信号S(A)であってもよい。Y値信号や相関演算結果に比べて伝送する信号量は多くなるが、必要領域のみ出力するため、信号伝送量の抑制は達成される。また、比較的小規模な信号処理回路でも実現可能である。 Note that the output of the focus detection signal in a partial area as shown in FIG. 8 may be the Y value signal or the correlation calculation result, but may also be the pixel signal S(A). Although the amount of signal to be transmitted is larger than that of the Y value signal and the result of correlation calculation, since only the required area is output, the amount of signal transmission can be suppressed. Also, it can be realized with a relatively small-scale signal processing circuit.

なお、焦点検出用信号処理部702においても、焦点検出用信号を混合処理、平均化処理してもよい。この場合、画素信号S(A)同士、画素信号S(B)同士について混合処理、平均化処理を行う。 The focus detection signal processing unit 702 may also perform mixing processing and averaging processing on the focus detection signal. In this case, pixel signals S(A) are mixed and pixel signals S(B) are mixed and averaged.

以上のように、撮像画像用信号処理部701と焦点検出用信号処理部702を備える撮像素子100において、必要な信号のみを撮像素子100の外部に出力する信号処理を行う。これにより、焦点検出用信号の伝送量を減らすことができ、撮像画像データと焦点検出情報を共に高速かつ効率的に得ることができる。 As described above, the image sensor 100 including the captured image signal processing unit 701 and the focus detection signal processing unit 702 performs signal processing to output only necessary signals to the outside of the image sensor 100 . As a result, the transmission amount of the focus detection signal can be reduced, and both captured image data and focus detection information can be obtained quickly and efficiently.

なお、このように焦点検出に使用する画素を限定することによって、1フレームの読み出し時間を短縮する方法がある。通常は、焦点検出処理に使用する行のみ単位画素内の2つの光電変換部の信号をそれぞれ出力し、焦点検出処理に使用しない行は2つの光電変換部の信号を混合して画像生成用の信号のみを出力することで読み出し時間の増大を抑制する。この場合、焦点検出用として出力された2つの光電変換部の個々の出力信号は混合して撮像画像用の画素信号として使用することが可能である。しかし、信号の読み出し方法や2つの光電変換部の出力信号の混合方法が焦点検出処理に使用する行としない行とで異なることにより、ノイズレベル等に差が生じてしまい、その結果得られる撮像画像が劣化するという問題が生じる。しかし、本実施形態のように焦点検出用信号処理部を備えることによって、画素部からの信号は全て同様の読み出しタイミングで読み出し、焦点検出用信号処理部702で出力する画素を選択できる。そのため、撮像画像に用いる画素信号S(A+B)のノイズ量が領域によって異なることもなく、高品質の撮像画像を得ることができる。 There is a method of shortening the readout time for one frame by limiting the pixels used for focus detection in this way. Normally, only the row used for focus detection processing outputs the signals of the two photoelectric converters in the unit pixels, and the row not used for focus detection processing mixes the signals of the two photoelectric converters for image generation. An increase in read time is suppressed by outputting only the signal. In this case, individual output signals of the two photoelectric conversion units output for focus detection can be mixed and used as pixel signals for a captured image. However, since the signal readout method and the method of mixing the output signals of the two photoelectric conversion units are different between the row used for focus detection processing and the row not used for focus detection processing, a difference occurs in the noise level, etc., resulting in an image pickup. A problem arises that the image deteriorates. However, by providing the focus detection signal processing unit as in this embodiment, all the signals from the pixel units can be read out at the same readout timing, and the pixels to be output by the focus detection signal processing unit 702 can be selected. Therefore, the noise amount of the pixel signal S(A+B) used for the captured image does not vary from region to region, and a high-quality captured image can be obtained.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。上記の第2の実施形態では、焦点検出用信号処理部702において、焦点検出用信号のうちの必要な出力対象領域の信号のみを選択して出力する例について説明した。本実施形態では、これをさらに進めて、焦点検出用信号のうちの必要な領域を、ユーザーの入力や、被写体検出部により検出された被写体の領域に基づいて設定する例について説明する。
(Third embodiment)
Next, a third embodiment of the invention will be described. In the above-described second embodiment, an example has been described in which the focus detection signal processing unit 702 selects and outputs only the signals of the necessary output target area from the focus detection signals. In the present embodiment, this is further advanced, and an example will be described in which the necessary area of the focus detection signal is set based on the user's input or the subject area detected by the subject detection unit.

本実施形態の撮像装置の構成は、図9に示すように、図1に示した第1及び第2の実施形態の撮像装置の構成に被写体検出部105aが加えられたものである。その他の構成は図1の構成と同様であるので、同じ部分の説明は省略し、異なる部分についてのみ説明する。 As shown in FIG. 9, the configuration of the imaging device of this embodiment is obtained by adding a subject detection unit 105a to the configuration of the imaging devices of the first and second embodiments shown in FIG. Since the rest of the configuration is the same as the configuration of FIG. 1, the description of the same parts will be omitted and only the different parts will be described.

図9において、被写体検出部105aは、読み出し部103からの画像生成用のデジタル信号出力を受けて、公知のパターン認識処理回路を用いて被写体を検出し、焦点検出処理を行うための焦点検出領域を決定する。ここで検出する被写体としては、例えば、人物や動物の顔や目などが挙げられる。また、被写体検出部105aは、被写体検出処理を行うために、画像生成用の信号を一時的に格納するメモリを、その内部に備えていてもよい。 In FIG. 9, an object detection unit 105a receives a digital signal output for image generation from the reading unit 103, detects an object using a known pattern recognition processing circuit, and detects a focus detection area for performing focus detection processing. to decide. Examples of subjects to be detected here include the faces and eyes of people and animals. Further, the subject detection unit 105a may include therein a memory for temporarily storing signals for image generation in order to perform subject detection processing.

信号処理部105は、既に第1の実施形態で図7を用いて説明したように、撮像画像用信号処理部701と焦点検出用信号処理部702を有する。撮像画像用信号処理部701の動作は第1の実施形態と同様である。 The signal processing unit 105 has a captured image signal processing unit 701 and a focus detection signal processing unit 702, as already described in the first embodiment with reference to FIG. The operation of the captured image signal processing unit 701 is the same as in the first embodiment.

一方、焦点検出用信号処理部702は、第2の実施形態と同様に、焦点検出用のデジタル信号出力のうち必要な領域を選択して、出力部106へ出力する。但し、焦点検出用信号処理部702は、焦点検出領域の設定が手動である場合、ユーザーが任意に選んだ焦点検出領域の焦点検出用信号を選択的に出力する。あるいは、焦点検出領域の設定が自動である場合、焦点検出用信号処理部702は、被写体検出部105aの被写体検出結果を受けて、被写体が検出された領域の焦点検出用信号を選択的に出力する。出力部106は、撮像画像用信号処理部701から受けた画像生成用のデジタル信号、および焦点検出用信号処理部702から受けた焦点検出用のデジタル信号を撮像素子100の外部に出力する。 On the other hand, the focus detection signal processing unit 702 selects a necessary region from the digital signal output for focus detection and outputs it to the output unit 106, as in the second embodiment. However, when the focus detection area is set manually, the focus detection signal processing unit 702 selectively outputs the focus detection signal for the focus detection area arbitrarily selected by the user. Alternatively, when the focus detection area is automatically set, the focus detection signal processing unit 702 receives the object detection result of the object detection unit 105a and selectively outputs the focus detection signal of the area where the object is detected. do. The output unit 106 outputs the image generation digital signal received from the captured image signal processing unit 701 and the focus detection digital signal received from the focus detection signal processing unit 702 to the outside of the image sensor 100 .

位相差検出部108は、出力部106からの焦点検出用のデジタル信号を受けて、位相差検出方式の焦点検出を行うための位相差評価値を算出する。本実施形態においては、位相差検出部108に入力される焦点検出用の信号は、撮像素子100内部の信号処理部105内の焦点検出用信号処理部702が領域を選択して出力した信号である。従って、撮像素子100の出力部106が位相差検出部108に伝送する焦点検出用の信号は、焦点検出制御に必要な信号のみであるので、伝送帯域が効率的に使われることになる。また、位相差検出部108の内部処理においても、焦点検出制御に不要な領域の位相差評価値算出の演算処理や、焦点検出制御に最終的に必要な信号を抽出する処理が不要となる。従って、位相差検出部108が位相差評価値を算出する処理速度を高速化できる。また、位相差検出部108の処理回路規模を、小規模化することもできる。 The phase difference detection unit 108 receives the focus detection digital signal from the output unit 106 and calculates a phase difference evaluation value for performing phase difference detection type focus detection. In the present embodiment, the focus detection signal input to the phase difference detection unit 108 is a signal output by selecting a region from the focus detection signal processing unit 702 in the signal processing unit 105 inside the image sensor 100. be. Therefore, the focus detection signal transmitted from the output unit 106 of the image sensor 100 to the phase difference detection unit 108 is only the signal necessary for focus detection control, so the transmission band is efficiently used. Also, in the internal processing of the phase difference detection unit 108, there is no need for arithmetic processing for calculating phase difference evaluation values in areas not required for focus detection control and processing for extracting signals ultimately required for focus detection control. Therefore, the processing speed for calculating the phase difference evaluation value by the phase difference detection unit 108 can be increased. Also, the scale of the processing circuit of the phase difference detection unit 108 can be reduced.

なお、図9における表示部110は、全体制御・演算部109から受けた画像信号を表示するだけでなく、撮像装置のユーザーが任意に選ぶことができる焦点検出領域を表示するためにも使用される。あるいは、被写体検出部105aが検出した被写体が存在する領域である被写体領域を表示するためにも使用される。また、操作部113は、各種の入力に使用されるが、撮像装置のユーザーが任意の焦点検出領域を設定するためにも用いられる。但し、表示部110がタッチパネルであれば、操作部113の入力操作を表示部110へのタッチ操作によって代替してもよい。 Note that the display unit 110 in FIG. 9 is used not only to display the image signal received from the overall control/calculation unit 109, but also to display a focus detection area that can be arbitrarily selected by the user of the imaging apparatus. be. Alternatively, it is also used to display a subject area where the subject detected by the subject detection unit 105a exists. The operation unit 113 is used for various inputs, and is also used for the user of the imaging apparatus to set an arbitrary focus detection area. However, if the display unit 110 is a touch panel, the input operation on the operation unit 113 may be replaced by a touch operation on the display unit 110 .

次に、図10は、本実施形態における撮像面位相差AFの処理の流れを示すフローチャートである。撮像面位相差AFの処理が開始されると、まずステップS401では、撮像素子100の画素部401が駆動されて、画素部401の全領域の単位画素200に含まれる複数のPDの信号(焦点検出用信号)が各々読み出される。この時、駆動回路部402は、必要なフレームレートに応じて、行間引き読み出し、行加算読み出し、行部分読み出し、列間引き読み出し、列加算読み出し、列部分読み出しなどの読み出し走査方法で画素部401を駆動してもよい。但し、前述したように、駆動回路部402は、画素部401を一様に同じ条件で駆動するため、クロストークやブルーミングが発生し易くなるような問題は発生しない。 Next, FIG. 10 is a flow chart showing the processing flow of imaging plane phase difference AF in this embodiment. When the imaging plane phase difference AF process is started, first, in step S401, the pixel unit 401 of the image sensor 100 is driven, and a plurality of PD signals (focus detection signals) are read out respectively. At this time, the drive circuit unit 402 scans the pixel unit 401 by a readout scanning method such as row thinning readout, row addition readout, row partial readout, column thinning readout, column addition readout, and column partial readout according to a required frame rate. You can drive. However, as described above, the driving circuit portion 402 uniformly drives the pixel portion 401 under the same conditions, so that crosstalk and blooming are not likely to occur.

その後、各PDの信号は読み出し部103でAD変換処理されて、焦点検出用のデジタル信号が得られる。さらに、読み出し部103は、単位画素200毎の複数のPDのデジタル信号を混合することによって、画像生成用の信号も生成できる。 After that, the signal of each PD is AD-converted by the reading unit 103 to obtain a digital signal for focus detection. Furthermore, the reading unit 103 can also generate a signal for image generation by mixing digital signals of a plurality of PDs for each unit pixel 200 .

画素部401の全領域の焦点検出用信号および画像生成用信号は、読み出し部103から信号処理部105に出力される。そして、画像生成用の信号は、信号処理部105を介して出力部106から撮像素子100の外部に出力されて、画像処理部107で処理される。その後、全体制御・演算部109によって表示部110に生成画像が表示される。撮像素子100からは、所定のフレームレートで、画像生成用信号が出力され続けることによって、表示部110には継続的に動画像が表示される。 The focus detection signal and the image generation signal for the entire area of the pixel unit 401 are output from the reading unit 103 to the signal processing unit 105 . A signal for image generation is output from the output unit 106 to the outside of the image sensor 100 via the signal processing unit 105 and processed by the image processing unit 107 . After that, the generated image is displayed on the display unit 110 by the overall control/calculation unit 109 . The moving image is continuously displayed on the display unit 110 by continuously outputting the image generation signal from the imaging device 100 at a predetermined frame rate.

次に、ステップS402では、焦点検出領域の選択モードを確認する。ここで、ユーザーが、任意の領域に撮影レンズ101の焦点を合わせるために、焦点検出領域を予め手動で設定している場合は、ステップS403に移行する。この場合、ユーザーが焦点検出領域を選択する時に、表示部110に表示される操作画面の例を図11に示す。図11に示すように、操作画面には選択可能な複数の焦点検出領域1101が表示されている。ここでは横7分割、縦5分割された検出枠で示したが、さらに細かく分割されていてもよく、粗く分割されていてもよい。また、予め決められた検出枠の中から選択するのではなく、撮影画面全体から任意の位置をユーザーが指定してもよい。ユーザーは、焦点を合わせたい領域として、例えば人物の顔が含まれる領域1102を選択する。そして、ユーザーが選択した焦点検出領域1102の位置情報が、操作部113から全体制御・演算部109を介して、信号処理部105に入力される。 Next, in step S402, the selection mode of the focus detection area is confirmed. Here, if the user has manually set the focus detection area in advance in order to focus the imaging lens 101 on an arbitrary area, the process proceeds to step S403. In this case, FIG. 11 shows an example of an operation screen displayed on the display unit 110 when the user selects the focus detection area. As shown in FIG. 11, a plurality of selectable focus detection areas 1101 are displayed on the operation screen. Here, the detection frame is divided into 7 horizontally and 5 vertically, but the detection frame may be divided more finely or coarsely. In addition, the user may designate an arbitrary position from the entire photographing screen instead of selecting from among predetermined detection frames. The user selects, for example, an area 1102 containing a person's face as the area to be focused on. Positional information of the focus detection area 1102 selected by the user is input from the operation unit 113 to the signal processing unit 105 via the overall control/calculation unit 109 .

次にステップS403では、ステップS401で読み出し部103から信号処理部105に出力された画素部401の全領域の焦点検出用信号のうち、ユーザーが指定した領域の焦点検出用信号を、信号処理部105内の焦点検出用信号処理部702が選択する。そして、焦点検出用信号処理部702が選択した焦点検出用信号が、出力部106を介して、位相差検出部108に入力される。この時、本実施形態においては、出力部106が位相差検出部108に伝送する焦点検出用の信号は、焦点検出制御に必要な信号のみ、つまりユーザーが指定した領域の焦点検出用信号のみであるので、高速な伝送が可能である。 Next, in step S403, out of the focus detection signals of the entire area of the pixel unit 401 output from the reading unit 103 to the signal processing unit 105 in step S401, the signal for focus detection of the area specified by the user is processed by the signal processing unit. The focus detection signal processing unit 702 in 105 selects. Then, the focus detection signal selected by the focus detection signal processing unit 702 is input to the phase difference detection unit 108 via the output unit 106 . At this time, in the present embodiment, the focus detection signal transmitted from the output unit 106 to the phase difference detection unit 108 is only the signal necessary for focus detection control, that is, only the focus detection signal for the area specified by the user. Therefore, high-speed transmission is possible.

次にステップS404では、位相差検出部108が、出力部106からの焦点検出用のデジタル信号を受けて、位相差検出方式の焦点検出を行うための位相差評価値を算出する。この時、位相差検出部108では、焦点検出制御に不要な領域の位相差評価値算出の演算処理や、焦点検出制御に最終的に必要な信号を抽出する処理が不要となる。従って、焦点検出制御を高速に行うことができる。 Next, in step S404, the phase difference detection unit 108 receives the digital signal for focus detection from the output unit 106 and calculates a phase difference evaluation value for performing phase difference detection type focus detection. At this time, the phase difference detection unit 108 does not need arithmetic processing for calculating a phase difference evaluation value in an area unnecessary for focus detection control or processing for extracting a signal finally required for focus detection control. Therefore, focus detection control can be performed at high speed.

次にステップS405では、位相差検出部108で算出された位相差評価値に基づいて、レンズ制御部114が、光学系駆動情報を算出して撮影レンズ101のフォーカスレンズ位置を制御する。 Next, in step S<b>405 , the lens control unit 114 calculates optical system drive information based on the phase difference evaluation value calculated by the phase difference detection unit 108 and controls the focus lens position of the imaging lens 101 .

次にステップS406では、撮像装置が撮影を終了するべきか確認する。操作部113から、ユーザーによって、撮影終了の操作が入力されれば、このまま撮影を終了する。操作部113から、ユーザーによって、撮影終了の操作が入力されなければ、ステップS401に移行して、撮影と撮像面位相差AF処理を継続する。 Next, in step S406, it is checked whether the imaging device should end the imaging. When the user inputs an operation to end shooting from the operation unit 113, the shooting ends as it is. If the user does not input an operation to end imaging from the operation unit 113, the process proceeds to step S401 to continue imaging and imaging plane phase difference AF processing.

一方、ステップS402で、撮影レンズ101の焦点を合わせる領域を、撮像装置が自動的に決める設定となっている場合は、ステップS407に移行する。ステップS407では、被写体検出部105aが、読み出し部103からの画像生成用信号を受けて、撮影レンズ101の焦点を合わせる領域を自動的に決めるための、被写体検出処理を行う。検出する被写体とは、例えば、人物や動物の顔や目である。被写体検出処理の方法には、公知の様々なパターン認識処理を適用することができる。代表的なパターン認識手法としては、例えば、テンプレートマッチングやディープラーニングと呼ばれる手法が挙げられる。 On the other hand, if it is determined in step S402 that the image capturing apparatus automatically determines the focus area of the photographing lens 101, the process proceeds to step S407. In step S407, the subject detection unit 105a receives the image generation signal from the reading unit 103 and performs subject detection processing for automatically determining the area on which the photographing lens 101 is focused. A subject to be detected is, for example, the face or eyes of a person or an animal. Various known pattern recognition processes can be applied to the subject detection process method. Typical pattern recognition methods include, for example, methods called template matching and deep learning.

被写体検出部105aが検出した被写体領域を示すための、表示部110に表示される画面の例を図12(a)に示す。図12(a)に示すように、人物の顔が含まれる領域として被写体検出部105aが検出した被写体領域1201が表示されている。被写体検出部105aは、検出した被写体領域1201の画像中の水平・垂直アドレス情報を信号処理部105に出力する。信号処理部105は、被写体領域1201の画像中の水平・垂直アドレス情報を、表示部110に被写体領域として表示するために、出力部106を介して全体制御・演算部109に出力する。そして、全体制御・演算部109は、画像処理部107で処理された生成画像に、被写体領域情報を合成して表示部110に表示する。また、詳細は後述するが、信号処理部105は、被写体領域1201の画像中の水平・垂直アドレス情報を、焦点検出用信号を選択するために用いる。 FIG. 12A shows an example of a screen displayed on the display unit 110 for indicating the subject area detected by the subject detection unit 105a. As shown in FIG. 12A, a subject area 1201 detected by the subject detection unit 105a as an area containing a person's face is displayed. The subject detection unit 105 a outputs horizontal/vertical address information in the image of the detected subject region 1201 to the signal processing unit 105 . The signal processing unit 105 outputs the horizontal/vertical address information in the image of the object area 1201 to the overall control/calculation unit 109 via the output unit 106 in order to display it as the object area on the display unit 110 . Then, the overall control/calculation unit 109 synthesizes the generated image processed by the image processing unit 107 with the subject region information, and displays the synthesized image on the display unit 110 . Further, although the details will be described later, the signal processing unit 105 uses horizontal and vertical address information in the image of the subject area 1201 to select a focus detection signal.

また、被写体検出結果の別の例として、人物の顔がアップでフレーミングされている場合を図12(b)に示す。図12(b)のような例では、人物の顔を含む領域が広いため、仮に、顔全体を含む広範囲の領域における焦点検出用信号を後段の位相差検出部108に出力すると、その通信時間が長くなり、高速な焦点検出制御の妨げとなる。従って、図12(b)に示すように、人物の顔がアップで検出された場合、被写体検出部105aが顔の特徴的な部分(例えば目など)をさらに抽出して、被写体検出領域1202とすることが好ましい。これは、例えば、被写体検出部105aが顔を検出した領域の画素数が所定の画素数を超えた場合を検知して、被写体検出対象を切り替えるように制御することで実現される。 As another example of subject detection results, FIG. 12B shows a case where a person's face is close-up and framed. In the example shown in FIG. 12B, since the area including the human face is wide, if the focus detection signal in the wide area including the entire face is output to the subsequent phase difference detection unit 108, the communication time is becomes long, which hinders high-speed focus detection control. Therefore, as shown in FIG. 12(b), when a person's face is detected in close-up, the subject detection unit 105a further extracts a characteristic part of the face (such as the eyes), and extracts a subject detection area 1202. preferably. This is realized, for example, by detecting a case where the number of pixels in an area where the subject detection unit 105a detects a face exceeds a predetermined number of pixels, and performing control so as to switch the subject detection target.

次にステップS408では、ステップS407での被写体検出部105aの検出結果を確認する。ステップS407で被写体を検出することができた場合は、ステップS409へ移行する。 Next, in step S408, the detection result of the subject detection unit 105a in step S407 is confirmed. If the subject can be detected in step S407, the process proceeds to step S409.

ステップS409では、画素部401の全領域から読み出した焦点検出用信号のうち、被写体検出部105aが検出した領域の焦点検出用信号を、信号処理部105が選択する。そして、信号処理部105から選択的に出力された焦点検出用信号は、出力部106を介して、位相差検出部108に入力される。この場合、本実施形態においては、出力部106が位相差検出部108に伝送する焦点検出用の信号は、焦点検出制御に必要な領域の信号のみであるので、高速に伝送することができる。 In step S409, the signal processing unit 105 selects the focus detection signal for the area detected by the subject detection unit 105a from among the focus detection signals read out from the entire area of the pixel unit 401. FIG. A focus detection signal selectively output from the signal processing unit 105 is input to the phase difference detection unit 108 via the output unit 106 . In this case, in the present embodiment, the signal for focus detection transmitted from the output unit 106 to the phase difference detection unit 108 is only the signal in the area necessary for focus detection control, so that high-speed transmission is possible.

次にステップS404では、位相差検出部108が、出力部106からの焦点検出用のデジタル信号を受けて、位相差検出方式の焦点検出を行うための位相差評価値を算出する。この場合、位相差検出部108では、焦点検出制御に不要な領域の位相差評価値算出の演算処理や、焦点検出制御に最終的に必要な信号を抽出する処理が不要となる。従って、焦点検出制御を高速に行うことができる。以降は、ステップS405、ステップS406において、既に説明した処理が実行される。 Next, in step S404, the phase difference detection unit 108 receives the digital signal for focus detection from the output unit 106 and calculates a phase difference evaluation value for performing phase difference detection type focus detection. In this case, the phase difference detection unit 108 does not need arithmetic processing for calculating a phase difference evaluation value for an area unnecessary for focus detection control or processing for extracting a signal finally required for focus detection control. Therefore, focus detection control can be performed at high speed. After that, the processes already described are executed in steps S405 and S406.

一方で、ステップS408において、ステップS407で被写体を検出できなかったことを確認した場合は、ステップS410に移行する。 On the other hand, if it is confirmed in step S408 that the subject could not be detected in step S407, the process proceeds to step S410.

ステップS410では、レンズ制御部114が撮影レンズ101のフォーカスレンズを所定量サーチ駆動させるように制御する。さらにステップS411では、撮影レンズ101のフォーカスレンズ位置を確認して、サーチ駆動が終了したかを判定する。ここでサーチ駆動が途中の場合は、ステップS401に移行する。従って、ステップS402で焦点検出領域を自動的に決める設定であり、ステップS407で被写体検出部105aが被写体を検出できない状態が継続する場合は、フォーカスレンズのサーチ駆動が継続される。ただし、ステップS411でフォーカスレンズ位置が無限端から至近端までのサーチ駆動を終えた場合は、ステップS412に移行する。 In step S410, the lens control unit 114 performs control so that the focus lens of the photographing lens 101 is search-driven by a predetermined amount. Further, in step S411, the focus lens position of the photographing lens 101 is confirmed to determine whether or not the search drive has ended. If search driving is in progress, the process proceeds to step S401. Therefore, the focus detection area is automatically determined in step S402, and if the state in which the subject detection unit 105a cannot detect the subject continues in step S407, search driving of the focus lens is continued. However, when the focus lens position finishes the search drive from the infinite end to the close end in step S411, the process proceeds to step S412.

ステップS412では、ステップS410でレンズ制御部114がフォーカスレンズをサーチ駆動する動作を繰り返しても、ステップS407で被写体検出部105aが被写体を検出できなかった場合の処理を行う。ここでは、撮影レンズ101のフォーカスレンズ位置を暫定的に決めるため、画素部401の全領域から読み出した焦点検出用信号のうち暫定領域の焦点検出用信号を、信号処理部105が選択する。そして、信号処理部105から選択的に出力された焦点検出用信号は、出力部106を介して、位相差検出部108に入力される。 In step S412, processing is performed when the subject detection unit 105a cannot detect the subject in step S407 even if the lens control unit 114 repeats the search driving operation of the focus lens in step S410. Here, in order to provisionally determine the focus lens position of the imaging lens 101 , the signal processing unit 105 selects the focus detection signal for the provisional area among the focus detection signals read from the entire area of the pixel unit 401 . A focus detection signal selectively output from the signal processing unit 105 is input to the phase difference detection unit 108 via the output unit 106 .

次にステップS404では、位相差検出部108が、出力部106からの焦点検出用のデジタル信号を受けて、位相差検出方式の焦点検出を行うための位相差評価値を算出する。以降は、ステップS405、ステップS406において、既に説明した処理が実行される。 Next, in step S404, the phase difference detection unit 108 receives the digital signal for focus detection from the output unit 106 and calculates a phase difference evaluation value for performing phase difference detection type focus detection. After that, the processes already described are executed in steps S405 and S406.

以上説明したように、本実施形態では、撮像素子100の出力部106が位相差検出部108に伝送する焦点検出用の信号は、焦点検出制御に必要な信号のみであるので、高速な伝送が可能である。そして、位相差検出部108では、焦点検出制御に不要な領域の位相差評価値算出の演算処理や、焦点検出制御に最終的に必要な信号を抽出する処理が不要となる。従って、位相差検出部108が位相差評価値を算出する処理速度を高速化できる。よって、撮像面位相差AFによる焦点検出制御を高速に行うことができる。 As described above, in the present embodiment, the signals for focus detection transmitted from the output unit 106 of the image sensor 100 to the phase difference detection unit 108 are only signals necessary for focus detection control. It is possible. Then, the phase difference detection unit 108 does not need arithmetic processing for calculating phase difference evaluation values in areas not required for focus detection control and processing for extracting signals finally required for focus detection control. Therefore, the processing speed for calculating the phase difference evaluation value by the phase difference detection unit 108 can be increased. Therefore, focus detection control by imaging plane phase difference AF can be performed at high speed.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。第4の実施形態では、画素部402の単位画素200の構成が異なる。図13は、撮像素子100の受光部102及びマイクロレンズアレイを光軸方向(Z方向)から観察した図である。1つのマイクロレンズ202に対して、4つの光電変換部901A、901B、901C、901Dが配置されている。このように、X軸方向及びY軸方向それぞれ2つの合計4つの光電変換部を有することで、4つに分割された射出瞳領域の光をそれぞれ受光することができる。このような単位画素がそれぞれ4つの光電変換部を備えている画素部401により構成される撮像素子100における、信号読み出し方法、及び信号処理部105の処理について説明する。
(Fourth embodiment)
Next, a fourth embodiment of the invention will be described. The configuration of the unit pixel 200 of the pixel section 402 is different in the fourth embodiment. FIG. 13 is a view of the light receiving section 102 and the microlens array of the imaging element 100 observed from the optical axis direction (Z direction). Four photoelectric conversion units 901A, 901B, 901C, and 901D are arranged for one microlens 202 . Thus, by having a total of four photoelectric conversion units, two each in the X-axis direction and the Y-axis direction, it is possible to receive the light of the exit pupil areas divided into four. A signal readout method and processing of the signal processing unit 105 in the image sensor 100 including the pixel unit 401 in which each unit pixel includes four photoelectric conversion units will be described.

図14は、単位画素900及び読み出し部103の構成の一例を示す模式図である。図14の構成では、各光電変換部のそれぞれに対応した読み出し回路を備えている。すなわち、光電変換部901Aの画素信号は読み出し回路1001Aに出力される。以下同様に、光電変換部901Bは読み出し回路1001B、光電変換部901Cは読み出し回路1001C、光電変換部901Dは読み出し回路1001Dに出力される。光電変換部からの信号読み出し動作については、図5、図6で説明した駆動方法とほぼ同様の方法で実施可能であるため、説明は省略する。 FIG. 14 is a schematic diagram showing an example of the configuration of the unit pixel 900 and the readout section 103. As shown in FIG. The configuration of FIG. 14 includes a readout circuit corresponding to each photoelectric conversion unit. That is, the pixel signal of the photoelectric conversion unit 901A is output to the readout circuit 1001A. Similarly, the photoelectric conversion unit 901B is output to the readout circuit 1001B, the photoelectric conversion unit 901C is output to the readout circuit 1001C, and the photoelectric conversion unit 901D is output to the readout circuit 1001D. The signal readout operation from the photoelectric conversion unit can be performed in substantially the same manner as the driving method described with reference to FIGS. 5 and 6, so description thereof will be omitted.

各光電変換部から読み出された信号に対する信号処理部105の処理について説明する。撮像画像用信号処理部701では、読み出された信号から、撮像画像用信号を算出する。すなわち、単位画素900の複数の光電変換部901A、901B、901C、901Dの画素信号S(A)、S(B)、S(C)、S(D)を受けて、混合処理を行い、画素信号S(A+B+C+D)を算出する。そして、画素信号S(A+B+C+D)を撮像画像用信号出力線703を介して出力部106に送る。撮像画像用信号処理部701において、複数の光電変換部の信号を混合処理して出力部106から撮像素子100の外部に出力することで、撮像素子100の外部への信号伝送量を減らすことができる。単位画素900のように4つの光電変換部を備えるような撮像素子においては、その効果はより大きくなる。 Processing of the signal processing unit 105 for signals read from each photoelectric conversion unit will be described. The captured image signal processing unit 701 calculates a captured image signal from the read signal. That is, the pixel signals S(A), S(B), S(C), and S(D) of the plurality of photoelectric conversion units 901A, 901B, 901C, and 901D of the unit pixel 900 are received, mixed processing is performed, and the pixel Calculate the signal S(A+B+C+D). Then, the pixel signal S (A+B+C+D) is sent to the output unit 106 via the captured image signal output line 703 . In the captured image signal processing unit 701, signals from a plurality of photoelectric conversion units are mixed and output from the output unit 106 to the outside of the image sensor 100, thereby reducing the amount of signal transmission to the outside of the image sensor 100. can. The effect is even greater in an imaging device that includes four photoelectric conversion units, such as the unit pixel 900 .

続いて、焦点検出用信号処理部702の処理について説明する。図13に示した様な単位画素900当たり4つの光電変換部を備える撮像素子の場合、焦点検出のためには4つの光電変換部の信号を個別に出力する必要があり、信号伝送量が膨大になり、高速読み出しに望ましくない。第1の実施形態で説明したように、Y値を演算して出力したり、相関演算結果のみを出力することが好適である。必要な領域のみの信号を出力すれば、更に信号伝送量を減らすことができる。 Next, processing of the focus detection signal processing unit 702 will be described. In the case of an image pickup device having four photoelectric conversion units per unit pixel 900 as shown in FIG. , which is not desirable for high-speed reading. As described in the first embodiment, it is preferable to calculate and output the Y value or to output only the correlation calculation result. Signal transmission amount can be further reduced by outputting a signal only for a required area.

また、図13のように単位画素900が2x2の光電変換部を備える構成の場合、左右方向に加え、上下方向の位相差検出も行うことができる。例えば、画素信号S(A)とS(C)を混合処理し、画素信号S(B)とS(D)を混合処理してそれぞれ出力する。この場合、得られた焦点検出用信号からは左右方向に瞳分割された位相差方式の焦点検出が可能となる。また、画素信号S(A)とS(B)を混合処理し、画素信号S(C)とS(D)を混合処理してそれぞれ出力した場合は、得られた焦点検出用信号からは上下方向に瞳分割された位相差方式の焦点検出が可能となる。これらは、被写体に応じて切り替えて出力することで、縦縞、横縞それぞれの被写体に対して精度良く焦点検出することができる。また、画素の領域によって出力パターンを変えてもよい。 Further, in the case of a configuration in which the unit pixel 900 includes 2×2 photoelectric conversion portions as shown in FIG. 13, phase difference detection can be performed not only in the horizontal direction but also in the vertical direction. For example, the pixel signals S(A) and S(C) are mixed, and the pixel signals S(B) and S(D) are mixed and output. In this case, the obtained signal for focus detection enables phase-difference focus detection in which the pupil is divided in the horizontal direction. Further, when the pixel signals S(A) and S(B) are mixed and the pixel signals S(C) and S(D) are mixed and output, the obtained focus detection signals are divided into upper and lower It is possible to perform phase-difference focus detection in which the pupil is split in different directions. By switching and outputting these according to the object, it is possible to accurately perform focus detection for objects with vertical stripes and horizontal stripes. Also, the output pattern may be changed depending on the pixel area.

更に、焦点検出用信号処理部702において、得られた混合信号(例えば、S(A+C)とS(B+D))を用いて相関演算を行い、その結果のみを出力してもよい。焦点検出用信号処理部702で相関演算処理をすれば撮像素子100から出力する信号伝送量を減らすことができる。また、同一領域において左右方向と上下方向両方の相関演算を行って出力しても信号伝送量を抑えることができる。 Furthermore, in the focus detection signal processing unit 702, correlation calculation may be performed using the obtained mixed signals (for example, S(A+C) and S(B+D)), and only the result thereof may be output. If the focus detection signal processing unit 702 performs correlation calculation processing, the amount of signal transmission output from the image sensor 100 can be reduced. In addition, the amount of signal transmission can be suppressed even if correlation calculations are performed in both the horizontal direction and the vertical direction in the same area and output.

このように、多分割画素を備えた撮像素子において、撮像素子内に焦点検出用信号処理部702を備えることで、撮像素子から出力する信号量の増加を抑制し、高速に撮像画像データと焦点検出情報を得ることができる。更に、左右方向と上下方向の位相差情報を取得できるため、精度良く焦点検出を行うことができる。本実施形態では、単位画素当たり4つの光電変換部を有する撮像素子を例に説明したが、更に多くの光電変換部を有する構成であってもよい。より視差を付けるために、必要なPDの信号のみを出力したり、斜め方向に信号を混合して出力してもよい。 In this way, in an image sensor having multi-segmented pixels, by providing the focus detection signal processing unit 702 in the image sensor, an increase in the amount of signal output from the image sensor is suppressed, and captured image data and focus can be detected at high speed. Detection information can be obtained. Furthermore, since phase difference information in the horizontal direction and the vertical direction can be obtained, focus detection can be performed with high accuracy. In this embodiment, an image pickup device having four photoelectric conversion units per unit pixel has been described as an example, but a configuration having more photoelectric conversion units may be used. In order to provide more parallax, only necessary PD signals may be output, or signals may be mixed and output in oblique directions.

(第5の実施形態)
第1乃至第3の実施形態で説明したような撮像素子100の信号処理部105は大規模な回路となるため、撮像素子100は全体として大面積なものとなる可能性が高い。そこで、本実施形態においては、面積の増大を抑制する撮像素子100の構成について説明する。
(Fifth embodiment)
Since the signal processing unit 105 of the image sensor 100 as described in the first to third embodiments is a large-scale circuit, the image sensor 100 as a whole is likely to have a large area. Therefore, in the present embodiment, the configuration of the imaging device 100 that suppresses the increase in area will be described.

図15、図16は、第5の実施形態における撮像素子100の構成図である。本実施形態の撮像素子は画素領域チップ1501、信号処理チップ1502を積層させた構成(多層構造)を有する。各半導体チップ間の配線は、公知の基板積層技術により、マイクロバンプ等を用いて電気的に接続される。 15 and 16 are configuration diagrams of the imaging device 100 according to the fifth embodiment. The imaging device of this embodiment has a structure (multilayer structure) in which a pixel region chip 1501 and a signal processing chip 1502 are stacked. Wirings between the semiconductor chips are electrically connected using microbumps or the like by a known substrate lamination technique.

画素領域チップ1501は、複数の光電変換部を備えた単位画素200が行列状に配置された画素部401と、駆動回路部402と、読み出し部103とを備える。駆動回路部402は、画素部401の画素に対して駆動信号を送る。なお、図15では、単位画素200は、2つの光電変換部を有するが、光電変換部の数はこれに限定されるものではない。 The pixel region chip 1501 includes a pixel section 401 in which unit pixels 200 each having a plurality of photoelectric conversion sections are arranged in a matrix, a driving circuit section 402 and a reading section 103 . The driver circuit portion 402 sends driving signals to the pixels of the pixel portion 401 . Although the unit pixel 200 has two photoelectric conversion units in FIG. 15, the number of photoelectric conversion units is not limited to this.

読み出し部103は多数の、例えば画素1列当たり1つの読み出し回路509を備えて構成され、画素部401の画素信号を読み出す。読み出された画素信号は駆動回路部402の制御により、垂直・水平選択がなされ、順次、信号処理部105に転送される。 The readout unit 103 includes a large number of readout circuits 509 , for example, one readout circuit 509 per pixel column, and reads out pixel signals from the pixel unit 401 . The read pixel signals are selected vertically or horizontally under the control of the driving circuit unit 402 and are sequentially transferred to the signal processing unit 105 .

信号処理チップ1502は、制御部104、信号処理部105、出力部106を備える。信号処理部105は、撮像画像用信号処理部701と焦点検出用信号処理部702を有し、読み出し部103から読み出された画素信号を処理して、出力部106を介して撮像素子100の外部に出力する。信号処理部105における信号処理については、第1乃至第3の実施形態で説明した処理と同様であるため説明を省略する。撮像素子100は、図16に示したように、画素領域チップ1501、信号処理チップ1502が互いに積層されて一体となった構成を有する。 The signal processing chip 1502 has a control section 104 , a signal processing section 105 and an output section 106 . The signal processing unit 105 has a captured image signal processing unit 701 and a focus detection signal processing unit 702 , processes the pixel signals read from the reading unit 103 , and outputs them to the image sensor 100 via the output unit 106 . Output externally. Since the signal processing in the signal processing unit 105 is the same as the processing described in the first to third embodiments, description thereof is omitted. As shown in FIG. 16, the image pickup device 100 has a configuration in which a pixel region chip 1501 and a signal processing chip 1502 are stacked together and integrated.

以上のように、撮像素子を積層構造にしたことにより、信号処理部105に十分な面積を取ることができ、大規模な回路を実装することが可能となる。信号処理部105において、必要な信号のみを撮像素子100の外部に出力する信号処理を行うことにより信号伝送量を減らすことができ、撮像画像データと焦点検出情報を共に高速に得ることが可能となる。 As described above, since the imaging device has a laminated structure, a sufficient area can be secured for the signal processing unit 105, and a large-scale circuit can be mounted. The signal processing unit 105 performs signal processing to output only necessary signals to the outside of the image pickup device 100, thereby reducing the amount of signal transmission and enabling both captured image data and focus detection information to be obtained at high speed. Become.

(第6の実施形態)
第1乃至第3の実施形態で説明したような単位画素当たり複数の光電変換部を備える画素部から構成される撮像素子においては、読み出し回路509が多い方が好ましい。例えば、単位画素に対して1つの読み出し回路を備える構成や、更に、1つの光電変換部に対して1つの読み出し回路を備える構成であれば、全画素同時に画素信号を出力して画素毎にA/D変換することができるため、より高速な読み出しが可能となる。この場合、読み出し回路を配置するために面積が必要であり、積層構造の撮像素子であることが望ましい。
(Sixth embodiment)
In an image sensor configured from a pixel portion having a plurality of photoelectric conversion units per unit pixel as described in the first to third embodiments, it is preferable that the number of readout circuits 509 is large. For example, in a configuration in which one readout circuit is provided for a unit pixel, or in a configuration in which one readout circuit is provided for one photoelectric conversion unit, pixel signals are output simultaneously for all pixels, and A Since /D conversion can be performed, higher speed reading becomes possible. In this case, an area is required for arranging the readout circuit, and it is desirable that the image sensor has a laminated structure.

図17は、第6の実施形態における撮像素子100の構成を示す図である。本実施形態の撮像素子は画素領域チップ1301、読み出し回路チップ1302、信号処理チップ1303を積層させた構成を有する。各半導体チップ間の配線は、公知の基板積層技術により、マイクロバンプ等を用いて電気的に接続される。 FIG. 17 is a diagram showing the configuration of an imaging device 100 according to the sixth embodiment. The imaging device of this embodiment has a structure in which a pixel region chip 1301, a readout circuit chip 1302, and a signal processing chip 1303 are stacked. Wirings between the semiconductor chips are electrically connected using microbumps or the like by a known substrate lamination technique.

画素領域チップ1301は、複数の光電変換部を備えた単位画素200が行列状に配置された画素部401と駆動回路部402を備える。駆動回路部402は、画素部401の画素に対して駆動信号を送る。なお、図17では、単位画素200は2つの光電変換部を備えるが、光電変換部の数は2つに限定されるものではない。 A pixel region chip 1301 includes a pixel section 401 in which unit pixels 200 each having a plurality of photoelectric conversion sections are arranged in a matrix, and a driver circuit section 402 . The driver circuit portion 402 sends driving signals to the pixels of the pixel portion 401 . Although the unit pixel 200 includes two photoelectric conversion units in FIG. 17, the number of photoelectric conversion units is not limited to two.

読み出し回路チップ1302は、読み出し部103、垂直選択回路1304、水平選択回路1305を備える。読み出し部103は単位画素あるいは光電変換部の各々に対応した多数の読み出し回路509を有し、画素部401の画素信号が出力される。読み出し回路509に出力された画素信号は垂直選択回路1304、水平選択回路1305の制御により、順次信号処理部105に転送される。 The readout circuit chip 1302 includes a readout section 103 , a vertical selection circuit 1304 and a horizontal selection circuit 1305 . The readout unit 103 has a large number of readout circuits 509 corresponding to each unit pixel or photoelectric conversion unit, and outputs pixel signals of the pixel unit 401 . The pixel signals output to the readout circuit 509 are sequentially transferred to the signal processing unit 105 under the control of the vertical selection circuit 1304 and the horizontal selection circuit 1305 .

信号処理チップ1303は、制御部104、信号処理部105、出力部106を備える。信号処理部105は、撮像画像用信号処理部701と焦点検出用信号処理部702を有し、読み出し部103により読み出された画素信号を信号処理部105で処理して、出力部106を介して撮像素子100の外部に出力する。信号処理部105における信号処理については、第1乃至第3の実施形態で説明した処理と同様であるため、説明を省略する。 The signal processing chip 1303 has a control section 104 , a signal processing section 105 and an output section 106 . The signal processing unit 105 has a captured image signal processing unit 701 and a focus detection signal processing unit 702. The signal processing unit 105 processes the pixel signals read by the reading unit 103, and outputs them via the output unit 106. and output to the outside of the image sensor 100 . Since the signal processing in the signal processing unit 105 is the same as the processing described in the first to third embodiments, description thereof will be omitted.

撮像素子100は、画素領域チップ1301、読み出し回路チップ1302、信号処理チップ1303が積層されて一体となった構成を有する。ところで、本実施形態の構成のように、例えば1つの光電変換部に対して1つの読み出し回路を備える構成の場合、画素信号が信号処理部105に出力される時間は飛躍的に速くなる。例えば、1つの光電変換部の信号出力にかかる時間をαとすると、1列当たり1つの読み出し回路を備える撮像素子の場合、1フレーム分の画素信号を読み出すためにはαx行数分の時間がかかる。一方、1つの光電変換部に対して1つの読み出し回路を備える場合は、αの時間で1フレーム分の画素信号を読み出すことができる。ただし、この場合、信号処理部105での画素信号の受け取り、及び信号処理が律速することが懸念される。しかし、本実施形態のように、積層構造からなる撮像素子100の信号処理部105は面積を大きく配することができるため、読み出し回路チップ1302からの信号の伝送ラインを多数設けることができ、高速に画素信号を信号処理部105に送ることができる。また、信号処理部105には信号処理回路を多数実装することができるため、並列処理が可能となり、信号処理時間も高速化される。 The imaging device 100 has a configuration in which a pixel region chip 1301, a readout circuit chip 1302, and a signal processing chip 1303 are laminated and integrated. By the way, as in the configuration of this embodiment, for example, in the case of a configuration in which one readout circuit is provided for one photoelectric conversion unit, the time in which pixel signals are output to the signal processing unit 105 is dramatically shortened. For example, if the time required to output a signal from one photoelectric conversion unit is α, in the case of an imaging device having one readout circuit per column, it takes αx number of rows to read out pixel signals for one frame. It takes. On the other hand, when one readout circuit is provided for one photoelectric conversion unit, pixel signals for one frame can be read out in the time α. However, in this case, there is concern that the reception of pixel signals and signal processing in the signal processing unit 105 may be rate-determining. However, since the signal processing unit 105 of the image pickup device 100 having a laminated structure can be provided with a large area as in this embodiment, a large number of signal transmission lines from the readout circuit chip 1302 can be provided, and high-speed processing can be performed. The pixel signal can be sent to the signal processing unit 105 at the same time. In addition, since a large number of signal processing circuits can be mounted in the signal processing unit 105, parallel processing becomes possible and the signal processing time is increased.

以上のように、撮像素子が積層構造となることにより、読み出し部、信号処理部に十分な面積を取ることができる。本実施形態の撮像素子は、画素部からの信号読み出しも高速になり、更に信号処理部105において、必要な信号のみを撮像素子の外部に出力する信号処理を行うことにより、信号伝送量を減らすことができ、撮像画像データと焦点検出情報を共に高速に得ることができる。 As described above, since the image sensor has a laminated structure, a sufficient area can be secured for the readout section and the signal processing section. The image sensor of this embodiment can read out signals from the pixel unit at high speed, and the signal processing unit 105 performs signal processing to output only necessary signals to the outside of the image sensor, thereby reducing the amount of signal transmission. Both captured image data and focus detection information can be obtained at high speed.

(第7の実施形態)
図18は、本発明の第7の実施形態の撮像装置の構成を示すブロック図である。図18において、第3の実施形態と同じ構成部分に関しては同じ記号を付し、詳細な説明を省略する。
(Seventh embodiment)
FIG. 18 is a block diagram showing the configuration of an imaging device according to the seventh embodiment of the present invention. In FIG. 18, the same reference numerals are given to the same components as in the third embodiment, and detailed description thereof will be omitted.

第7の実施形態は、撮像装置全体として見ると、第3の実施形態と同じ構成要素から成るが、撮像素子800の内部に含まれる構成要素が第3の実施形態と異なる。第3の実施形態の撮像素子800は、受光部801、読み出し部802、信号処理部803、画像処理部804、被写体検出部805、位相差検出部806、出力部807、制御部104を含んで構成されている。 The seventh embodiment is composed of the same components as the third embodiment when viewed as an imaging apparatus as a whole, but the components included inside the image sensor 800 are different from the third embodiment. The image sensor 800 of the third embodiment includes a light receiving unit 801, a readout unit 802, a signal processing unit 803, an image processing unit 804, a subject detection unit 805, a phase difference detection unit 806, an output unit 807, and a control unit 104. It is configured.

受光部801は、撮影レンズ101で結像された光学像を受光する。受光部801には、撮影レンズ101の分割された射出瞳領域を通過した光束をそれぞれ受光するように、1つのマイクロレンズの下に複数のPDを備えた焦点検出画素が配置されている。読み出し部802は、A/D変換回路によるアナログデジタル信号処理、および基準レベルの調整(クランプ処理)を行う。 A light receiving unit 801 receives an optical image formed by the imaging lens 101 . In the light-receiving unit 801, focus detection pixels with a plurality of PDs are arranged under one microlens so as to receive the light beams that have passed through the divided exit pupil areas of the photographing lens 101. A reading unit 802 performs analog-digital signal processing by an A/D conversion circuit and adjustment of a reference level (clamp processing).

信号処理部803は、読み出し部103からのデジタル信号出力を受けて、後述する位相差検出部806および画像処理部804へ信号を出力する。このとき、信号処理部803は、被写体検出部805の被写体検出結果を受けて、被写体検出領域の焦点検出用信号を選択的に出力する。 The signal processing unit 803 receives the digital signal output from the reading unit 103 and outputs the signal to the phase difference detection unit 806 and the image processing unit 804 which will be described later. At this time, the signal processing unit 803 receives the subject detection result of the subject detection unit 805 and selectively outputs a signal for focus detection of the subject detection area.

画像処理部804は、信号処理部803から受けた画像生成用の信号に対して、欠陥画素の補正、ノイズリダクション、色変換、ホワイトバランス補正、ガンマ補正等の画像処理、解像度変換処理、画像圧縮処理などを行う。被写体検出部805は、画像処理部804からのデジタル信号出力を受けて、焦点検出処理を行うための信号領域を決定する。 The image processing unit 804 performs image processing such as correction of defective pixels, noise reduction, color conversion, white balance correction, gamma correction, resolution conversion processing, and image compression on the signal for image generation received from the signal processing unit 803 . processing, etc. A subject detection unit 805 receives a digital signal output from the image processing unit 804 and determines a signal region for focus detection processing.

位相差検出部806は、信号処理部803から受けた焦点検出用の信号に対して、位相差検出方式の焦点検出を行うための位相差評価値を算出する。出力部807は、位相差検出部806および画像処理部804から受け取った、位相差評価値および画像生成用のデジタル信号を撮像素子800の外部に出力する。このように、本発明の第7の実施形態の撮像素子によっても、第3の実施形態と同様の効果が得られる。 A phase difference detection unit 806 calculates a phase difference evaluation value for performing phase difference detection type focus detection on the signal for focus detection received from the signal processing unit 803 . The output unit 807 outputs the phase difference evaluation value and the digital signal for image generation received from the phase difference detection unit 806 and the image processing unit 804 to the outside of the image sensor 800 . In this manner, the image pickup device of the seventh embodiment of the present invention also provides the same effects as the third embodiment.

ところで、撮像面位相差AFでは、1つの位相差評価値が、複数画素×複数PDから得られた焦点検出用の信号を相関演算することによって算出される。第3の実施形態では、この位相差評価値の算出に必要な複数の焦点検出用のデジタル信号を、出力部106が撮像素子100の外部に出力していた。一方で、第7の実施形態の場合は、位相差検出部806が算出した位相差評価値を、出力部807が撮像素子800の外部に出力する。つまり、撮像素子800の外部に出力する信号の量は、第7の実施形態の方が第3の実施形態よりもさらに少ない。従って、撮像素子800の出力部807が、焦点検出制御に必要な信号を、第3の実施形態よりもさらに短時間で伝送することができ、撮像面位相差AFによる焦点検出制御を高速に行うことができる。 By the way, in the imaging plane phase difference AF, one phase difference evaluation value is calculated by performing a correlation operation on signals for focus detection obtained from a plurality of pixels×a plurality of PDs. In the third embodiment, the output unit 106 outputs a plurality of focus detection digital signals necessary for calculating the phase difference evaluation value to the outside of the image sensor 100 . On the other hand, in the case of the seventh embodiment, the output unit 807 outputs the phase difference evaluation value calculated by the phase difference detection unit 806 to the outside of the image sensor 800 . In other words, the amount of signal output to the outside of the imaging device 800 is even smaller in the seventh embodiment than in the third embodiment. Therefore, the output unit 807 of the image sensor 800 can transmit the signal necessary for focus detection control in a shorter time than in the third embodiment, and the focus detection control by the imaging plane phase difference AF can be performed at high speed. be able to.

また、第7の実施形態の撮像素子800では、被写体検出部805が、画像処理部804によって処理された後のデジタル信号を用いて、被写体検出を行っている。そのため、欠陥画素補正やノイズリダクションが施された信号を用い、さらには色情報も用いた被写体検出処理を施すことも可能である。従って、第7の実施形態の被写体検出は、第3の実施形態よりも高精度に行うことができる。 Further, in the image pickup device 800 of the seventh embodiment, the subject detection unit 805 uses the digital signal processed by the image processing unit 804 to perform subject detection. Therefore, it is possible to perform subject detection processing using a signal subjected to defective pixel correction and noise reduction, and further using color information. Therefore, subject detection in the seventh embodiment can be performed with higher precision than in the third embodiment.

なお、第7の実施形態の撮像素子800では、第3の実施形態の撮像素子100よりもさらに多くの構成要素を撮像素子800の中に構成する。従って、図16に示したような、積層型撮像素子であることが好適である。 It should be noted that the imaging device 800 of the seventh embodiment includes more components than the imaging device 100 of the third embodiment. Therefore, it is preferable to use a stacked imaging device as shown in FIG.

(第8の実施形態)
第1乃至第3の実施形態では、撮像素子が焦点検出用の信号を選択的に出力/伝送することによって、高速な撮像面位相差AFが可能になることを説明した。しかしながら、本発明の適用される範囲は撮像面位相差AFに限らず、撮像素子の信号を用いた自動露光制御(撮像面AE)にも、適用することができる。撮像面AEでは、具体的には、撮影レンズの絞り、撮像素子の蓄積時間、撮像素子の感度(ゲイン)、などを撮像装置が自動的に決定した上で制御する。本発明の第3の実施形態では、撮像面AEに用いる信号を、撮像素子が選択的に出力/伝送することによって、撮像面AEを高速化することを目的としている。
(Eighth embodiment)
In the first to third embodiments, it has been explained that high-speed imaging plane phase difference AF is possible by selectively outputting/transmitting signals for focus detection by the image sensor. However, the scope of application of the present invention is not limited to imaging plane phase difference AF, and can also be applied to automatic exposure control (imaging plane AE) using a signal from an imaging device. Specifically, in the image pickup plane AE, the image pickup apparatus automatically determines and controls the aperture of the photographing lens, the accumulation time of the image pickup device, the sensitivity (gain) of the image pickup device, and the like. The third embodiment of the present invention aims at speeding up the imaging plane AE by selectively outputting/transmitting signals used for the imaging plane AE by the imaging device.

図19は、本発明の第8の実施形態の撮像装置の構成を示すブロック図である。図19において、第3の実施形態と同じ構成部分に関しては、同じ記号を付して、詳細な説明を省略する。本実施形態は、撮像装置が測光部820を備えている点が第3の実施形態と異なる。 FIG. 19 is a block diagram showing the configuration of an imaging device according to the eighth embodiment of the present invention. In FIG. 19, the same symbols are attached to the same components as in the third embodiment, and detailed description thereof is omitted. This embodiment differs from the third embodiment in that the imaging device includes a photometry unit 820 .

信号処理部105は、読み出し部103からの画像生成用のデジタル信号出力を受けて、出力部106へ信号を出力する。信号処理部105は、撮像装置で設定された測光方式に応じて、撮像面AEに用いる画像生成用のデジタル信号を選択する。この時、例えば、所謂「スポット測光方式」や「部分測光方式」であれば、信号処理部105は、画面中央の一部領域の信号を選択する。また、所謂「評価測光方式」であれば、信号処理部105は、画面全体の信号を選択する。ただし、画面全体の全ての画素の信号を選択するのではなく、測光評価値の算出に必要な信号量が得られる範囲で、行間引きや列間引きして信号を選択することが、撮像面AEを高速化するために好ましい。また、第3の実施形態と同様に、ユーザーが任意に選択した焦点検出領域や、被写体検出部105aが検出した被写体領域の、画像生成用信号を選択するようにしてもよい。 The signal processing unit 105 receives the digital signal output for image generation from the reading unit 103 and outputs a signal to the output unit 106 . The signal processing unit 105 selects a digital signal for image generation to be used for the imaging plane AE according to the photometric method set in the imaging apparatus. At this time, for example, in the case of the so-called "spot metering method" or "partial metering method", the signal processing unit 105 selects a signal of a partial area in the center of the screen. In the case of the so-called “evaluative photometry method”, the signal processing unit 105 selects the signal of the entire screen. However, instead of selecting signals from all pixels in the entire screen, it is possible to select signals by thinning out rows or columns within a range in which the amount of signal necessary for calculating the photometry evaluation value is obtained. is preferred for speeding up Further, as in the third embodiment, the image generation signal of the focus detection area arbitrarily selected by the user or the subject area detected by the subject detection unit 105a may be selected.

測光部820は、出力部106からの画像生成用のデジタル信号を受けて、撮像面AEを行うための測光評価値を算出する。測光部820に入力される画像生成用のデジタル信号は、撮像素子100内部の信号処理部105が選択した領域の信号である。従って、撮像素子100の出力部106が測光部820に伝送する撮像面AEのための画像生成用信号は、露光制御に必要な信号のみであるので、通信帯域が効率的に使われることになる。また、測光部820の内部処理においても、撮像面AEに最終的に不要な領域の測光評価値算出の演算処理や、最終的に必要な信号を抽出する処理が不要となる。従って、測光部820が測光評価値を算出する処理速度を高速化できる。 A photometry unit 820 receives a digital signal for image generation from the output unit 106 and calculates a photometry evaluation value for performing imaging plane AE. A digital signal for image generation input to the photometry unit 820 is a signal of an area selected by the signal processing unit 105 inside the image sensor 100 . Therefore, the image generation signal for the imaging surface AE that is transmitted from the output unit 106 of the image sensor 100 to the photometry unit 820 is only the signal necessary for exposure control, so the communication band is efficiently used. . Also, in the internal processing of the photometry unit 820, there is no need for calculation processing for photometric evaluation value calculation of finally unnecessary areas on the imaging plane AE and processing for extracting finally necessary signals. Therefore, the processing speed for calculating the photometric evaluation value by the photometry unit 820 can be increased.

レンズ制御部114は、測光部820からの測光評価値の出力を受けて、測光評価値に基づいて、撮影レンズ101の絞りを駆動する。さらに、全体制御・演算部109は測光評価値に基づいて撮像素子100を駆動して、撮像素子100の蓄積時間と感度(ゲイン)を制御する。 The lens control unit 114 receives the output of the photometry evaluation value from the photometry unit 820, and drives the aperture of the photographing lens 101 based on the photometry evaluation value. Furthermore, the overall control/calculation unit 109 drives the image sensor 100 based on the photometric evaluation value, and controls the accumulation time and sensitivity (gain) of the image sensor 100 .

以上説明したように、本発明の第8の実施形態によれば、撮像素子100の出力部106が測光部820に伝送する画像生成用の信号は、撮像面AEに必要な信号のみであるので、高速な伝送が可能である。そして、測光部820では、撮像面AEに最終的に不要な測光評価値算出の演算処理や、最終的に必要な信号を抽出する処理が不要となる。従って、撮像面AEを高速化することができる。 As described above, according to the eighth embodiment of the present invention, the signals for image generation transmitted from the output unit 106 of the image sensor 100 to the photometry unit 820 are only the signals necessary for the imaging surface AE. , high-speed transmission is possible. Then, the photometry unit 820 does not need arithmetic processing for calculating photometric evaluation values that are ultimately unnecessary for the imaging plane AE, and processing for extracting signals that are ultimately required. Therefore, the imaging surface AE can be speeded up.

なお、第8の実施形態の撮像素子100の画素においては、必ずしも図2で説明したような1画素につき複数のPDを配置することは必要ない。測光評価値を算出するためには、画像生成用の信号(すなわち1つのマイクロレンズ下にある複数のPDの信号を画素毎に混合した信号)さえあればよいので、1つのマイクロレンズ下に1つのPDがある構成であってもよい。 In addition, in the pixels of the imaging device 100 of the eighth embodiment, it is not always necessary to arrange a plurality of PDs for each pixel as described with reference to FIG. In order to calculate the photometry evaluation value, it is sufficient to have an image generation signal (that is, a signal obtained by mixing signals of a plurality of PDs under one microlens for each pixel). A configuration with one PD may also be used.

また、第8の実施形態では、第3の実施形態の構成を基に撮像面AEを適用する構成について説明したが、同じように第7の実施形態の構成を基に撮像面AEを適用することもできる。この場合は、図18における位相差検出部806が、測光部に置き換わることで撮像素子800が構成される。 Further, in the eighth embodiment, the configuration in which the imaging surface AE is applied based on the configuration of the third embodiment has been described, but in the same way, the imaging surface AE is applied based on the configuration of the seventh embodiment. can also In this case, the image sensor 800 is configured by replacing the phase difference detection unit 806 in FIG. 18 with a photometry unit.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100:撮像素子、101:撮影レンズ、102:受光部、103:読み出し部、104:制御部、105:信号処理部、106:出力部、107:画像処理部、108:位相差検出部、109:全体制御・演算部 100: image sensor, 101: photographing lens, 102: light receiving unit, 103: readout unit, 104: control unit, 105: signal processing unit, 106: output unit, 107: image processing unit, 108: phase difference detection unit, 109 : Overall control/calculation part

Claims (14)

各々が1つのマイクロレンズと複数の光電変換部とを有する単位画素が行列状に複数配列された画素部と、
前記単位画素の各々における前記複数の光電変換部のうちの一部の光電変換部に蓄積された電荷に対応する信号と、前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号とを保持する信号保持部と、
前記信号保持部に保持された前記複数の単位画素の各々における前記複数の光電変換部のうちの一部の光電変換部に蓄積された電荷に対応する信号および前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号に基づく信号を出力する出力部と、
を備え、
前記画素部が第1の半導体基板に形成されるとともに、前記信号保持部が前記第1の半導体基板と異なる第2の半導体基板に形成され、
前記第1の半導体基板と前記第2の半導体基板は互いに積層されていることを特徴とする撮像素子。
a pixel portion in which a plurality of unit pixels each having one microlens and a plurality of photoelectric conversion portions are arranged in a matrix;
obtained by mixing a signal corresponding to charges accumulated in some of the plurality of photoelectric conversion units in each of the unit pixels and charges accumulated in all of the plurality of photoelectric conversion units; a signal holding unit that holds a signal corresponding to the charged charge;
A signal corresponding to charges accumulated in some of the plurality of photoelectric conversion units in each of the plurality of unit pixels held in the signal holding unit and all of the plurality of photoelectric conversion units an output unit that outputs a signal based on a signal corresponding to the charge obtained by mixing the accumulated charges;
with
The pixel portion is formed on a first semiconductor substrate, and the signal holding portion is formed on a second semiconductor substrate different from the first semiconductor substrate,
An imaging device, wherein the first semiconductor substrate and the second semiconductor substrate are stacked on each other.
前記出力部は、前記信号保持部により保持された前記画素部の信号から画素領域の一部に配置された前記複数の単位画素の各々における前記複数の光電変換部の信号のうちの一部の光電変換部に蓄積された電荷に対応する信号に基づく信号を出力することを特徴とする請求項1に記載の撮像素子。 The output unit selects a part of the signals of the plurality of photoelectric conversion units in each of the plurality of unit pixels arranged in a part of the pixel region from the signal of the pixel unit held by the signal holding unit. 2. The imaging device according to claim 1, wherein a signal based on a signal corresponding to charges accumulated in the photoelectric conversion portion is output. 前記出力部は、前記信号保持部により保持された前記画素部の信号から画素領域の全体に配置された前記複数の単位画素の各々における前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号に基づく信号を出力することを特徴とする請求項2に記載の撮像素子。 The output section mixes charges accumulated in all of the plurality of photoelectric conversion sections in each of the plurality of unit pixels arranged over the entire pixel region from the signal of the pixel section held by the signal holding section. 3. The imaging device according to claim 2, wherein a signal based on a signal corresponding to the charge obtained by the above is outputted. 前記画素領域の一部は、被写体領域であることを特徴とする請求項2または3に記載の撮像素子。 4. The imaging device according to claim 2, wherein a part of said pixel area is a subject area. 前記画素領域の一部は、ユーザにより選ばれた領域であることを特徴とする請求項2または3に記載の撮像素子。 4. The imaging device according to claim 2, wherein the part of the pixel area is an area selected by a user. 前記信号保持部は、前記画素部から読み出した信号をそれぞれ前記単位画素ごとに保持する複数の保持回路を有することを特徴とする請求項1乃至5のいずれか1項に記載の撮像素子。 6. The imaging device according to any one of claims 1 to 5, wherein the signal holding section has a plurality of holding circuits that hold the signals read out from the pixel section for each of the unit pixels. 前記信号保持部は、前記画素部から読み出した信号をそれぞれ列ごとに保持する複数の保持回路を有することを特徴とする請求項1乃至5のいずれか1項に記載の撮像素子。 6. The imaging device according to claim 1, wherein the signal holding section has a plurality of holding circuits that hold the signals read out from the pixel section for each column. 撮像素子と、該撮像素子から出力された信号を処理して画像を生成する画像処理手段と、前記出力された信号を処理して焦点検出を行う焦点検出手段とを備え、
前記撮像素子が、
各々が1つのマイクロレンズと複数の光電変換部とを有する単位画素が行列状に複数配列された画素部と、
前記単位画素の各々における前記複数の光電変換部のうちの一部の光電変換部に蓄積された電荷に対応する信号と、前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号とを保持する信号保持部と、
前記信号保持部に保持された前記複数の単位画素の各々における前記複数の光電変換部のうちの一部の光電変換部に蓄積された電荷に対応する信号および前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号に基づく信号を出力する出力部と、
を有し、
前記画素部が第1の半導体基板に形成されるとともに、前記信号保持部が前記第1の半導体基板と異なる第2の半導体基板に形成され、
前記第1の半導体基板と前記第2の半導体基板は互いに積層されていることを特徴とする撮像装置。
An imaging device, image processing means for processing a signal output from the imaging device to generate an image, and focus detection means for processing the output signal to perform focus detection,
The imaging element is
a pixel portion in which a plurality of unit pixels each having one microlens and a plurality of photoelectric conversion portions are arranged in a matrix;
obtained by mixing a signal corresponding to charges accumulated in some of the plurality of photoelectric conversion units in each of the unit pixels and charges accumulated in all of the plurality of photoelectric conversion units; a signal holding unit that holds a signal corresponding to the charged charge;
A signal corresponding to charges accumulated in some of the plurality of photoelectric conversion units in each of the plurality of unit pixels held in the signal holding unit and all of the plurality of photoelectric conversion units an output unit that outputs a signal based on a signal corresponding to the charge obtained by mixing the accumulated charges;
has
The pixel portion is formed on a first semiconductor substrate, and the signal holding portion is formed on a second semiconductor substrate different from the first semiconductor substrate,
An image pickup device, wherein the first semiconductor substrate and the second semiconductor substrate are stacked on each other.
前記出力部は、前記信号保持部により保持された前記画素部の信号から画素領域の一部に配置された前記複数の単位画素の各々における前記複数の光電変換部の信号のうちの一部の光電変換部に蓄積された電荷に対応する信号に基づく信号を出力することを特徴とする請求項8に記載の撮像装置。 The output unit selects a part of the signals of the plurality of photoelectric conversion units in each of the plurality of unit pixels arranged in a part of the pixel region from the signal of the pixel unit held by the signal holding unit. 9. The imaging device according to claim 8, wherein a signal based on a signal corresponding to charges accumulated in the photoelectric conversion unit is output. 前記出力部は、前記信号保持部により保持された前記画素部の信号から画素領域の全体に配置された前記複数の単位画素の各々における前記複数の光電変換部のすべてに蓄積された電荷を混合して得られた電荷に対応する信号に基づく信号を出力することを特徴とする請求項9に記載の撮像装置。 The output section mixes charges accumulated in all of the plurality of photoelectric conversion sections in each of the plurality of unit pixels arranged over the entire pixel region from the signal of the pixel section held by the signal holding section. 10. The image pickup apparatus according to claim 9, wherein a signal based on a signal corresponding to the charge obtained by the above is outputted. 前記画素領域の一部は、被写体領域であることを特徴とする請求項9または10に記載の撮像装置。 11. The imaging apparatus according to claim 9, wherein a part of said pixel area is a subject area. 前記画素領域の一部は、ユーザにより選ばれた領域であることを特徴とする請求項9または10に記載の撮像装置。 11. The imaging device according to claim 9, wherein the part of the pixel area is an area selected by a user. 前記信号保持部は、前記画素部から読み出した信号をそれぞれ前記単位画素ごとに保持する複数の保持回路を有することを特徴とする請求項8乃至12のいずれか1項に記載の撮像装置。 13. The imaging apparatus according to claim 8, wherein the signal holding section has a plurality of holding circuits that hold the signals read out from the pixel section for each of the unit pixels. 前記信号保持部は、前記画素部から読み出した信号をそれぞれ列ごとに保持する複数の保持回路を有することを特徴とする請求項8乃至12のいずれか1項に記載の撮像装置。 13. The imaging apparatus according to claim 8, wherein the signal holding section has a plurality of holding circuits that hold the signals read out from the pixel section for each column.
JP2023021862A 2015-09-16 2023-02-15 Image pickup device and imaging apparatus Pending JP2023057134A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015183247 2015-09-16
JP2015183247 2015-09-16
JP2016144756A JP6929027B2 (en) 2015-09-16 2016-07-22 Image sensor and image sensor
JP2021126876A JP7232291B2 (en) 2015-09-16 2021-08-02 Imaging element and imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021126876A Division JP7232291B2 (en) 2015-09-16 2021-08-02 Imaging element and imaging device

Publications (1)

Publication Number Publication Date
JP2023057134A true JP2023057134A (en) 2023-04-20

Family

ID=87699512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023021862A Pending JP2023057134A (en) 2015-09-16 2023-02-15 Image pickup device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2023057134A (en)

Similar Documents

Publication Publication Date Title
US11719908B2 (en) Image sensor and image capturing apparatus
US11493729B2 (en) Image sensor capable of reducing readout time and image capturing apparatus
CN104869290B (en) Photographing element, camera device
US10003715B2 (en) Image pickup device and imaging apparatus
US20160381313A1 (en) Image Sensor and Imaging Apparatus
US20150358562A1 (en) Solid-state imaging device
US9160943B2 (en) Imaging apparatus, imaging method, and program
JP7232291B2 (en) Imaging element and imaging device
US20160353043A1 (en) Image sensor and image apparatus
JP5187039B2 (en) Solid-state imaging device and electronic camera using the same
JP6955543B2 (en) Image sensor and image sensor
JP6641135B2 (en) Imaging device and imaging device
JP2017216649A (en) Imaging device, imaging apparatus and imaging signal processing method
JP2023057134A (en) Image pickup device and imaging apparatus
JP2009188650A (en) Imaging apparatus
JP2018117178A (en) Image pickup element and imaging device
JP2016032207A (en) Imaging apparatus
JP6366325B2 (en) Imaging system
JP2012165104A (en) Solid state image pickup device and image pickup device
JP2019149608A (en) Imaging apparatus and focus detection device
JP2018042157A (en) Imaging apparatus and focal point detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310