JP2018133600A - Imaging apparatus, imaging apparatus control method and program - Google Patents

Imaging apparatus, imaging apparatus control method and program Download PDF

Info

Publication number
JP2018133600A
JP2018133600A JP2017023810A JP2017023810A JP2018133600A JP 2018133600 A JP2018133600 A JP 2018133600A JP 2017023810 A JP2017023810 A JP 2017023810A JP 2017023810 A JP2017023810 A JP 2017023810A JP 2018133600 A JP2018133600 A JP 2018133600A
Authority
JP
Japan
Prior art keywords
signal
unit
pixel
image
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017023810A
Other languages
Japanese (ja)
Other versions
JP6884590B2 (en
Inventor
敏和 柳井
Toshikazu Yanai
敏和 柳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017023810A priority Critical patent/JP6884590B2/en
Publication of JP2018133600A publication Critical patent/JP2018133600A/en
Application granted granted Critical
Publication of JP6884590B2 publication Critical patent/JP6884590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To achieve suppression of degradation in a frame rate and reduction in power consumption when performing focus detection and image preparation, using imaging means with a plurality of pixels, each having a plurality of photoelectric conversion parts.SOLUTION: An imaging apparatus concurrently acquires a signal for focus detection and a signal for a picked-up image by one imaging operation and stores the signals in a recording unit 112. At this time, the imaging apparatus delays a processing rate at which image processing of picked-up images is executed more than an imaging rate at which signals of pixels 200 of an imaging unit 101 are read and transferred to the recording unit 112. The imaging apparatus continuously reads only signals of focus detection pixels in a focus detection region.SELECTED DRAWING: Figure 2

Description

本発明は、撮像装置、撮像装置の制御方法、およびプログラムに関し、特に、複数の光電変換部を含む画素を備える撮像手段を用いて画像を撮像するために用いて好適なものである。   The present invention relates to an image pickup apparatus, an image pickup apparatus control method, and a program, and is particularly suitable for taking an image using an image pickup unit including a pixel including a plurality of photoelectric conversion units.

複数の光電変換部を有する画素であって、当該複数の光電変換部による画素内瞳分割機能を有する画素を複数有する撮像素子を備える撮像装置がある。このような撮像装置では、位相差検出方式の焦点検出が行われる。焦点検出方法に利用可能な信号を出力する撮像素子の一例として、1対の光電変換部を有する画素を、2次元に配列したマイクロレンズアレイのマイクロレンズ毎に設けたものがある。   There is an image pickup apparatus including a pixel having a plurality of photoelectric conversion units and an image pickup element having a plurality of pixels each having an in-pixel pupil division function by the plurality of photoelectric conversion units. In such an imaging apparatus, focus detection by a phase difference detection method is performed. As an example of an image sensor that outputs a signal that can be used for a focus detection method, there is one in which pixels having a pair of photoelectric conversion units are provided for each microlens of a microlens array that is two-dimensionally arranged.

このような撮像装置に関する技術として特許文献1に記載の技術がある。特許文献1に記載の技術では、撮像装置は、まず、マイクロレンズにより瞳分割された画素として、光電変換部Aと光電変換部Bとを有する画素から、光電変換部Aの出力信号であるA像と光電変換部Aと光電変換部Bの加算信号であるA+B像を読み出す。次に、撮像装置は、A+B像からA像を減算して((A+B像)−(A像)の計算を行って)、光電変換部Bの出力信号であるB像を求める。そして、撮像装置は、A像とB像とを用いて位相差検出方式の焦点検出を実施すると共に、A+B像を用いて被写体画像を作成する。   There exists a technique of patent document 1 as a technique regarding such an imaging device. In the technique disclosed in Patent Document 1, the imaging apparatus first outputs A which is an output signal of the photoelectric conversion unit A from a pixel having the photoelectric conversion unit A and the photoelectric conversion unit B as pixels divided by a microlens. An A + B image that is an addition signal of the image, the photoelectric conversion unit A, and the photoelectric conversion unit B is read out. Next, the imaging apparatus subtracts the A image from the A + B image (calculates (A + B image) − (A image)) to obtain a B image that is an output signal of the photoelectric conversion unit B. The imaging apparatus performs focus detection by the phase difference detection method using the A image and the B image, and creates a subject image using the A + B image.

特開2013−106194号公報JP 2013-106194 A

しかしながら、特許文献1に記載の技術では、A像とA+B像とを読み出す必要があり、読み出しデータ量が2倍となる。このため、読み出し時間も2倍になるという課題がある。これにより、所望の動画性能としてのフレームレートが低下する虞や、行毎の画素の読み出し時間差によるローリング歪の悪化という問題が発生する虞があるという問題がある。   However, in the technique described in Patent Document 1, it is necessary to read the A image and the A + B image, and the read data amount is doubled. For this reason, there is a problem that the readout time is also doubled. As a result, there is a problem that a frame rate as a desired moving image performance may be lowered, and a problem that a rolling distortion is deteriorated due to a pixel readout time difference for each row may occur.

これに対して、所望のフレームレートを維持して、A像とA+B像とを読み出す場合には、データレート(単位時間あたりの転送データ量)が2倍となる。このため、A像とA+B像とを読み出す際のデータレートが、撮像素子が出力可能なデータレートを越える虞があるという問題がある。   On the other hand, when reading out the A image and the A + B image while maintaining the desired frame rate, the data rate (transfer data amount per unit time) is doubled. For this reason, there exists a problem that the data rate at the time of reading A image and A + B image may exceed the data rate which an image sensor can output.

また、撮像素子が出力可能なデータレートでA像とA+B像とを読み出す場合においても、撮像装置が備える信号処理部が、A+B像を用いた被写体画像の作成を、撮像素子が出力可能なデータレートで実施する必要がある。このため、信号処理部の信号処理レート(単位時間あたりの処理量)の限界に達する虞や信号処理部の消費電力が高くなる虞があるという問題がある。   In addition, even when the A image and the A + B image are read out at a data rate that can be output by the image sensor, the signal processing unit included in the image capturing apparatus creates a subject image using the A + B image, and the data that the image sensor can output. Need to be implemented at a rate. For this reason, there exists a problem that there exists a possibility that the limit of the signal processing rate (processing amount per unit time) of a signal processing part may be reached, or the power consumption of a signal processing part may become high.

更に、撮像素子からA像とA+B像とを読み出す場合、撮像装置が備える信号処理部は、A+B像を用いた被写体画像の作成中に、A+B像およびA像からB像を計算し、A像およびB像を用いて位相差検出方式の焦点検出を実施する必要がある。このため、信号処理部の消費電力が大きくなる虞があるという問題がある。
このように従来の技術では、それぞれが複数の光電変換部を有する複数の画素を備える撮像手段を用いて、画素内瞳分割機能により位相差検出方式の焦点検出と画像の作成とを行うに際し、フレームレートの低下の抑制と消費電力の削減との実現が容易ではない。
Further, when the A image and the A + B image are read from the image sensor, the signal processing unit included in the imaging device calculates the B image from the A + B image and the A image during the creation of the subject image using the A + B image, and the A image It is necessary to perform focus detection by the phase difference detection method using the B image and the B image. For this reason, there exists a problem that there exists a possibility that the power consumption of a signal processing part may become large.
As described above, in the conventional technology, when performing the focus detection and the image creation of the phase difference detection method by the intra-pixel pupil division function using the imaging unit including a plurality of pixels each having a plurality of photoelectric conversion units, It is not easy to suppress the decrease in frame rate and reduce power consumption.

本発明はこのような点に鑑みてなされたものであり、それぞれが複数の光電変換部を有する複数の画素を備える撮像手段を用いて、焦点検出と画像の作成とを行うに際し、フレームレートの低下の抑制と消費電力の削減とを実現することを目的とする。   The present invention has been made in view of such a point, and when performing focus detection and image creation using an imaging unit including a plurality of pixels each having a plurality of photoelectric conversion units, the frame rate is adjusted. The purpose is to realize a reduction in power consumption and a reduction in power consumption.

本発明の撮像装置は、それぞれが複数の光電変換部を有する複数の画素を備える撮像手段と、前記撮像手段により撮像された画像に対応する第1の領域にある前記画素の信号を読み出す第1の読み出し手段と、前記第1の読み出し手段により読み出された前記画素の信号を第1の記憶媒体に記憶する第1の記憶手段と、前記第1の記憶手段により記憶された前記画素の信号であって、前記撮像手段により撮像された画像を作成するために用いる信号を読み出す第2の読み出し手段と、前記第1の記憶手段により記憶された前記画素の信号の一部の信号であって、焦点を検出するために用いる信号を連続的に読み出す第3の読み出し手段と、を有し、前記第1の読み出し手段による前記画素の信号の読み出し速度である第1の読み出し速度よりも、前記第2の読み出し手段による前記信号の読み出し速度である第2の読み出し速度の方が遅いことを特徴とする。   An imaging apparatus according to the present invention includes: an imaging unit including a plurality of pixels each having a plurality of photoelectric conversion units; and a first signal that reads a signal of the pixel in a first region corresponding to an image captured by the imaging unit. Reading means, first storage means for storing the pixel signals read by the first reading means in a first storage medium, and pixel signals stored by the first storage means A second readout unit that reads out a signal used to create an image captured by the imaging unit, and a signal that is a part of the pixel signal stored in the first storage unit. And a third readout means for continuously reading out the signal used for detecting the focal point, and a first readout speed which is a readout speed of the signal of the pixel by the first readout means. , Wherein said that the direction of the second reading speed is read speed of the signal is low by the second reading means.

本発明によれば、それぞれが複数の光電変換部を有する複数の画素を備える撮像手段を用いて、焦点検出と画像の作成とを行うに際し、フレームレートの低下の抑制と消費電力の削減とを実現することができる。   According to the present invention, when performing focus detection and image creation using an imaging unit including a plurality of pixels each having a plurality of photoelectric conversion units, suppression of a decrease in frame rate and reduction in power consumption are achieved. Can be realized.

撮像装置の構成を示す図である。It is a figure which shows the structure of an imaging device. 撮像素子の基板構成を示す図である。It is a figure which shows the board | substrate structure of an image pick-up element. 撮像基板の構成を示す図である。It is a figure which shows the structure of an imaging substrate. 画素の回路構成を示す図である。It is a figure which shows the circuit structure of a pixel. 画素200の概略構成を示す図である。2 is a diagram illustrating a schematic configuration of a pixel 200. FIG. 列信号処理部の回路構成を示す図である。It is a figure which shows the circuit structure of a column signal processing part. 信号処理の第1の例を説明する図である。It is a figure explaining the 1st example of signal processing. 撮像装置の動作タイミングの第1の例を示す図である。It is a figure showing the 1st example of operation timing of an imaging device. 信号処理の第2の例を説明する図である。It is a figure explaining the 2nd example of signal processing. 撮像装置の動作タイミングの第2の例を示す図である。It is a figure showing the 2nd example of operation timing of an imaging device.

以下に、図面を参照して実施形態について詳細に説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。
図1は、本実施形態の撮像装置の構成の一例を示す図である。本実施形態の撮像装置は、例えば、デジタルスチルカメラ、デジタルビデオカメラ、工業用カメラ、車載用カメラ、または医療用カメラ等に適用することが可能である。
図1に示す撮像装置は、撮像光学系11、撮像素子12、信号処理部13、圧縮伸張部14、同期制御部15、操作部16、画像表示部17、画像記録部18および振動検出部19を有する。
Hereinafter, embodiments will be described in detail with reference to the drawings.
(First embodiment)
First, the first embodiment will be described.
FIG. 1 is a diagram illustrating an example of the configuration of the imaging apparatus according to the present embodiment. The imaging apparatus of the present embodiment can be applied to, for example, a digital still camera, a digital video camera, an industrial camera, an in-vehicle camera, or a medical camera.
An imaging apparatus shown in FIG. 1 includes an imaging optical system 11, an imaging element 12, a signal processing unit 13, a compression / decompression unit 14, a synchronization control unit 15, an operation unit 16, an image display unit 17, an image recording unit 18, and a vibration detection unit 19. Have

撮像光学系11は、被写体像を結像させるためのレンズ、ズームや合焦あるいは防振を行うためのレンズ駆動機構、メカニカルシャッタ機構、および絞り機構等を有する。これらのうちの可動部は、同期制御部15からの制御信号に基づいて駆動される。
撮像素子12は、例えば、XYアドレス方式のCMOS(Complementary Metal Oxide Semiconductor)センサを備える。撮像素子12は、同期制御部15からの制御信号に応じて、露光、信号の読み出し、およびリセット等の撮像動作を実施する。撮像素子12は、アナログデジタル変換回路(以下「AD変換回路」という)を有する。CMOSセンサから読み出された信号は、アナログデジタル変換回路によりアナログデジタル変換(以下「AD変換」という)されてデジタル化される。デジタル化された画像信号は、信号処理部13に出力される。撮像素子12に設けられた画素は、位相差検出方式による焦点検出のための第1の焦点検出用の信号と、撮影画像を作成するための撮影画像用の信号とを出力する。本実施形態では、第1の焦点検出用の信号は、後述するA信号に対応し、撮影画像用の信号は、後述するA+B信号に対応する。そして、撮像素子12は、1つの画素から出力された第1の焦点検出用の信号と撮影画像用の信号とを用いて第2の焦点検出用の信号を求める。本実施形態では、第2の焦点検出用の信号は、後述するA+B信号からA信号を減算した信号(B信号)に対応する。
The imaging optical system 11 includes a lens for forming a subject image, a lens driving mechanism for performing zooming, focusing, or image stabilization, a mechanical shutter mechanism, a diaphragm mechanism, and the like. Among these, the movable part is driven based on a control signal from the synchronization control part 15.
The imaging device 12 includes, for example, an XY address type CMOS (Complementary Metal Oxide Semiconductor) sensor. The imaging element 12 performs an imaging operation such as exposure, signal readout, and reset in accordance with a control signal from the synchronization control unit 15. The image sensor 12 has an analog-digital conversion circuit (hereinafter referred to as “AD conversion circuit”). A signal read from the CMOS sensor is subjected to analog-digital conversion (hereinafter referred to as “AD conversion”) by an analog-digital conversion circuit and digitized. The digitized image signal is output to the signal processing unit 13. The pixels provided in the image sensor 12 output a first focus detection signal for focus detection by a phase difference detection method and a captured image signal for creating a captured image. In the present embodiment, the first focus detection signal corresponds to an A signal described later, and the captured image signal corresponds to an A + B signal described later. Then, the image pickup device 12 obtains a second focus detection signal using the first focus detection signal and the captured image signal output from one pixel. In the present embodiment, the second focus detection signal corresponds to a signal (B signal) obtained by subtracting the A signal from the A + B signal described later.

信号処理部13は、同期制御部15の制御の下で、撮像素子12から入力されるデジタル化された画像信号に対して、信号処理と、制御情報の検出とを実施する。信号処理には、例えば、ホワイトバランス調整、色補正、およびガンマ補正等が含まれる。制御情報には、例えば、AF(Auto Focus)やAE(Auto Exposure)等の制御情報が含まれる。そして、信号処理部13は、信号処理された画像信号や制御情報を同期制御部15に出力する。   The signal processing unit 13 performs signal processing and control information detection on the digitized image signal input from the image sensor 12 under the control of the synchronization control unit 15. The signal processing includes, for example, white balance adjustment, color correction, and gamma correction. The control information includes control information such as AF (Auto Focus) and AE (Auto Exposure). Then, the signal processing unit 13 outputs the image signal and control information subjected to signal processing to the synchronization control unit 15.

本実施形態では、信号処理部13は、AF検出処理として、位相差検出方式による焦点検出処理を実施する。位相差検出方式による焦点検出方法として、例えば、画素内瞳分割機能を用いた以下の方法がある。信号処理部13は、2つの光電変換素子を含む画素において、複数の画素の一方の光電変換素子の出力信号と他方の光電変換素子の出力信号との波形のずれ(位相差)を検出する。即ち、信号処理部13は、複数の画素に関わる前述した2つの焦点検出用の信号に基づいて、画素内瞳分割された2つの光電変換素子に対する入射光の位相差を検出する。そして、信号処理部13は、検出した位相差に基づいて被写体までの距離を求めて焦点検出を行い、被写体が合焦するように合焦レンズを駆動させる。また、信号処理部13は、画素領域の画素から得られた撮影画像用の信号を用いて撮影画像を作成する。   In the present embodiment, the signal processing unit 13 performs focus detection processing by a phase difference detection method as AF detection processing. As a focus detection method by the phase difference detection method, for example, there is the following method using the intra-pixel pupil division function. The signal processing unit 13 detects, in a pixel including two photoelectric conversion elements, a waveform shift (phase difference) between the output signal of one of the plurality of pixels and the output signal of the other photoelectric conversion element. That is, the signal processing unit 13 detects the phase difference of the incident light with respect to the two photoelectric conversion elements obtained by dividing the intra-pixel pupil, based on the above-described two focus detection signals related to a plurality of pixels. Then, the signal processing unit 13 obtains the distance to the subject based on the detected phase difference, performs focus detection, and drives the focusing lens so that the subject is in focus. The signal processing unit 13 creates a photographed image using a photographed image signal obtained from the pixels in the pixel region.

圧縮伸張部14は、同期制御部15の制御の下で動作する。圧縮伸張部14は、信号処理部13で信号処理された画像信号を同期制御部15から受け取って、圧縮符号化処理を実施したり、同期制御部15から供給された静止画像の符号化データに対して伸張復号化処理を実施したりする。そして、圧縮伸張部14は、圧縮符号化処理された符号化データや、伸張復号化処理された画像信号を同期制御部15に出力する。また、圧縮伸張部14は、動画像の圧縮符号化/伸張復号化処理を実行してもよい。   The compression / decompression unit 14 operates under the control of the synchronization control unit 15. The compression / decompression unit 14 receives the image signal signal-processed by the signal processing unit 13 from the synchronization control unit 15, performs compression encoding processing, or converts the still image encoded data supplied from the synchronization control unit 15 into encoded data of the still image. For example, decompression decoding processing is performed. Then, the compression / decompression unit 14 outputs the encoded data subjected to the compression encoding process and the image signal subjected to the expansion decoding process to the synchronization control unit 15. Further, the compression / decompression unit 14 may execute a compression encoding / decompression decoding process of a moving image.

同期制御部15は、例えば、マイクロコントローラを有する。マイクロコントローラは、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)等を有する。同期制御部15は、ROM等に記憶されたプログラムを実行することにより、撮像装置の各部を統括的に制御する。また、各部の間の画像データの転送や制御データの転送も同期制御部15を介して実行される。   The synchronization control unit 15 includes, for example, a microcontroller. The microcontroller includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The synchronization control unit 15 comprehensively controls each unit of the imaging apparatus by executing a program stored in a ROM or the like. Further, image data transfer and control data transfer between the respective units are also executed via the synchronization control unit 15.

操作部16は、例えば、シャッタレリーズボタン等の各種操作キー、レバー、およびダイヤル等を有する。操作部16は、ユーザによる入力操作に応じた制御信号を同期制御部15に出力する。
画像表示部17は、LCD(Liquid Crystal Display)等の表示デバイスや、これに対するインタフェース回路等を有する。画像表示部17は、同期制御部15から供給された画像信号を表示デバイスに表示させるための信号を生成し、生成した信号を表示デバイスに供給して画像を表示させる。
画像記録部18には、例えば、可搬型の半導体メモリ等からなる記録媒体が接続される。画像記録部18は、例えば、圧縮伸張部14により圧縮符号化処理された符号化データのファイル(画像データファイル)を同期制御部15から受け取って、記録媒体に記憶する。また、画像記録部18は、同期制御部15からの制御信号を基に指定されたデータを記録媒体から読み出し、同期制御部15に出力する。
The operation unit 16 includes, for example, various operation keys such as a shutter release button, a lever, a dial, and the like. The operation unit 16 outputs a control signal corresponding to the input operation by the user to the synchronization control unit 15.
The image display unit 17 includes a display device such as an LCD (Liquid Crystal Display), an interface circuit for the display device, and the like. The image display unit 17 generates a signal for causing the display device to display the image signal supplied from the synchronization control unit 15, and supplies the generated signal to the display device to display an image.
For example, a recording medium composed of a portable semiconductor memory or the like is connected to the image recording unit 18. For example, the image recording unit 18 receives a file of encoded data (image data file) that has been compression-encoded by the compression / decompression unit 14 from the synchronization control unit 15 and stores the file in a recording medium. Further, the image recording unit 18 reads data designated based on the control signal from the synchronization control unit 15 from the recording medium and outputs the data to the synchronization control unit 15.

振動検出部19は、例えば、ジャイロセンサや加速度センサを有する。振動検出部19は、手ぶれ等による撮像装置に対する振動の方向や速さ(動きベクトル)を示す信号を検出して同期制御部15に出力する。
同期制御部15は、動きベクトルに基づいて撮像装置の移動量を計算して画像防振を実施する。画像防振の方法としては、光学的手ぶれ補正と電子的手ぶれ補正とがある。
光学的手ぶれ補正を行う場合、撮像光学系11内に配置されたシフトレンズを用いる。光学的手ぶれ補正は、動きベクトルから計算した移動量を基に、撮像装置に対するぶれと反対の方向を撮影するように、撮像光学系11内のシフトレンズを移動させることで、画像のぶれをキャンセルする方法である。
The vibration detection unit 19 includes, for example, a gyro sensor and an acceleration sensor. The vibration detection unit 19 detects a signal indicating the direction and speed (motion vector) of vibration with respect to the imaging apparatus due to camera shake or the like, and outputs the signal to the synchronization control unit 15.
The synchronization control unit 15 calculates image movement based on the motion vector and performs image stabilization. Image stabilization methods include optical image stabilization and electronic image stabilization.
When performing optical camera shake correction, a shift lens arranged in the imaging optical system 11 is used. Optical image stabilization cancels image blur by moving the shift lens in the imaging optical system 11 so as to capture the direction opposite to the camera shake based on the amount of movement calculated from the motion vector. It is a method to do.

電子的手ぶれ補正を行う場合、撮影できる領域が記録画像の撮影領域より広く設定された撮像素子12を用いる。電子的手ぶれ補正は、動きベクトルから計算した移動量を基に、撮像装置に対するぶれと反対の方向の撮影領域を切り出して記録画像とすることで、画像のぶれをキャンセルする方法である。
本実施形態では、どちらか一方の手ぶれ補正を用いてもよいし、あるいは、両方の手ぶれ補正を用いてもよい。また、同期制御部15は、振動検出部19によって検出された振動の方向や強さの代わりに、連続して撮影された画像の変化から動きベクトルを求めることもできる。
When electronic camera shake correction is performed, the imaging element 12 is used in which the area that can be captured is set wider than the captured area of the recorded image. Electronic camera shake correction is a method of canceling image blur by cutting out a shooting region in the opposite direction to the camera shake based on the amount of movement calculated from a motion vector to form a recorded image.
In the present embodiment, either one of the camera shake corrections may be used, or both of the camera shake corrections may be used. Further, the synchronization control unit 15 can also obtain a motion vector from changes in continuously captured images, instead of the direction and intensity of vibration detected by the vibration detection unit 19.

次に、本実施形態における撮像装置の基本的な動作の一例について説明する。
静止画像の撮像前には、撮像素子12から出力された画像信号が信号処理部13に順次供給される。
信号処理部13は、撮像素子12からの画像信号に対して信号処理を施し、信号処理を施した画像信号を、カメラスルー画像の信号として、同期制御部15を通じて画像表示部17に供給する。これにより、信号処理部13から供給されたカメラスルー画像が画像表示部17に表示される。ユーザは、画像表示部17により表示された画像を見て画角合わせ等を行うことが可能となる。
Next, an example of a basic operation of the imaging apparatus according to the present embodiment will be described.
Prior to capturing a still image, image signals output from the image sensor 12 are sequentially supplied to the signal processing unit 13.
The signal processing unit 13 performs signal processing on the image signal from the image sensor 12 and supplies the image signal subjected to the signal processing to the image display unit 17 through the synchronization control unit 15 as a camera-through image signal. As a result, the camera through image supplied from the signal processing unit 13 is displayed on the image display unit 17. The user can adjust the angle of view by looking at the image displayed by the image display unit 17.

この状態で操作部16のシャッタレリーズボタンが押下されると、同期制御部15の制御により、撮像素子12からの1フレーム分の画像信号が、信号処理部13に取り込まれる。信号処理部13は、取り込まれた1フレーム分の画像信号に信号処理を施し、信号処理を施した画像信号を圧縮伸張部14に供給する。
圧縮伸張部14は、信号処理部13から供給された画像信号を圧縮符号化して符号化データを生成し、生成した符号化データを、同期制御部15を通じて画像記録部18に供給する。これにより、撮像された静止画像のデータファイルが画像記録部18に記録される。
When the shutter release button of the operation unit 16 is pressed in this state, an image signal for one frame from the image sensor 12 is taken into the signal processing unit 13 under the control of the synchronization control unit 15. The signal processing unit 13 performs signal processing on the captured image signal for one frame, and supplies the image signal subjected to the signal processing to the compression / decompression unit 14.
The compression / decompression unit 14 compresses and encodes the image signal supplied from the signal processing unit 13 to generate encoded data, and supplies the generated encoded data to the image recording unit 18 through the synchronization control unit 15. As a result, the data file of the captured still image is recorded in the image recording unit 18.

画像記録部18に記録された静止画像のデータファイルを再生する場合、同期制御部15は、操作部16からの操作入力に応じて選択されたデータファイルを画像記録部18から読み込み、圧縮伸張部14に供給して伸張復号化処理を実行させる。復号化された画像信号は、同期制御部15を介して画像表示部17に供給される。これにより、静止画像が画像表示部17により表示(再生)される。
また、動画像を記録する場合、圧縮伸張部14は、信号処理部13で順次信号処理された画像信号を圧縮符号化して符号化データを生成し、生成した動画像の符号化データを、同期制御部15を通じて順次画像記録部18に転送する。これにより、撮像された動画像のデータファイルが画像記録部18に記録される。
画像記録部18に記録された動画像のデータファイルを再生する場合、同期制御部15は、操作部16からの操作入力に応じて選択されたデータファイルを画像記録部18から読み込み、圧縮伸張部14に供給して伸張復号化処理を実行させる。復号化された画像信号は同期制御部15を介して画像表示部17に供給される。これにより、動画像が画像表示部17により表示(再生)される。
When reproducing a still image data file recorded in the image recording unit 18, the synchronization control unit 15 reads the data file selected according to the operation input from the operation unit 16 from the image recording unit 18, and compresses and decompresses the data file. 14 to execute the decompression decoding process. The decoded image signal is supplied to the image display unit 17 via the synchronization control unit 15. As a result, the still image is displayed (reproduced) by the image display unit 17.
When recording a moving image, the compression / decompression unit 14 compresses and encodes the image signal sequentially processed by the signal processing unit 13 to generate encoded data, and synchronizes the generated encoded data of the moving image with synchronization. The images are sequentially transferred to the image recording unit 18 through the control unit 15. As a result, the data file of the captured moving image is recorded in the image recording unit 18.
When playing back a moving image data file recorded in the image recording unit 18, the synchronization control unit 15 reads the data file selected according to the operation input from the operation unit 16 from the image recording unit 18, and compresses and decompresses the data file. 14 to execute the decompression decoding process. The decoded image signal is supplied to the image display unit 17 via the synchronization control unit 15. As a result, the moving image is displayed (reproduced) by the image display unit 17.

図2は、本実施形態の撮像素子12の基板構成の一例を示す図である。
図2(a)は、各基板の平面構成の一例を示し、図2(b)は、各基板の積層構成の一例を示す。
撮像素子12は、撮像基板100と、メモリ基板110と、回路基板120とが、この順で積層された構造(積み重ねられた構造)を有する。撮像基板100、メモリ基板110、および回路基板120は、相互に電気的に接続される。撮像基板100には、画素を構成する回路要素(光電変換素子、トランジスタ、容量等)が配置される。メモリ基板110には、記憶部を構成する回路要素(メモリ等の記憶回路)が配置される。回路基板120には、信号前処理部を構成する回路要素(トランジスタ、容量等)が配置される。本実施形態では、例えば、撮像基板100を用いることにより、複数の画素を備える第1の基板の一例が実現される。また、例えば、メモリ基板110を用いることにより、第1の記憶媒体を備える第2の基板の一例が実現される。また、例えば、回路基板120を用いることにより、第2の読み出し手段および第3の読み出し手段により読み出された信号を撮像手段の外部に出力する出力手段を備える第3の基板の一例が実現される。
FIG. 2 is a diagram illustrating an example of the substrate configuration of the image sensor 12 of the present embodiment.
FIG. 2A shows an example of a planar configuration of each substrate, and FIG. 2B shows an example of a stacked configuration of each substrate.
The imaging element 12 has a structure (stacked structure) in which the imaging substrate 100, the memory substrate 110, and the circuit substrate 120 are stacked in this order. The imaging board 100, the memory board 110, and the circuit board 120 are electrically connected to each other. On the imaging substrate 100, circuit elements (photoelectric conversion elements, transistors, capacitors, and the like) constituting pixels are arranged. On the memory substrate 110, circuit elements (storage circuits such as a memory) constituting a storage unit are arranged. Circuit elements (transistors, capacitors, etc.) constituting the signal preprocessing unit are arranged on the circuit board 120. In the present embodiment, for example, by using the imaging substrate 100, an example of a first substrate including a plurality of pixels is realized. For example, by using the memory substrate 110, an example of a second substrate including the first storage medium is realized. In addition, for example, by using the circuit board 120, an example of a third substrate including an output unit that outputs the signals read by the second reading unit and the third reading unit to the outside of the imaging unit is realized. The

図2(a)の平面構成において、撮像基板100は、裏面照射型CMOSセンサを有する。撮像基板100の被写体光が入射される側の面には、光電変換素子を有する画素からなる撮像部101が配置される。撮像基板100の被写体光が入射される側の面の反対のメモリ基板110側の面には、画素配線やAD変換を実施する列信号処理部102が配置される。更に、撮像基板100には、メモリ基板110のメモリ制御部111と電気的に接続するためのマイクロパッドが形成される。   In the planar configuration of FIG. 2A, the imaging substrate 100 has a backside illumination type CMOS sensor. An imaging unit 101 including pixels having photoelectric conversion elements is disposed on the surface of the imaging substrate 100 on which subject light is incident. A column signal processing unit 102 that performs pixel wiring and AD conversion is disposed on the surface on the memory substrate 110 side opposite to the surface on which the subject light is incident on the imaging substrate 100. Further, the imaging substrate 100 is formed with a micropad for electrical connection with the memory control unit 111 of the memory substrate 110.

メモリ基板110は、メモリ制御部111と記録部112とを有する。メモリ基板110の撮像基板100側の面には、列信号処理部102と電気的に接続するためのマイクロパッドが形成される。メモリ基板110の回路基板120側の面には、バス制御部121と電気的に接続するためのマイクロパッドが形成される。本実施形態では、例えば、記録部112を用いることにより、第1の記憶媒体の一例が実現される。
回路基板120は、バス制御部121と、画像信号前処理部122と、画像信号出力部123と、AF信号前処理部124と、AF信号出力部125とを有する。回路基板120のメモリ基板110側の面には、メモリ制御部111と電気的に接続するためのマイクロパッドが形成される。ここで、画像信号前処理部122とAF信号前処理部124とを合わせて信号前処理部126とする。本実施形態では、例えば、画像信号出力部123と、AF信号出力部125とを用いることにより、出力手段の一例が実現される。
The memory substrate 110 includes a memory control unit 111 and a recording unit 112. A micropad for electrical connection with the column signal processing unit 102 is formed on the surface of the memory substrate 110 on the imaging substrate 100 side. On the surface of the memory substrate 110 on the circuit board 120 side, a micropad for electrical connection with the bus control unit 121 is formed. In the present embodiment, for example, an example of the first storage medium is realized by using the recording unit 112.
The circuit board 120 includes a bus control unit 121, an image signal preprocessing unit 122, an image signal output unit 123, an AF signal preprocessing unit 124, and an AF signal output unit 125. A micropad for electrical connection with the memory control unit 111 is formed on the surface of the circuit board 120 on the memory board 110 side. Here, the image signal preprocessing unit 122 and the AF signal preprocessing unit 124 are combined to form a signal preprocessing unit 126. In the present embodiment, for example, an example of an output unit is realized by using the image signal output unit 123 and the AF signal output unit 125.

撮像基板100のマイクロパットと、当該マイクロパットに対応するメモリ基板110のマイクロパッドとの間をマイクロバンプによって接続することで、AD変換した画素の信号データをメモリ制御部111に転送することが可能となる。同様に、メモリ基板110のマイクロパットと、当該マイクロパットに対応する回路基板120のマイクロパッドとの間をマイクロバンプによって接続することで、メモリ制御部111からバス制御部121に対して信号データを転送することが可能となる。   By connecting the micropads of the imaging substrate 100 and the micropads of the memory substrate 110 corresponding to the micropads by micro bumps, it is possible to transfer AD converted pixel signal data to the memory control unit 111. It becomes. Similarly, signal data is sent from the memory control unit 111 to the bus control unit 121 by connecting the micropads of the memory substrate 110 and the micropads of the circuit board 120 corresponding to the micropads by micro bumps. It becomes possible to transfer.

図2(a)に示す例では、メモリ制御部111は、撮像基板100から転送された画素の信号データを記録部112に転送して記録する動作と、記録部112から読み出した信号データをバス制御部121に転送する動作とを制御する。また、バス制御部121は、メモリ制御部111から転送された信号データを、画像信号前処理部122およびAF信号前処理部124に振り分けて転送する動作を制御する。   In the example shown in FIG. 2A, the memory control unit 111 transfers the signal data of the pixels transferred from the imaging substrate 100 to the recording unit 112 and records it, and the signal data read from the recording unit 112 as a bus. The operation to be transferred to the control unit 121 is controlled. In addition, the bus control unit 121 controls the operation of distributing and transferring the signal data transferred from the memory control unit 111 to the image signal preprocessing unit 122 and the AF signal preprocessing unit 124.

メモリ基板110の撮像基板100側の面に、メモリ制御部111と記録部112とを形成した場合、垂直貫通電極を用いて、メモリ基板110の回路基板120側の面にあるマイクロパッドとメモリ制御部111とを電気的に接続する。一方、メモリ基板110の回路基板120側の面に、メモリ制御部111と記録部112とを形成した場合、垂直貫通電極を用いて、メモリ基板110の撮像基板100側の面にあるマイクロパッドとメモリ制御部111とを電気的に接続する。   When the memory control unit 111 and the recording unit 112 are formed on the surface of the memory substrate 110 on the imaging substrate 100 side, the micropad and the memory control on the surface of the memory substrate 110 on the circuit substrate 120 side are used using the vertical through electrode. The part 111 is electrically connected. On the other hand, when the memory control unit 111 and the recording unit 112 are formed on the surface of the memory substrate 110 on the circuit board 120 side, the micropads on the surface of the memory substrate 110 on the imaging substrate 100 side are formed using the vertical through electrodes. The memory control unit 111 is electrically connected.

同様に、回路基板120のメモリ基板110側の面に、バス制御部121、信号前処理部126、画像信号出力部123、およびAF信号出力部125を形成した場合、回路基板120のメモリ基板110側と反対側の面に信号出力用のパッド電極を形成する。垂直貫通電極を用いて、画像信号出力部123およびAF信号出力部125と、信号出力用のパッド電極とを電気的に接続することで、撮像素子12の下面に信号出力端子を設けることができる。一方、回路基板120のメモリ基板110側の面と反対側の面に、バス制御部121、信号前処理部126、画像信号出力部123、およびAF信号出力部125を形成した場合には、次のようにすればよい。即ち、垂直貫通電極を用いて、回路基板120のメモリ基板110側の面にあるマイクロパッドとバス制御部121とを電気的に接続すると共に、画像信号出力部123およびAF信号出力部125に信号出力用のパッド電極を形成しておけばよい。   Similarly, when the bus control unit 121, the signal preprocessing unit 126, the image signal output unit 123, and the AF signal output unit 125 are formed on the surface of the circuit board 120 on the memory board 110 side, the memory board 110 of the circuit board 120 is formed. A pad electrode for signal output is formed on the opposite surface. A signal output terminal can be provided on the lower surface of the image sensor 12 by electrically connecting the image signal output unit 123 and the AF signal output unit 125 to the signal output pad electrode using the vertical through electrode. . On the other hand, when the bus control unit 121, the signal preprocessing unit 126, the image signal output unit 123, and the AF signal output unit 125 are formed on the surface of the circuit board 120 opposite to the surface on the memory substrate 110 side, Like this. In other words, the micropad on the surface of the circuit board 120 on the memory board 110 side is electrically connected to the bus control unit 121 using the vertical through electrode, and the signal is sent to the image signal output unit 123 and the AF signal output unit 125. An output pad electrode may be formed.

前述したように図2(b)は、撮像素子12の積層構造の一例を示す。図2(b)に示す例では、撮像素子12は、撮像基板100とメモリ基板110と回路基板120とをこの順番に積層することにより構成される。撮像素子12の上面(撮像基板100が配置される側の面)から被写体光(Light)が入射され、下面(回路基板120が配置される側の面)から信号が出力される。これにより、撮像素子12の面積が削減できるので、撮像装置の実装密度をあげる効果が期待できる。また、マイクロバンプを設けずに、各基板間の相対するマイクロパッド同士を直接接続してもよい。これにより、撮像素子12の厚みを削減できるので、撮像装置の実装密度をあげる効果が期待できる。   As described above, FIG. 2B shows an example of the laminated structure of the image sensor 12. In the example shown in FIG. 2B, the imaging element 12 is configured by stacking an imaging substrate 100, a memory substrate 110, and a circuit substrate 120 in this order. Subject light (Light) is incident from the upper surface (the surface on the side where the imaging substrate 100 is disposed) of the image sensor 12, and a signal is output from the lower surface (the surface on which the circuit substrate 120 is disposed). Thereby, since the area of the image pick-up element 12 can be reduced, the effect of raising the mounting density of an image pick-up device can be expected. Moreover, you may connect directly the micropads which oppose between each board | substrate, without providing a micro bump. Thereby, since the thickness of the image pick-up element 12 can be reduced, the effect of raising the mounting density of an image pick-up device can be expected.

図3は、本実施形態の撮像基板100の構成の一例を示す図である。
図3に示す撮像基板100は、画素200からなる画素領域201、垂直走査部202、列信号処理部203、水平走査部207、出力部209、およびタイミング部211を有する。
画素領域201は、CMOSセンサを有する画素200を用いて構成される。それぞれの画素200は、P11〜P46で示すように、水平方向・垂直方向に2次元マトリクス状に配列される。図3では、1行目の画素を、P11〜P16と表し、4行目の画素を、P41〜P46と表す。図3では、画素領域201における画素配列が6×4配列(4行6列)である場合を例に挙げて説明する。しかしながら、画素領域201における画素配列は、この数に限定されるものではない。本実施形態では、例えば、画素領域201により、撮像手段により撮像された画像に対応する第1の領域の一例が実現される。
また、本実施形態では、複数の画素200に対して、2×2配列の色フィルタが配置されているものとする。本実施形態では、2×2配列は、奇数行がR(赤)フィルタとG(緑)フィルタの繰り返しとなり、偶数行がG(緑)フィルタとB(青)フィルタの繰り返しとなる配列であるものとする。
FIG. 3 is a diagram illustrating an example of the configuration of the imaging substrate 100 of the present embodiment.
The imaging substrate 100 illustrated in FIG. 3 includes a pixel region 201 including pixels 200, a vertical scanning unit 202, a column signal processing unit 203, a horizontal scanning unit 207, an output unit 209, and a timing unit 211.
The pixel region 201 is configured using a pixel 200 having a CMOS sensor. Each pixel 200 is arranged in a two-dimensional matrix in the horizontal and vertical directions, as indicated by P11 to P46. In FIG. 3, the pixels in the first row are represented as P11 to P16, and the pixels in the fourth row are represented as P41 to P46. In FIG. 3, a case where the pixel array in the pixel area 201 is a 6 × 4 array (4 rows and 6 columns) will be described as an example. However, the pixel arrangement in the pixel region 201 is not limited to this number. In the present embodiment, for example, the pixel region 201 realizes an example of a first region corresponding to an image captured by the imaging unit.
In the present embodiment, it is assumed that a 2 × 2 array of color filters is arranged for the plurality of pixels 200. In this embodiment, the 2 × 2 array is an array in which odd rows are repeated R (red) filters and G (green) filters, and even rows are repeated G (green) filters and B (blue) filters. Shall.

垂直走査部202は、画素領域201の画素配列を1行ずつ選択し、選択した画素行のリセット動作や読み出し動作を制御する。画素制御線221は、画素行毎に共通に接続され、垂直走査部202による行単位の駆動制御信号を伝達する。垂直信号線231は、画素列毎に共通に接続され、画素制御線221により選択された行の画素信号が、それぞれ対応する垂直信号線231に読み出される。列信号処理部203は、それぞれ対応する垂直信号線231毎に設けられ、垂直信号線231を通して送られてくる行単位の画素の信号それぞれに対して、後述する信号処理を実施する。   The vertical scanning unit 202 selects the pixel array of the pixel region 201 row by row, and controls the reset operation and readout operation of the selected pixel row. The pixel control line 221 is commonly connected to each pixel row, and transmits a drive control signal in units of rows by the vertical scanning unit 202. The vertical signal lines 231 are commonly connected to the respective pixel columns, and the pixel signals in the row selected by the pixel control line 221 are read out to the corresponding vertical signal lines 231, respectively. The column signal processing unit 203 is provided for each corresponding vertical signal line 231, and performs signal processing to be described later on each pixel signal of the row unit sent through the vertical signal line 231.

水平走査部207は、列選択線251を介して列信号処理部203を列毎に選択し、選択した列信号処理部203に記憶されているデジタル化された画素信号を水平出力線261を介して出力部209に転送させる。出力部209は、デジタル化された行単位の画素信号を信号処理部13へ出力する。タイミング部211は、同期制御部15からの制御信号に基づいて、撮像素子12の各部の動作に必要な各種のクロック信号や制御信号等を出力する。ここで、制御線271、281、285は、それぞれ垂直走査部202、列信号処理部203、水平走査部207に対して、タイミング部211からクロック信号や制御信号等を送る制御線である。
図3では、タイミング部211が撮像基板100に配置される場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はない。例えば、タイミング部211は、メモリ基板110や回路基板120に配置されていてもよい。また、タイミング部211は、撮像基板100、メモリ基板110、および回路基板120のそれぞれに配置されていてもよい。
The horizontal scanning unit 207 selects the column signal processing unit 203 for each column via the column selection line 251, and outputs the digitized pixel signal stored in the selected column signal processing unit 203 via the horizontal output line 261. To the output unit 209. The output unit 209 outputs the digitized pixel signal in units of rows to the signal processing unit 13. The timing unit 211 outputs various clock signals, control signals, and the like necessary for the operation of each unit of the image sensor 12 based on the control signal from the synchronization control unit 15. Here, the control lines 271, 281, and 285 are control lines that send a clock signal, a control signal, and the like from the timing unit 211 to the vertical scanning unit 202, the column signal processing unit 203, and the horizontal scanning unit 207, respectively.
In FIG. 3, the case where the timing unit 211 is arranged on the imaging substrate 100 has been described as an example. However, this is not always necessary. For example, the timing unit 211 may be disposed on the memory board 110 or the circuit board 120. Further, the timing unit 211 may be disposed on each of the imaging substrate 100, the memory substrate 110, and the circuit substrate 120.

図4は、本実施形態の撮像基板100の画素200の回路構成の一例を示す図である。
図4において破線で囲われた画素200は、画素領域201を構成する画素200の1つを代表して示す。また、画素200は、画素制御線221および垂直信号線231により他の回路と電気的に接続される。
垂直信号線231は、負荷回路および列信号処理部203に接続されると共に、垂直1列の各画素に共通して接続され、画素の信号を出力する。
FIG. 4 is a diagram illustrating an example of a circuit configuration of the pixel 200 of the imaging substrate 100 of the present embodiment.
A pixel 200 surrounded by a broken line in FIG. 4 represents one of the pixels 200 constituting the pixel region 201 as a representative. In addition, the pixel 200 is electrically connected to other circuits by a pixel control line 221 and a vertical signal line 231.
The vertical signal line 231 is connected to the load circuit and the column signal processing unit 203 and is connected in common to each pixel in one vertical column, and outputs a pixel signal.

画素制御線221は、垂直走査部202に接続されると共に、水平1行の画素に共通して接続される。画素制御線221を用いて水平1行の画素を同時に制御することで、リセットや信号の読み出しが可能になる。リセット制御線pR、転送制御線pTa、pTb、および垂直選択線pSELが画素制御線221に含まれる。   The pixel control line 221 is connected to the vertical scanning unit 202 and is commonly connected to pixels in one horizontal row. By simultaneously controlling pixels in one horizontal row using the pixel control line 221, resetting and signal reading can be performed. The pixel control line 221 includes a reset control line pR, transfer control lines pTa, pTb, and a vertical selection line pSEL.

光電変換素子D1a、D1bは、光を電荷に変換し、当該電荷を蓄積するフォトダイオードである。本実施形態では、例えば、光電変換素子D1a、D1bにより複数の光電変換部の一例が実現される。また、例えば、光電変換素子D1aにより第1の光電変換部の一例が実現され、光電変換素子D1bにより第2の光電変換部の一例が実現される。光電変換素子D1a、D1bは、そのPN接合のP側が接地され、N側がそれぞれ転送トランジスタ(転送スイッチ)T1a、T1bのソースに接続される。転送トランジスタ(転送スイッチ)T1a、T1bは、そのゲートがそれぞれ転送制御線pTa、pTbに接続され、そのドレインがFD容量Cfdに接続される。転送トランジスタ(転送スイッチ)T1a、T1bは、それぞれ光電変換素子D1a、D1bからFD容量Cfdへの電荷の転送を制御する。   The photoelectric conversion elements D1a and D1b are photodiodes that convert light into electric charges and accumulate the electric charges. In the present embodiment, for example, an example of a plurality of photoelectric conversion units is realized by the photoelectric conversion elements D1a and D1b. For example, an example of the first photoelectric conversion unit is realized by the photoelectric conversion element D1a, and an example of the second photoelectric conversion unit is realized by the photoelectric conversion element D1b. In the photoelectric conversion elements D1a and D1b, the P side of the PN junction is grounded, and the N side is connected to the sources of transfer transistors (transfer switches) T1a and T1b, respectively. The transfer transistors (transfer switches) T1a and T1b have gates connected to transfer control lines pTa and pTb, respectively, and drains connected to the FD capacitor Cfd. The transfer transistors (transfer switches) T1a and T1b control the transfer of charges from the photoelectric conversion elements D1a and D1b to the FD capacitor Cfd, respectively.

FD(Floating Diffusion)容量Cfdは、その一端が接地され、光電変換素子D1a、D1bから転送された電荷を電圧に変換する際に電荷を蓄積する。ここで、転送トランジスタ(転送スイッチ)T1a、T1bのドレインとFD容量Cfdの他端との接続点を、必要に応じてFDノード401と称する。
リセットトランジスタ(リセットスイッチ)T2は、そのゲートがリセット制御線pRに接続され、そのドレインが電源電圧Vddに接続され、そのソースがFD容量Cfdに接続される。リセットトランジスタ(リセットスイッチ)T2は、FDノード401の電位を電源電圧Vddにリセットする。
An FD (Floating Diffusion) capacitor Cfd is grounded at one end, and accumulates charges when the charges transferred from the photoelectric conversion elements D1a and D1b are converted into voltages. Here, a connection point between the drains of the transfer transistors (transfer switches) T1a and T1b and the other end of the FD capacitor Cfd is referred to as an FD node 401 as necessary.
The reset transistor (reset switch) T2 has a gate connected to the reset control line pR, a drain connected to the power supply voltage Vdd, and a source connected to the FD capacitor Cfd. The reset transistor (reset switch) T2 resets the potential of the FD node 401 to the power supply voltage Vdd.

駆動トランジスタ(増幅部)Tdrvは、画素内アンプを構成するトランジスタである。駆動トランジスタ(増幅部)Tdrvは、そのゲートがFD容量Cfdの他端(FDノード401)に接続され、そのドレインが電源電圧Vddに接続され、そのソースが選択トランジスタ(選択スイッチ)T3のドレインに接続される。駆動トランジスタ(増幅部)Tdrvは、FD容量Cfdの電圧に応じた電圧を出力する。
選択トランジスタ(選択スイッチ)T3は、そのゲートが垂直選択線pSELに接続され、そのソースが垂直信号線231に接続される。選択トランジスタ(選択スイッチ)T3は、駆動トランジスタTdrvの出力を画素200の出力信号として、垂直信号線231に出力する。
The driving transistor (amplifying unit) Tdrv is a transistor that forms an in-pixel amplifier. The driving transistor (amplifying unit) Tdrv has a gate connected to the other end (FD node 401) of the FD capacitor Cfd, a drain connected to the power supply voltage Vdd, and a source connected to the drain of the selection transistor (selection switch) T3. Connected. The driving transistor (amplifying unit) Tdrv outputs a voltage corresponding to the voltage of the FD capacitor Cfd.
The selection transistor (selection switch) T3 has a gate connected to the vertical selection line pSEL and a source connected to the vertical signal line 231. The selection transistor (selection switch) T3 outputs the output of the driving transistor Tdrv to the vertical signal line 231 as an output signal of the pixel 200.

垂直信号線231毎に設けられている負荷回路の負荷トランジスタTlodは、そのソースとゲートとが接地し、そのドレインが垂直信号線231に接続される。負荷トランジスタTlodは、垂直信号線231で接続されている列の画素200に配置される駆動トランジスタTdrvと共に画素内アンプとなるソースフォロア回路を構成する。通常、画素200の信号を出力する時は、負荷トランジスタTlodをゲート接地の定電流源として動作させる。
本実施形態の記載において、駆動トランジスタTdrvおよび負荷トランジスタTlod以外のトランジスタは、スイッチとして働き、ゲートに接続されている制御線がHighの時に導通し(オンし)、Lowの時に遮断する(オフする)こととする。
The load transistor Tlod of the load circuit provided for each vertical signal line 231 has its source and gate grounded and its drain connected to the vertical signal line 231. The load transistor Tlod constitutes a source follower circuit serving as an in-pixel amplifier together with the drive transistor Tdrv disposed in the pixel 200 of the column connected by the vertical signal line 231. Normally, when outputting the signal of the pixel 200, the load transistor Tlod is operated as a constant current source with a grounded gate.
In the description of the present embodiment, the transistors other than the drive transistor Tdrv and the load transistor Tlod act as switches, and are turned on (turned on) when the control line connected to the gate is High and turned off (turned off) when the control line is Low. )

ここで、第1の露光制御として、光電変換素子D1aの露光制御の一例について説明する。
撮像素子12には、被写体光が入射しているものとする。
まず、露光開始のタイミングで、リセットトランジスタT2をオンして、FD容量CfdのFDノード401側をリセットするのと同時に、転送トランジスタT1aをオンして、光電変換素子D1aの電荷をリセットする。そして、転送トランジスタT1a、リセットトランジスタT2の順番で転送トランジスタT1aおよびリセットトランジスタT2を順次オフすることで、光電変換素子D1aの露光が開始される。
Here, an example of exposure control of the photoelectric conversion element D1a will be described as the first exposure control.
It is assumed that subject light is incident on the image sensor 12.
First, at the exposure start timing, the reset transistor T2 is turned on to reset the FD node 401 side of the FD capacitor Cfd, and at the same time, the transfer transistor T1a is turned on to reset the charge of the photoelectric conversion element D1a. The exposure of the photoelectric conversion element D1a is started by sequentially turning off the transfer transistor T1a and the reset transistor T2 in the order of the transfer transistor T1a and the reset transistor T2.

次に、所定の露光時間の経過後に、リセットトランジスタT2をオンして、FD容量CfdのFDノード401側をリセットする。そして、リセットトランジスタT2をオフする。その後、転送トランジスタT1aをオンして、露光によって光電変換素子D1aで光電変換された信号電荷をFDノード401に転送する。そして、転送トランジスタT1aをオフする。ここまでで、光電変換素子D1aの露光が終了する。この時、FD容量CfdのFDノード401には、信号電荷に対応する信号電圧が発生する。   Next, after a predetermined exposure time has elapsed, the reset transistor T2 is turned on to reset the FD node 401 side of the FD capacitor Cfd. Then, the reset transistor T2 is turned off. Thereafter, the transfer transistor T1a is turned on, and the signal charge photoelectrically converted by the photoelectric conversion element D1a by exposure is transferred to the FD node 401. Then, the transfer transistor T1a is turned off. Thus, the exposure of the photoelectric conversion element D1a is completed. At this time, a signal voltage corresponding to the signal charge is generated at the FD node 401 of the FD capacitor Cfd.

そして、選択トランジスタT3をオンすることで、駆動トランジスタTdrvと負荷トランジスタTlodとからなるソースフォロア回路が構成される。これにより、FDノード401の信号電圧に対応する信号が、光電変換素子D1aの信号として、垂直信号線231に出力される。垂直信号線231に出力された光電変換素子D1aの信号は、列信号処理部203に入力され、後述する列信号処理が実施される。   Then, by turning on the selection transistor T3, a source follower circuit including a drive transistor Tdrv and a load transistor Tlod is configured. Accordingly, a signal corresponding to the signal voltage of the FD node 401 is output to the vertical signal line 231 as a signal of the photoelectric conversion element D1a. The signal of the photoelectric conversion element D1a output to the vertical signal line 231 is input to the column signal processing unit 203, and column signal processing described later is performed.

次に、第2の露光制御として、光電変換素子D1bの露光制御の一例について説明する。
光電変換素子D1aと同様に、光電変換素子D1bの露光も制御される。ただし、本実施形態では、転送トランジスタT1a、T1bが、それぞれ、異なる転送制御線pTa、pTbにより制御される。従って、露光開始のリセットのタイミングおよび露光終了の転送のタイミングを、光電変換素子D1a、D1bで別々に設定することが可能である。
Next, an example of exposure control of the photoelectric conversion element D1b will be described as second exposure control.
Similarly to the photoelectric conversion element D1a, the exposure of the photoelectric conversion element D1b is also controlled. However, in this embodiment, the transfer transistors T1a and T1b are controlled by different transfer control lines pTa and pTb, respectively. Therefore, the reset timing at the start of exposure and the transfer timing at the end of exposure can be set separately by the photoelectric conversion elements D1a and D1b.

そこで、光電変換素子D1bの露光を開始するタイミングは、光電変換素子D1bの信号電荷をFD容量Cfdに転送するタイミングから逆算して、光電変換素子D1aの露光時間と同一になるように設定される。また、本実施形態では、光電変換素子D1aの信号の列信号処理(第1の露光制御)が実施された後、光電変換素子D1bの信号電荷をFD容量Cfdに転送して、第1の露光制御で先にFD容量Cfdに転送しておいた光電変換素子D1aの信号電荷と加算する。このように、本実施形態では、光電変換素子D1aの露光が開始された後、光電変換素子D1aの露光中に、光電変換素子D1bの露光が開始されるようにし、且つ、これらの露光時間が同一になるようにする。   Therefore, the timing for starting exposure of the photoelectric conversion element D1b is set to be the same as the exposure time of the photoelectric conversion element D1a by calculating backward from the timing of transferring the signal charge of the photoelectric conversion element D1b to the FD capacitor Cfd. . In the present embodiment, after the column signal processing (first exposure control) of the signal of the photoelectric conversion element D1a is performed, the signal charge of the photoelectric conversion element D1b is transferred to the FD capacitor Cfd, and the first exposure is performed. This is added to the signal charge of the photoelectric conversion element D1a previously transferred to the FD capacitor Cfd under control. Thus, in this embodiment, after the exposure of the photoelectric conversion element D1a is started, the exposure of the photoelectric conversion element D1b is started during the exposure of the photoelectric conversion element D1a, and the exposure time thereof is set. To be identical.

第2の露光制御の具体例を説明すると、まず、FD容量CfdのFDノード401に光電変換素子D1aの信号電荷が蓄積された状態で、転送トランジスタT1bをオンする。これにより、露光によって光電変換素子D1bで光電変換された信号電荷がFDノード401に転送される。そして、転送トランジスタT1bをオフする。ここまでで、光電変換素子D1bの露光が終了する。   A specific example of the second exposure control will be described. First, the transfer transistor T1b is turned on while the signal charge of the photoelectric conversion element D1a is accumulated in the FD node 401 of the FD capacitor Cfd. Thereby, the signal charge photoelectrically converted by the photoelectric conversion element D <b> 1 b by exposure is transferred to the FD node 401. Then, the transfer transistor T1b is turned off. Thus far, the exposure of the photoelectric conversion element D1b is completed.

この時、FD容量CfdのFDノード401には、光電変換素子D1aおよびD1bの信号電荷が加算された信号電荷に対応する信号電圧が発生する。そして、選択トランジスタT3をオンすることで、駆動トランジスタTdrvと負荷トランジスタTlodとからなるソースフォロア回路が構成される。これにより、FDノード401の信号電圧に対応する信号が、光電変換素子D1aおよびD1bの加算信号として、垂直信号線231に出力される。垂直信号線231に出力された光電変換素子D1aおよびD1bの加算信号は、列信号処理部203に入力され、後述する列信号処理が実施される。   At this time, a signal voltage corresponding to the signal charge obtained by adding the signal charges of the photoelectric conversion elements D1a and D1b is generated at the FD node 401 of the FD capacitor Cfd. Then, by turning on the selection transistor T3, a source follower circuit including a drive transistor Tdrv and a load transistor Tlod is configured. As a result, a signal corresponding to the signal voltage of the FD node 401 is output to the vertical signal line 231 as an addition signal of the photoelectric conversion elements D1a and D1b. The addition signals of the photoelectric conversion elements D1a and D1b output to the vertical signal line 231 are input to the column signal processing unit 203, and column signal processing described later is performed.

ここで、光電変換素子D1aおよびD1bの露光制御を行うに際し、露光開始のリセットのタイミングを光電変換素子D1a、D1bで同時とし、光電変換素子D1a、D1bのそれぞれに対する露光を同時に開始してもよい。そして、光電変換素子D1bの信号電荷を転送するタイミングで、2回目の光電変換素子D1aの信号電荷の転送を実施する。これにより、光電変換素子D1aおよびD1bの加算信号については、露光時間のずれが解消された撮影が実施できることになる。
ここで、光電変換素子D1aの出力信号を焦点検出用のA信号または単にA信号と称し、光電変換素子D1aおよびD1bの信号電荷が加算された出力信号を撮影画像用のA+B信号または単にA+B信号と称することとする。また、撮影画像用のA+B信号から焦点検出用のA信号を減算した信号を焦点検出用のB信号または単にB信号と称する。焦点検出用のB信号は、光電変換素子D1bの出力信号に相当する信号である。
Here, when performing exposure control of the photoelectric conversion elements D1a and D1b, the reset timing of the start of exposure may be set simultaneously in the photoelectric conversion elements D1a and D1b, and exposure to each of the photoelectric conversion elements D1a and D1b may be started simultaneously. . Then, the signal charge of the photoelectric conversion element D1a is transferred for the second time at the timing of transferring the signal charge of the photoelectric conversion element D1b. As a result, it is possible to perform shooting with the exposure time deviation eliminated for the addition signals of the photoelectric conversion elements D1a and D1b.
Here, the output signal of the photoelectric conversion element D1a is referred to as the focus detection A signal or simply the A signal, and the output signal obtained by adding the signal charges of the photoelectric conversion elements D1a and D1b is used as the A + B signal or simply the A + B signal for the photographed image. It shall be called. A signal obtained by subtracting the A signal for focus detection from the A + B signal for captured images is referred to as a focus detection B signal or simply a B signal. The B signal for focus detection is a signal corresponding to the output signal of the photoelectric conversion element D1b.

図5は、本実施形態の撮像基板100の画素200の概略構成の一例を示す図である。
図5(a)は、画素200を2×2に配列した平面図の一例を示し、図5(b)は、図5(a)のx−x'の断面図を示す。
光電変換素子D1a、D1bの領域501a、501bが、それぞれ光電変換素子D1a、D1bのPN接合のN側に対応し、撮像基板100がP側に対応する。位置502は、画素200の光電変換素子D1a、D1b以外の回路部分の位置を示す。尚、図5では、表記の都合上、画素制御線221および垂直信号線231は、図示していない。
FIG. 5 is a diagram illustrating an example of a schematic configuration of the pixel 200 of the imaging substrate 100 of the present embodiment.
FIG. 5A shows an example of a plan view in which the pixels 200 are arranged in 2 × 2, and FIG. 5B shows a cross-sectional view taken along line xx ′ of FIG.
The regions 501a and 501b of the photoelectric conversion elements D1a and D1b correspond to the N side of the PN junction of the photoelectric conversion elements D1a and D1b, respectively, and the imaging substrate 100 corresponds to the P side. A position 502 indicates the position of a circuit portion other than the photoelectric conversion elements D1a and D1b of the pixel 200. In FIG. 5, the pixel control line 221 and the vertical signal line 231 are not shown for the convenience of description.

前述したように画素200毎にマイクロレンズ503が設けられる。本実施形態では、マイクロレンズ503は、光電変換素子D1a、D1bの両方を均等に覆うように、図5(a)において、画素200の中心よりも下方にずれて配置される。色フィルタ504も画素200毎に設けられる。色フィルタ504は、光電変換素子D1a、D1bの両方を均等に覆う。前述したように、画素200毎に、R(赤)フィルタ、G(緑)フィルタ、およびB(青)フィルタの何れか1つが配置される。
図5のように、本実施形態では、1つのマイクロレンズ503を2つの光電変換素子D1aおよびD1bが共有する構成である。従って、光電変換素子D1aから得られる画像信号(焦点検出用のA信号)と光電変換素子D1bから得られる画像信号(焦点検出用のB信号)を基にした焦点検出が可能となる。
As described above, the micro lens 503 is provided for each pixel 200. In the present embodiment, the microlens 503 is arranged to be shifted downward from the center of the pixel 200 in FIG. 5A so as to cover both the photoelectric conversion elements D1a and D1b evenly. A color filter 504 is also provided for each pixel 200. The color filter 504 uniformly covers both the photoelectric conversion elements D1a and D1b. As described above, for each pixel 200, any one of an R (red) filter, a G (green) filter, and a B (blue) filter is disposed.
As shown in FIG. 5, in the present embodiment, one photoelectric conversion element D1a and D1b share one microlens 503. Therefore, focus detection can be performed based on the image signal (A signal for focus detection) obtained from the photoelectric conversion element D1a and the image signal (B signal for focus detection) obtained from the photoelectric conversion element D1b.

図6は、本実施形態の撮像基板100の列信号処理部203の回路構成の一例を示す図である。
サンプルホールド回路(S/H)611は、信号選択制御線pSH1に電気的に接続される。サンプルホールド回路(S/H)611は、信号選択制御線pSH1を介したタイミング部211からの制御により、垂直信号線231から受け取った画素信号を保持する。
FIG. 6 is a diagram illustrating an example of a circuit configuration of the column signal processing unit 203 of the imaging substrate 100 according to the present embodiment.
The sample hold circuit (S / H) 611 is electrically connected to the signal selection control line pSH1. The sample hold circuit (S / H) 611 holds the pixel signal received from the vertical signal line 231 under the control of the timing unit 211 via the signal selection control line pSH1.

AD変換回路(AD)621は、AD制御線pAD1に接続される。AD変換回路(AD)621は、AD制御線pAD1を介したタイミング部211からの制御により、サンプルホールド回路(S/H)611が保持する画素信号をAD変換する。メモリ回路631は、メモリ制御線pMEM1に接続され、メモリ制御線pMEM1を介した制御によりAD変換回路621が出力する画素のデジタル信号を記憶する。
また、メモリ回路631は、水平選択線pH1を介した制御により、メモリ回路631に記憶されているデジタル化された画素信号を、デジタル出力線DSig1に出力する。
The AD conversion circuit (AD) 621 is connected to the AD control line pAD1. The AD conversion circuit (AD) 621 AD converts the pixel signal held by the sample hold circuit (S / H) 611 under the control of the timing unit 211 via the AD control line pAD1. The memory circuit 631 is connected to the memory control line pMEM1, and stores a pixel digital signal output from the AD conversion circuit 621 under the control of the memory control line pMEM1.
Further, the memory circuit 631 outputs the digitized pixel signal stored in the memory circuit 631 to the digital output line DSig1 by the control via the horizontal selection line pH1.

デジタル出力線DSig1は、他の列信号処理部203のメモリ回路631にも共通に接続される。各列信号処理部203は、当該列信号処理部203に対応する水平選択線pH1を介した水平走査部207の制御により、メモリ回路631に記憶されているデジタル化された画素信号を、デジタル出力線DSig1に所定の順番で出力する。
ここで、タイミング部211から列信号処理部203を制御するための制御線281には、信号選択制御線pSH1、AD制御線pAD1、およびメモリ制御線pMEM1が含まれる。水平走査部207から列信号処理部203を選択するための列選択線251には、水平選択線pH1が含まれる。出力部209に接続される水平出力線261には、デジタル出力線DSig1が含まれる。
以上のように、図6に示す列信号処理部203は、AD変換が可能な回路構成を有する。
The digital output line DSig1 is also commonly connected to the memory circuit 631 of the other column signal processing unit 203. Each column signal processing unit 203 digitally outputs the digitized pixel signal stored in the memory circuit 631 under the control of the horizontal scanning unit 207 via the horizontal selection line pH1 corresponding to the column signal processing unit 203. Output to the line DSig1 in a predetermined order.
Here, the control line 281 for controlling the column signal processing unit 203 from the timing unit 211 includes a signal selection control line pSH1, an AD control line pAD1, and a memory control line pMEM1. The column selection line 251 for selecting the column signal processing unit 203 from the horizontal scanning unit 207 includes a horizontal selection line pH1. The horizontal output line 261 connected to the output unit 209 includes a digital output line DSig1.
As described above, the column signal processing unit 203 illustrated in FIG. 6 has a circuit configuration capable of AD conversion.

次に、本実施形態の撮像基板100の第1の読み出し動作および第2の読み出し動作の一例について説明する。
第1の読み出し動作では、光電変換素子D1aから読み出した信号であって、第1の露光制御を実施した1行分の画素200の信号に対して列信号処理を実施する。
垂直信号線231に出力された光電変換素子D1aの信号は、列信号処理部203に入力され、列信号処理部203に入力される信号選択制御線pSH1の制御により、列信号処理部203のサンプルホールド回路(S/H)611に保持される。
Next, an example of the first readout operation and the second readout operation of the imaging substrate 100 of the present embodiment will be described.
In the first reading operation, column signal processing is performed on the signal read from the photoelectric conversion element D1a and the signal of the pixels 200 for one row subjected to the first exposure control.
The signal of the photoelectric conversion element D1a output to the vertical signal line 231 is input to the column signal processing unit 203, and the sample of the column signal processing unit 203 is controlled by the control of the signal selection control line pSH1 input to the column signal processing unit 203. It is held in a hold circuit (S / H) 611.

そして、サンプルホールド回路(S/H)611に保持された信号は、列信号処理部203のAD変換回路(AD)621によりデジタル信号に変換され、列信号処理部203のメモリ回路631に記憶される。
メモリ回路631に記憶された光電変換素子D1aのデジタル信号は、列信号処理部203に対する水平選択線pH1を介した水平走査部207の制御によりメモリ回路631から読み出される。メモリ回路631から読み出された光電変換素子D1aのデジタル信号は、デジタル出力線DSig1に出力される。
そして、光電変換素子D1aのデジタル信号は、A信号として、出力部209を介して、メモリ基板110へ転送される。
The signal held in the sample hold circuit (S / H) 611 is converted into a digital signal by the AD conversion circuit (AD) 621 of the column signal processing unit 203 and stored in the memory circuit 631 of the column signal processing unit 203. The
The digital signal of the photoelectric conversion element D1a stored in the memory circuit 631 is read from the memory circuit 631 under the control of the horizontal scanning unit 207 via the horizontal selection line pH1 for the column signal processing unit 203. The digital signal of the photoelectric conversion element D1a read from the memory circuit 631 is output to the digital output line DSig1.
Then, the digital signal of the photoelectric conversion element D1a is transferred to the memory substrate 110 via the output unit 209 as an A signal.

第2の読み出し動作では、第2の露光制御を実施した1行分の画素200から読み出した信号(即ち、光電変換素子D1aおよびD1bの加算信号)に対して列信号処理を実施する。
光電変換素子D1aおよびD1bの加算信号は、列信号処理部203のAD変換回路(AD)621により、デジタル信号に変換され、光電変換素子D1aおよびD1bのデジタルの加算信号として、列信号処理部203のメモリ回路631に記憶される。尚、光電変換素子D1aおよびD1bの加算信号に対する列信号処理およびデジタル出力線DSig1への出力は、第1の読み出し動作と同様であるので詳細な説明を省略する。
In the second readout operation, column signal processing is performed on the signals read from the pixels 200 for one row subjected to the second exposure control (that is, the addition signals of the photoelectric conversion elements D1a and D1b).
The addition signal of the photoelectric conversion elements D1a and D1b is converted into a digital signal by the AD conversion circuit (AD) 621 of the column signal processing unit 203, and the column signal processing unit 203 as a digital addition signal of the photoelectric conversion elements D1a and D1b. Is stored in the memory circuit 631. Note that the column signal processing for the addition signals of the photoelectric conversion elements D1a and D1b and the output to the digital output line DSig1 are the same as those in the first read operation, and thus detailed description thereof is omitted.

光電変換素子D1aおよびD1bのデジタルの加算信号は、A+B信号として、出力部209を介して、メモリ基板110へ転送される。
これにより、1行分の画素からA信号とA+B信号とが読み出されて、メモリ基板110へ転送される。
画素領域201の画素200に対して、第1の読み出し動作と第2の読み出し動作とを行毎に実施することで、1回の撮影動作を実施することができる。
The digital addition signals of the photoelectric conversion elements D1a and D1b are transferred to the memory substrate 110 via the output unit 209 as A + B signals.
As a result, the A signal and the A + B signal are read from the pixels for one row and transferred to the memory substrate 110.
By performing the first readout operation and the second readout operation for each row on the pixel 200 in the pixel region 201, one photographing operation can be performed.

図6では、画素200のA信号およびA+B信号を、出力部209を介して、メモリ基板110に転送する場合を例に挙げて示した。しかしながら、A信号およびA+B信号を、デジタル出力線DSig1に出力する代わりに、次のようにしてもよい。即ち、メモリ回路631の出力毎に垂直貫通電極を設けて、メモリ基板110のメモリ制御部111と、メモリ回路631とを直接接続してもよい。
本実施形態では、以上のようにして、画素200のA信号あるいはA+B信号を、1行分同時にメモリ基板110に転送できるので、転送時間の短縮が可能となる。
FIG. 6 shows an example in which the A signal and A + B signal of the pixel 200 are transferred to the memory substrate 110 via the output unit 209. However, instead of outputting the A signal and the A + B signal to the digital output line DSig1, the following may be performed. That is, a vertical through electrode may be provided for each output of the memory circuit 631, and the memory control unit 111 of the memory substrate 110 and the memory circuit 631 may be directly connected.
In this embodiment, as described above, the A signal or A + B signal of the pixel 200 can be simultaneously transferred to the memory substrate 110 for one row, so that the transfer time can be shortened.

図7は、本実施形態の信号処理の一例を説明する図である。図7(a)は、撮像部101にある画素領域201の画素200から読み出されるA信号およびA+B信号を示す。本実施形態では、画素領域201の画素200から、A信号またはA+B信号が、行毎に所定の順番で読み出される。尚、図3では、画素配列が6×4配列(4行6列)である場合を例に挙げて説明したが、図7(a)では、画素配列が10×8配列(8行10列)である場合を例に挙げて説明する。   FIG. 7 is a diagram illustrating an example of signal processing according to the present embodiment. FIG. 7A shows an A signal and an A + B signal read from the pixel 200 in the pixel area 201 in the imaging unit 101. In the present embodiment, the A signal or the A + B signal is read from the pixels 200 in the pixel region 201 in a predetermined order for each row. In FIG. 3, the case where the pixel array is a 6 × 4 array (4 rows and 6 columns) has been described as an example. However, in FIG. 7A, the pixel array is a 10 × 8 array (8 rows and 10 columns). ) Will be described as an example.

図7では、各信号を括弧内に表記し、その前に色フィルタを表記する。前述したように本実施形態では、奇数行がR(赤)フィルタとG(緑)フィルタとの繰り返しとなり、偶数行がG(緑)フィルタとB(青)フィルタとの繰り返しとなる2×2配列の色フィルタを用いる。そこで、R(赤)フィルタに対応する画素200の信号(A信号およびA+B信号)をRと表記する。また、G(緑)フィルタに対応する画素200の信号(A信号およびA+B信号)をGと表記する。また、B(青)に対応する画素200の信号(A信号およびA+B信号)をBと表記する。例えば、信号701は、画素領域201の1行1列目の、R(赤)フィルタに対応する画素200のA信号であり、R(A)と表記する。信号702は、画素領域201の1行1列目の、R(赤)フィルタに対応する画素200のA+B信号であり、R(A+B)と表記する。また、対角となる2行2列目の画素200から7行9列目の画素200を囲む領域703を、焦点検出領域とする。   In FIG. 7, each signal is shown in parentheses, and a color filter is shown before that. As described above, in this embodiment, the odd-numbered rows are repeated with the R (red) filter and the G (green) filter, and the even-numbered rows are repeated with the G (green) filter and the B (blue) filter. Use an array of color filters. Therefore, the signal (A signal and A + B signal) of the pixel 200 corresponding to the R (red) filter is denoted as R. Further, a signal (A signal and A + B signal) of the pixel 200 corresponding to the G (green) filter is denoted as G. Further, a signal (A signal and A + B signal) of the pixel 200 corresponding to B (blue) is denoted as B. For example, the signal 701 is an A signal of the pixel 200 corresponding to the R (red) filter in the first row and the first column of the pixel region 201 and is denoted as R (A). A signal 702 is an A + B signal of the pixel 200 corresponding to the R (red) filter in the first row and the first column of the pixel region 201 and is expressed as R (A + B). Further, a region 703 surrounding the pixel 200 in the seventh row and the ninth column from the pixel 200 in the second row and the second column which is a diagonal is set as a focus detection region.

図7(b)は、図7(a)の内、信号処理部13における撮影画像の作成に用いる画素200のA+B信号を示す。
本実施形態では、撮影画像の作成に際し、信号処理部13は、画素領域201の全ての画素200におけるA+B信号を用いる。例えば、1行1列目の画素200については、信号処理部13は、A+B信号である信号702(R(A+B))を用いる。この時、信号処理部13は、A信号である信号701(R(A))を用いない。
FIG. 7B shows an A + B signal of the pixel 200 used for creating a captured image in the signal processing unit 13 in FIG.
In the present embodiment, the signal processing unit 13 uses A + B signals in all the pixels 200 in the pixel area 201 when creating a captured image. For example, for the pixel 200 in the first row and the first column, the signal processing unit 13 uses a signal 702 (R (A + B)) that is an A + B signal. At this time, the signal processing unit 13 does not use the signal 701 (R (A)) that is the A signal.

図7(c)は、図7(a)の内、信号処理部13における焦点検出処理(AF処理)に関わる画素200の信号を示す。
本実施形態では、焦点検出処理(AF処理)に際し、信号処理部13が、焦点検出領域703内の偶数行のG(緑)フィルタに対応する画素200の信号を用いる場合を例に挙げて説明する。そのため、図7(c)に示すように、焦点検出処理(AF処理)に関わる画素200は、2行目、4行目、6行目のそれぞれ3列目、5列目、7列目、9列目の、G(緑)フィルタに対応する画素200となる。
FIG. 7C shows a signal of the pixel 200 related to the focus detection process (AF process) in the signal processing unit 13 in FIG.
In the present embodiment, an example in which the signal processing unit 13 uses the signal of the pixel 200 corresponding to the G (green) filter in the even-numbered row in the focus detection area 703 in the focus detection process (AF process) will be described. To do. Therefore, as shown in FIG. 7C, the pixels 200 related to the focus detection process (AF process) are in the third, fifth, seventh, second, fourth, and sixth rows, respectively. The pixel 200 corresponds to the G (green) filter in the ninth column.

また、本実施形態では、信号処理部13は、光電変換素子D1aから得られるA信号と光電変換素子D1bから得られる信号(B信号)とを基にした位相差検出方式の焦点検出を実施する。そこで、信号処理部13は、A+B信号の値からA信号の値を減算することにより((A+B信号)−(A信号)を計算することにより)B信号を計算する必要がある。このため、画素200から読み出したA信号とA+B信号とが必要となる。具体的に説明すると、図7(c)のように、信号処理部13は、2行3列目の画素200から6行9列目の画素200までの、G(A)およびG(A+B)の信号を用いることになる。例えば信号処理部13は、2行3列目の画素200について、A+B信号である信号705(G(A+B))からA信号である信号704(G(A))を減算して(G(A+B)−G(A)=G(B)として)B信号を求めればよい。本実施形態では、例えば、A信号により第1の信号の一例が実現され、A+B信号により第2の信号の一例が実現される。
以上のことから、本実施形態では、列信号処理部102は、撮像動作801の期間に、画素領域201のうち、焦点検出領域703の画素から、A信号およびA+B信号を読み出し、画素領域201のその他の画素から、A+B信号を読み出す。
In the present embodiment, the signal processing unit 13 performs focus detection by a phase difference detection method based on the A signal obtained from the photoelectric conversion element D1a and the signal (B signal) obtained from the photoelectric conversion element D1b. . Therefore, the signal processing unit 13 needs to calculate the B signal by subtracting the value of the A signal from the value of the A + B signal (by calculating (A + B signal) − (A signal)). For this reason, the A signal and A + B signal read from the pixel 200 are required. Specifically, as shown in FIG. 7C, the signal processing unit 13 performs G (A) and G (A + B) from the pixel 200 in the second row and the third column to the pixel 200 in the sixth row and the ninth column. This signal is used. For example, the signal processing unit 13 subtracts the signal 704 (G (A)) as the A signal from the signal 705 (G (A + B)) as the A + B signal for the pixel 200 in the second row and the third column (G (A + B ) −G (A) = G (B)) and the B signal may be obtained. In the present embodiment, for example, an example of the first signal is realized by the A signal, and an example of the second signal is realized by the A + B signal.
From the above, in this embodiment, the column signal processing unit 102 reads the A signal and the A + B signal from the pixels in the focus detection region 703 in the pixel region 201 during the imaging operation 801, and A + B signals are read from other pixels.

図8は、本実施形態の撮像装置の動作タイミングの一例を示す図である。図8(a)は、撮像動作および動画表示を示し、図8(b)は、画像処理動作を示し、図8(c)は、AF処理動作を示す。   FIG. 8 is a diagram illustrating an example of operation timing of the imaging apparatus according to the present embodiment. FIG. 8A shows the imaging operation and moving image display, FIG. 8B shows the image processing operation, and FIG. 8C shows the AF processing operation.

図8(a)において、撮像部101の動作状態を撮像動作801と表し、画像処理された撮影画像を画像表示部17に表示する動作を動画表示802と表すことにする。図8(a)のグラフの垂直方向のLは、撮影画像を撮像部101から読み出す行の順番と、画像処理された撮影画像を動画表示する行の順番とを示す。水平方向のtは、行を読み出すタイミングと、動画像を表示する行のタイミングの時間経過を示す。図8(a)では、このようにして垂直方向および水平方向の軸を定めることにより、撮像部101から読み出される行の状態、動画像を表示する行の状態が、それぞれ撮像動作801、動画表示802により表される。   In FIG. 8A, the operation state of the image capturing unit 101 is represented as an image capturing operation 801, and the operation for displaying a captured image subjected to image processing on the image display unit 17 is represented as a moving image display 802. L in the vertical direction of the graph in FIG. 8A indicates the order of rows in which the captured image is read from the imaging unit 101 and the order of rows in which the imaged captured image is displayed as a moving image. The t in the horizontal direction indicates the passage of time between the timing of reading a row and the timing of a row displaying a moving image. In FIG. 8A, by determining the vertical and horizontal axes in this manner, the state of the row read from the imaging unit 101 and the state of the row for displaying the moving image are the imaging operation 801 and the moving image display, respectively. 802.

図8(a)に示す例では、撮像動作801の傾きが、動画表示802の傾きよりも大きい。従って、単位時間当たりの動作スピードとしては、撮像動作801の方が動画表示802よりも速いことになる。
ここで、撮像部101からの読み出しが開始してから完了するまでの撮像動作801の単位時間あたりのデータ処理量を、必要に応じて撮像レートと称する。また、画像処理された撮影画像の表示のための処理が開始してから完了するまでの動画表示802の単位時間あたりのデータ処理量を、必要に応じて動画レートと称する。
In the example shown in FIG. 8A, the inclination of the imaging operation 801 is larger than the inclination of the moving image display 802. Therefore, the imaging operation 801 is faster than the moving image display 802 as the operation speed per unit time.
Here, the data processing amount per unit time of the imaging operation 801 from the start to the completion of reading from the imaging unit 101 is referred to as an imaging rate as necessary. Further, the data processing amount per unit time of the moving image display 802 from the start to the completion of the processing for displaying the photographed image subjected to the image processing is referred to as a moving image rate as necessary.

図8(b)に示す画像処理動作では、主に画像処理に関わる動作として実施される項目をその実施順に上から順番に示す。図8(b)において、水平方向は、図8(a)に対応した期間であって、各項目の動作期間を示す。本実施形態では、列信号処理部102は、撮像動作801の期間に、撮像部101の画素200から、A信号およびA+B信号を読み出す。この時に読み出される画素200の信号は、図7(a)で説明した画素領域201の画素200の信号となる。
そこで、図8(b)においては、撮像動作801の期間をA信号およびA+B信号の読み出し期間とし、「A/A+B読み出し」と表すことにする。本実施形態では、例えば、列信号処理部203が、撮像動作801の期間に、撮像部101の画素200から、A信号およびA+B信号を読み出すことにより、第1の読み出し手段の一例が実現される。また、例えば、撮像レートに対応する読み出し速度により、第1の読み出し速度の一例が実現される。
In the image processing operation shown in FIG. 8B, items that are mainly implemented as operations related to image processing are shown in order from the top in the order of execution. In FIG. 8B, the horizontal direction is a period corresponding to FIG. 8A and indicates the operation period of each item. In the present embodiment, the column signal processing unit 102 reads the A signal and the A + B signal from the pixel 200 of the imaging unit 101 during the period of the imaging operation 801. The signal of the pixel 200 read at this time is the signal of the pixel 200 in the pixel region 201 described with reference to FIG.
Therefore, in FIG. 8B, the period of the imaging operation 801 is a readout period of the A signal and the A + B signal, and is expressed as “A / A + B readout”. In the present embodiment, for example, the column signal processing unit 203 reads out the A signal and the A + B signal from the pixel 200 of the imaging unit 101 during the imaging operation 801, thereby realizing an example of the first reading unit. . Further, for example, an example of the first reading speed is realized by the reading speed corresponding to the imaging rate.

A信号およびA+B信号の読み出し動作と同時に、列信号処理部102は、A信号およびA+B信号を撮像基板100からメモリ基板110のメモリ制御部111に転送する。そして、メモリ制御部111は、A信号およびA+B信号を記録部112に記録する。図8(b)では、これらの動作の期間を「メモリ書き込み」と表すことにする。本実施形態では、例えば、メモリ制御部111が、A信号およびA+B信号を記録部112に記録することにより、第1の記憶手段の一例が実現される。また、メモリ制御部111が、A信号およびA+B信号を記録部112に記録する際の書き込み速度(撮像レートに対応する書き込み速度)により、第2の書き込み速度の一例が実現される。   Simultaneously with the reading operation of the A signal and the A + B signal, the column signal processing unit 102 transfers the A signal and the A + B signal from the imaging substrate 100 to the memory control unit 111 of the memory substrate 110. Then, the memory control unit 111 records the A signal and the A + B signal in the recording unit 112. In FIG. 8B, the period of these operations is represented as “memory writing”. In the present embodiment, for example, the memory control unit 111 records the A signal and the A + B signal in the recording unit 112, thereby realizing an example of the first storage unit. An example of the second writing speed is realized by the writing speed (writing speed corresponding to the imaging rate) when the memory control unit 111 records the A signal and the A + B signal in the recording unit 112.

ここで、図8(b)においては、信号処理部13における撮影画像に対する信号処理にかかる期間を「画像処理」と表すことにする。画像処理の期間は、信号処理部13の処理能力や消費電力の大きさおよび発熱量を基に、撮像装置の動作仕様から決められる。また、信号処理部13における撮影画像に対する信号処理にかかる単位時間あたりのデータ処理量を、必要に応じて処理レートと称する。   Here, in FIG. 8B, the period of signal processing for the captured image in the signal processing unit 13 is represented as “image processing”. The image processing period is determined from the operation specifications of the imaging apparatus based on the processing capability of the signal processing unit 13, the power consumption, and the heat generation amount. In addition, the data processing amount per unit time required for signal processing on a captured image in the signal processing unit 13 is referred to as a processing rate as necessary.

本実施形態では、撮像部101から高速に画素200の信号を読み出すため、信号処理部13の処理能力である処理レートが撮像レートよりも低い場合について説明する。
そこで、メモリ制御部111は、メモリ基板110の記録部112に記録されている画素領域201の全ての画素200の信号を、撮像レートよりも低い処理レートで読み出し、メモリ基板110から回路基板120のバス制御部121に転送する。図8(b)では、この期間を「メモリ読み出し」と表すことにする。
本実施形態では、以上のようにして、記録部112を用いた、高速な撮像レートから低速な処理レートへの、単位時間当たりのデータ処理量の変換(レートの変換)が実施される。
In the present embodiment, a case where the processing rate that is the processing capability of the signal processing unit 13 is lower than the imaging rate in order to read the signal of the pixel 200 from the imaging unit 101 at high speed will be described.
Therefore, the memory control unit 111 reads out the signals of all the pixels 200 in the pixel area 201 recorded in the recording unit 112 of the memory substrate 110 at a processing rate lower than the imaging rate, and reads the signals from the memory substrate 110 to the circuit substrate 120. Transfer to the bus control unit 121. In FIG. 8B, this period is expressed as “memory read”.
In the present embodiment, as described above, the data processing amount conversion (rate conversion) per unit time is performed from the high-speed imaging rate to the low-speed processing rate using the recording unit 112.

処理レートで回路基板120に転送された画素200の信号は、画像信号前処理部122において、必要な信号前処理が実施されて、画像信号出力部123を介して、撮像素子12から信号処理部13へ出力される。
ここで、信号処理部13における撮影画像の作成には、画素200の光電変換素子D1aおよびD1bの加算信号であるA+B信号を用いる。そこで、記録部112から読み出す画素200の信号は、図7(b)で説明したように、A+B信号のみでよい。これにより、図7(b)に示すA信号およびA+B信号の2つの信号を撮像素子12から信号処理部13へ出力する必要がなくなる。このため、撮像素子12から信号処理部13へ出力する時のデータの転送容量を削減させることが可能となる。
The signal of the pixel 200 transferred to the circuit board 120 at the processing rate is subjected to necessary signal preprocessing in the image signal preprocessing unit 122, and the signal processing unit from the image sensor 12 through the image signal output unit 123. 13 is output.
Here, the A + B signal that is an addition signal of the photoelectric conversion elements D1a and D1b of the pixel 200 is used to create a captured image in the signal processing unit 13. Accordingly, the signal of the pixel 200 read from the recording unit 112 may be only the A + B signal as described with reference to FIG. This eliminates the need to output the two signals of the A signal and the A + B signal shown in FIG. 7B from the image sensor 12 to the signal processing unit 13. Therefore, it is possible to reduce the data transfer capacity when outputting from the image sensor 12 to the signal processor 13.

また、画像信号前処理部122において実施される信号前処理としては、キズ補正やノイズ低減処理等がある。しかしながら、A+B信号は、撮影画像の作成が可能な信号であるため、画像信号出力部123は、A+B信号をそのまま信号処理部13へ出力してもよい。
本実施形態では、例えば、メモリ制御部111が、メモリ基板110の記録部112に記録されている画素領域201の全ての画素200の信号を、処理レートで読み出すことにより、第2の読み出し手段の一例が実現される。また、例えば、処理レートに対応する速度により第2の読み出し速度の一例が実現される。また、例えば、画素領域201の全ての画素200のA+B信号により、第1の記憶手段により記憶された前記画素の信号であって、前記撮像手段により撮像された画像を作成するために用いる信号の一例が実現される。
The signal preprocessing performed in the image signal preprocessing unit 122 includes scratch correction and noise reduction processing. However, since the A + B signal is a signal capable of creating a captured image, the image signal output unit 123 may output the A + B signal to the signal processing unit 13 as it is.
In the present embodiment, for example, the memory control unit 111 reads out the signals of all the pixels 200 in the pixel area 201 recorded in the recording unit 112 of the memory substrate 110 at the processing rate, so that the second reading unit An example is realized. Further, for example, an example of the second reading speed is realized by a speed corresponding to the processing rate. In addition, for example, the signal of the pixel stored in the first storage unit based on the A + B signal of all the pixels 200 in the pixel region 201 and used to create an image captured by the imaging unit. An example is realized.

信号処理部13において処理レートで画像処理された撮影画像の信号は、信号処理部13あるいは同期制御部15にある不図示のバッファに一時的に記憶される。図8(b)では、この期間を「バッファ書き込み」と表すことにする。
そして、信号処理部13または同期制御部15は、「画像処理」の期間に画像処理された撮影画像の信号をバッファから読み出して画像表示部17に転送する。図8(b)では、この期間を「バッファ読み出し」と表すことにする。
バッファから読み出された撮影画像の信号は、動画表示802の期間に、画像表示部17に表示される。従って、図8(a)および図8(b)に示すように、「バッファ読み出し」の期間は、動画表示802の期間と同じ時間となる。
The signal of the captured image that has been image-processed at the processing rate in the signal processing unit 13 is temporarily stored in a buffer (not shown) in the signal processing unit 13 or the synchronization control unit 15. In FIG. 8B, this period is expressed as “buffer writing”.
Then, the signal processing unit 13 or the synchronization control unit 15 reads out the signal of the captured image that has been subjected to image processing during the “image processing” period, and transfers it to the image display unit 17. In FIG. 8B, this period is expressed as “buffer read”.
The captured image signal read from the buffer is displayed on the image display unit 17 during the moving image display 802 period. Therefore, as shown in FIGS. 8A and 8B, the “buffer read” period is the same as the period of the moving image display 802.

この時、画像処理が画像表示よりも遅いと表示に不具合が生じるため、処理レートが動画レートより大きくなければならない。従って、図8(b)において、「画像処理」の期間と同じとなる「バッファ書き込み」の期間は、「バッファ読み出し」の期間もよりも短くなる。
本実施形態では、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファに記憶することにより、第2の記憶手段の一例が実現される。また、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファに書き込む速度(処理レートに対応する書き込み速度)により、第1の書き込み速度の一例が実現される。また、例えば、バッファにより第2の記憶媒体の一例が実現される。また、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファから読み出すことにより、第4の読み出し手段の一例が実現される。また、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファから読み出す速度(動画レートに対応する読み出し速度)により、第3の読み出し速度の一例が実現される。
At this time, if the image processing is slower than the image display, a problem occurs in the display, and therefore the processing rate must be larger than the moving image rate. Accordingly, in FIG. 8B, the “buffer writing” period, which is the same as the “image processing” period, is also shorter than the “buffer reading” period.
In the present embodiment, for example, the signal processing unit 13 or the synchronization control unit 15 stores an image-processed captured image signal in a buffer, thereby realizing an example of a second storage unit. Further, for example, an example of the first writing speed is realized by the speed at which the signal processing unit 13 or the synchronization control unit 15 writes the signal of the captured image that has undergone image processing into the buffer (the writing speed corresponding to the processing rate). . Further, for example, an example of the second storage medium is realized by a buffer. Further, for example, when the signal processing unit 13 or the synchronization control unit 15 reads out the signal of the captured image subjected to the image processing from the buffer, an example of a fourth reading unit is realized. Further, for example, an example of the third reading speed is realized by the speed at which the signal processing unit 13 or the synchronization control unit 15 reads the signal of the captured image that has undergone image processing from the buffer (reading speed corresponding to the moving image rate). .

本実施形態では、以上のようにして、信号処理部13あるいは同期制御部15のバッファを用いた、高速な処理レートから低速な動画レートへのレートの変換が実施される。
また、作成された撮影画像は、同期制御部15の指示により、画像記録部18に記録することも可能である。
In the present embodiment, rate conversion from a high-speed processing rate to a low-speed moving image rate is performed using the buffer of the signal processing unit 13 or the synchronization control unit 15 as described above.
Further, the created captured image can be recorded in the image recording unit 18 according to an instruction from the synchronization control unit 15.

ここで、図8(b)の説明では、信号処理部13あるいは同期制御部15にバッファがあるとしたが、画像表示部17にバッファを設けてもよい。このようにする場合、画像処理された撮影画像の信号を画像表示部17にあるバッファに処理レートで転送し、動画レートで読み出して画像表示部17に表示することになる。   Here, in the description of FIG. 8B, the signal processing unit 13 or the synchronization control unit 15 has a buffer, but the image display unit 17 may be provided with a buffer. In this case, the image-processed captured image signal is transferred to a buffer in the image display unit 17 at a processing rate, read at a moving image rate, and displayed on the image display unit 17.

図8(c)に示すAF処理動作では、主に焦点検出処理(AF処理)に関わる動作として実施される項目をその実施順に上から順番に示す。図8(c)において、水平方向は、図8(a)に対応した期間であって、各項目の動作期間を示す。
撮像動作801となる「A/A+B読み出し」および「A/A+B読み出し」と同時に実施される記録部112への「メモリ書き込み」は、図8(b)に示した項目と同じ項目である。従って、ここでは、これらの詳細な説明を省略する。
In the AF processing operation shown in FIG. 8C, items executed mainly as operations related to the focus detection processing (AF processing) are shown in order from the top in the order of execution. In FIG. 8C, the horizontal direction is a period corresponding to FIG. 8A and indicates the operation period of each item.
“Memory write” to the recording unit 112, which is performed simultaneously with “A / A + B read” and “A / A + B read”, which are the imaging operations 801, is the same item as shown in FIG. Therefore, detailed description thereof is omitted here.

図7(a)で説明したように、撮像部101にある画素領域201内に焦点検出領域703を設ける。信号処理部13は、焦点検出領域703内の画素200から得られるA信号およびA+B信号を基に焦点検出処理を実施する。
この時、焦点検出に用いる画素200は、焦点検出領域703内の全ての画素である必要はない。本実施形態では、図7(c)で説明したように、信号処理部13は、焦点検出処理に際し、焦点検出領域703内の偶数行のG(緑)フィルタに対応する画素200を用いる。
As described with reference to FIG. 7A, the focus detection area 703 is provided in the pixel area 201 in the imaging unit 101. The signal processing unit 13 performs focus detection processing based on the A signal and the A + B signal obtained from the pixels 200 in the focus detection region 703.
At this time, the pixels 200 used for focus detection need not be all the pixels in the focus detection area 703. In the present embodiment, as described with reference to FIG. 7C, the signal processing unit 13 uses the pixels 200 corresponding to the G (green) filters in even-numbered rows in the focus detection region 703 in the focus detection process.

ここで、焦点検出領域703内の偶数行のG(緑)フィルタに対応する画素200の信号が、飛び飛びの画素200の位置にあることを表すために、図8(c)では、時間隔を空けた1つの矩形を1つの画素200の信号として表現する。また、図8(c)では、焦点検出領域703内の偶数行のG(緑)フィルタに対応する画素200の信号(矩形)を「メモリ上AF情報」と表すことにする。尚、以下の説明では、焦点検出処理に用いる画素200(本実施形態では焦点検出領域703内の偶数行のG(緑)フィルタに対応する画素200)を、必要に応じて焦点検出画素と称する。本実施形態では、例えば、焦点検出領域703により、第1の領域よりも狭い領域であって、焦点を検出するために用いる信号を出力する画素を含む領域である第2の領域の一例が実現される。また、例えば、焦点検出画素により、焦点を検出するために用いる信号を出力する画素の一例が実現される。   Here, in order to indicate that the signal of the pixel 200 corresponding to the G (green) filter in the even-numbered row in the focus detection region 703 is at the position of the skipped pixel 200, in FIG. One empty rectangle is expressed as a signal of one pixel 200. In FIG. 8C, the signal (rectangle) of the pixel 200 corresponding to the G (green) filter in the even-numbered row in the focus detection area 703 is expressed as “AF information on memory”. In the following description, the pixels 200 used for the focus detection process (in this embodiment, the pixels 200 corresponding to the G (green) filters in even rows in the focus detection region 703) are referred to as focus detection pixels as necessary. . In this embodiment, for example, the focus detection region 703 realizes an example of a second region that is a region narrower than the first region and includes a pixel that outputs a signal used to detect a focus. Is done. Also, for example, an example of a pixel that outputs a signal used to detect a focus is realized by the focus detection pixel.

「A/A+B読み出し」動作において、焦点検出画素を読み出すには、焦点検出領域703内の全ての画素200を読み出す必要があることが分かる。そこで、焦点検出領域703から順次読み出される焦点検出画素の信号を用いて、この読み出しと同時に焦点検出処理を実施する場合、焦点検出領域703内の全ての画素200を読み出す期間に亘り、焦点検出処理に関わる回路を動作させ続けなければならない。
しかしながら、本実施形態では、メモリ制御部111は、メモリ基板110の記録部112に記録されている焦点検出画素の信号のみを、図7(c)のように連続して読み出し、メモリ基板110から回路基板120に転送する。この時、記録部112から読み出される焦点検出画素の信号は、A信号およびA+B信号となる。図8(c)においては、この期間を「連続読み出し」と表すことにする。本実施形態では、例えば、メモリ制御部111が、メモリ基板110の記録部112に記録されている焦点検出画素の信号のみを連続して読み出すことにより、第3の読み出し手段の一例が実現される。また、例えば、焦点検出画素のA信号およびA+B信号により、第1の記憶手段により記憶された画素の信号の一部の信号であって、焦点を検出するために用いる信号の一例が実現される。
In the “A / A + B read” operation, it is understood that all pixels 200 in the focus detection area 703 need to be read in order to read the focus detection pixels. Therefore, when focus detection processing is performed simultaneously with the readout using the signals of the focus detection pixels sequentially read from the focus detection region 703, the focus detection processing is performed over a period in which all the pixels 200 in the focus detection region 703 are read. It is necessary to continue to operate the circuit related to.
However, in the present embodiment, the memory control unit 111 continuously reads out only the focus detection pixel signals recorded in the recording unit 112 of the memory substrate 110 as illustrated in FIG. Transfer to the circuit board 120. At this time, the focus detection pixel signals read from the recording unit 112 are the A signal and the A + B signal. In FIG. 8C, this period is expressed as “continuous reading”. In the present embodiment, for example, the memory control unit 111 continuously reads only the focus detection pixel signal recorded in the recording unit 112 of the memory substrate 110, thereby realizing an example of the third reading unit. . In addition, for example, an A signal and an A + B signal of the focus detection pixel realize an example of a signal that is a part of the pixel signal stored in the first storage unit and is used to detect the focus. .

回路基板120に転送された焦点検出画素の信号は、AF信号前処理部124において、必要な信号前処理が実施されて、AF信号出力部125を介して、撮像素子12から信号処理部13へ出力される。AF信号前処理部124において実施される信号前処理には、例えば、B信号を計算するための計算式「(A+B信号)−(A信号)」が必要となる。AF信号前処理部124は、この計算式を実行する前に、キズ補正やノイズ低減処理等を実施してもよい。これにより、AF信号前処理部124からは、焦点検出画素の信号としてA信号およびB信号が出力される。図8(c)においては、この期間を「A/B処理」と表すことにする。   The signal of the focus detection pixel transferred to the circuit board 120 is subjected to necessary signal preprocessing in the AF signal preprocessing unit 124, and is sent from the image sensor 12 to the signal processing unit 13 via the AF signal output unit 125. Is output. The signal preprocessing performed in the AF signal preprocessing unit 124 requires, for example, a calculation formula “(A + B signal) − (A signal)” for calculating the B signal. The AF signal preprocessing unit 124 may perform scratch correction, noise reduction processing, and the like before executing this calculation formula. As a result, the AF signal preprocessing unit 124 outputs the A signal and the B signal as the focus detection pixel signals. In FIG. 8C, this period is expressed as “A / B processing”.

そして、信号処理部13が備える不図示の焦点検出処理部は、水平方向の複数の画素に関わる焦点検出用のA信号およびB信号に基づいて、画素内瞳分割された異なる光電変換素子Ta1、Ta2に対する入射光の位相差を検出する。
次に、焦点検出処理部は、検出した位相差に基づいて、撮像装置から被写体までの距離情報に対応する評価値であって、AFに用いられる評価値であるAF評価値を算出し、同期制御部15に出力する。本実施形態では、例えば、焦点検出処理部を用いることにより、検出手段の一例が実現される。
A focus detection processing unit (not shown) included in the signal processing unit 13 includes different photoelectric conversion elements Ta1 obtained by dividing the intra-pixel pupil based on the A signal and B signal for focus detection related to a plurality of pixels in the horizontal direction. The phase difference of incident light with respect to Ta2 is detected.
Next, the focus detection processing unit calculates an AF evaluation value that is an evaluation value corresponding to distance information from the imaging device to the subject and used for AF based on the detected phase difference, and performs synchronization. Output to the control unit 15. In the present embodiment, for example, an example of a detection unit is realized by using a focus detection processing unit.

ここまでが、信号処理部13で実行される焦点検出処理となり、図8(c)においては、この期間を「AF評価値算出」と表すことにする。
同期制御部15は、AF評価値を基にして、撮像光学系11が備える合焦レンズを駆動して、被写体が合焦するように制御する。図8(c)においては、同期制御部15による制御に移行することを「AF制御」と表すことにする。
The focus detection processing executed by the signal processing unit 13 has been described so far. In FIG. 8C, this period is represented as “AF evaluation value calculation”.
The synchronization control unit 15 drives the focusing lens included in the imaging optical system 11 based on the AF evaluation value, and controls the subject to focus. In FIG. 8C, shifting to control by the synchronization control unit 15 is expressed as “AF control”.

信号処理部13の焦点検出処理部は、「連続読み出し」された焦点検出画素の信号を基に、連続的に焦点検出処理を実施する。ここで、焦点検出画素の焦点検出処理にかかる単位時間あたりのデータ処理量を、必要に応じてAFレートと称する。
図8(c)のAF処理動作では、AF信号前処理部124は、記録部112からAFレートで連続的に読み出された焦点検出画素のA信号およびA+B信号を、焦点検出画素のA信号およびB信号に変換する。そして、信号処理部13の焦点検出処理部は、AFレートで焦点検出処理を実施して、AF評価値を算出し、同期制御部15に出力する。このため、図8(c)において、「連続読み出し」の期間、「A/B処理」の期間、および「AF評価値算出」の期間は等しい期間となる。従って、この時に、記録部112を用いた、低速な撮像レートから高速なAFレートへのレートの変換が実施される。
The focus detection processing unit of the signal processing unit 13 continuously performs focus detection processing based on the signals of the focus detection pixels that have been “continuously read”. Here, the data processing amount per unit time required for the focus detection processing of the focus detection pixels is referred to as an AF rate as necessary.
In the AF processing operation of FIG. 8C, the AF signal preprocessing unit 124 uses the A signal and the A + B signal of the focus detection pixel continuously read from the recording unit 112 at the AF rate, and the A signal of the focus detection pixel. And B signal. Then, the focus detection processing unit of the signal processing unit 13 performs focus detection processing at the AF rate, calculates an AF evaluation value, and outputs the AF evaluation value to the synchronization control unit 15. Therefore, in FIG. 8C, the “continuous reading” period, the “A / B processing” period, and the “AF evaluation value calculation” period are equal periods. Accordingly, at this time, the recording unit 112 is used to convert the rate from a low imaging rate to a high AF rate.

以上のように本実施形態では、1回の撮像動作で焦点検出用の信号と撮影画像用の信号とを同時に取得することが可能になる。また、撮像動作においては、撮像部101の画素200の信号を読み出して記録部112へ転送する撮像レートよりも、撮影画像の画像処理にかかる処理レートを遅くする。従って、信号処理部13の処理能力、消費電力の大きさ、および発熱量を基に画像処理の期間を決めることができる。更に、焦点検出領域703内の焦点検出画素の信号のみを連続して読み出す。従って、撮像動作において、焦点検出領域703内の全ての画素を読み出しながら、同時に焦点検出処理を実施する場合に比べて、信号処理部13の焦点検出処理部、AF信号前処理部124、およびAF信号出力部125の動作期間を短縮することができる。よって、撮像装置の消費電力を削減することができる。また、撮像素子12から信号処理部13への焦点検出画素の信号の転送期間が短縮されるので、焦点検出処理にかかる時間を大幅に短縮することができる。また、撮像素子12から信号処理部13へ出力する撮影画像用の信号がA+B信号のみとなるので、処理レートを更に低減できると共にデータ転送容量を削減させることができる。また、撮像部101の画素の信号を記録部112に記録させることで、画像処理にかかる処理レートの制約がなくなり、高速に撮像動作を実施できるので、ローリング歪を低減させることができる。以上のように本実施形態では、画素内瞳分割機能を有する画素を備える撮像装置が、位相差検出方式の焦点検出と被写体画像の作成とを行うに際し、フレームレートの低下の抑制と消費電力の削減とを可能にすることができる。   As described above, in the present embodiment, it is possible to simultaneously acquire a focus detection signal and a captured image signal in one imaging operation. In the imaging operation, the processing rate for the image processing of the captured image is made slower than the imaging rate for reading the signal of the pixel 200 of the imaging unit 101 and transferring it to the recording unit 112. Therefore, the image processing period can be determined based on the processing capability of the signal processing unit 13, the power consumption, and the heat generation amount. Furthermore, only the signal of the focus detection pixel in the focus detection area 703 is read out continuously. Therefore, in the imaging operation, the focus detection processing unit of the signal processing unit 13, the AF signal preprocessing unit 124, and the AF are compared with the case where the focus detection process is performed simultaneously while reading all the pixels in the focus detection region 703. The operation period of the signal output unit 125 can be shortened. Therefore, power consumption of the imaging device can be reduced. Further, since the transfer period of the focus detection pixel signal from the image sensor 12 to the signal processing unit 13 is shortened, the time required for the focus detection process can be greatly shortened. In addition, since only the A + B signal is output from the image pickup device 12 to the signal processing unit 13 for the captured image, the processing rate can be further reduced and the data transfer capacity can be reduced. In addition, by recording the pixel signal of the imaging unit 101 in the recording unit 112, there is no restriction on the processing rate for image processing, and the imaging operation can be performed at high speed, so that rolling distortion can be reduced. As described above, in the present embodiment, when an imaging apparatus including pixels having the intra-pixel pupil division function performs focus detection by the phase difference detection method and creation of a subject image, the reduction of the frame rate and the power consumption are reduced. Reductions can be made possible.

本実施形態では、記録部112から処理レートで信号を読み出して画像処理を実施し、バッファから動画レートで信号を読み出す場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はない。例えば、記録部112から動画レートで信号を読み出して画像処理を実施し、画像表示部17に表示してもよい。このようにすれば、処理レートよりも遅い動画レートで画像処理を実施することができるので、データの転送レートを更に低減することができる。また、画像表示のためのバッファを省略することも可能となる。本実施形態では、例えば、動画レートにより、第2の読み出し速度(第1の記憶手段により記憶された信号に基づく画像を、その出力先に出力する速度)の一例が実現される。尚、画像表示部17が出力先の一例である。ただし、画像処理した信号の出力先は、画像表示部17に限定されない。例えば、画像処理した信号の出力先は、画像記録部18であってもよい。   In this embodiment, the case where a signal is read from the recording unit 112 at a processing rate to perform image processing, and a signal is read from the buffer at a moving image rate has been described as an example. However, this is not always necessary. For example, a signal may be read from the recording unit 112 at a moving image rate and image processing may be performed and displayed on the image display unit 17. In this way, since image processing can be performed at a moving image rate slower than the processing rate, the data transfer rate can be further reduced. It is also possible to omit a buffer for displaying images. In the present embodiment, for example, an example of the second reading speed (speed at which an image based on the signal stored in the first storage unit is output to the output destination) is realized by the moving image rate. The image display unit 17 is an example of an output destination. However, the output destination of the image-processed signal is not limited to the image display unit 17. For example, the output destination of the image-processed signal may be the image recording unit 18.

また、本実施形態のように、画素領域201のうち、焦点検出領域703の画素から、A信号およびA+B信号を読み出し、画素領域201のその他の画素から、A+B信号を読み出すようにすれば、読み出す信号を少なくすることができるので好ましい。しかしながら、必ずしもこのようにする必要はない。例えば、画素領域201の全ての画素から、A信号およびA+B信号を読み出してもよい。   Further, as in the present embodiment, if the A signal and the A + B signal are read from the pixels in the focus detection region 703 in the pixel region 201 and the A + B signal is read from the other pixels in the pixel region 201, the readout is performed. This is preferable because the number of signals can be reduced. However, this is not always necessary. For example, the A signal and the A + B signal may be read from all the pixels in the pixel region 201.

(第2の実施形態)
次に、図1〜図6に加えて図9〜図10を参照して、第2の実施形態を説明する。第1の実施形態では、撮像部101の画素200から、A信号およびA+B信号(2つの光電変換素子の一方の焦点検出用の信号と撮影画像用の信号)を読み出して、位相差検出方式の焦点検出と撮影画像の作成とを同時に実施する場合を例に挙げて説明した。これに対し、本実施形態では、撮像部101の画素200から、A信号およびB信号(2つの光電変換素子の両方の焦点検出用の信号)を読み出して、位相差検出方式の焦点検出と撮影画像の作成とを同時に実施する場合を例に挙げて説明する。このように本実施形態と第1の実施形態とは、撮像部101の画素200から読み出す信号が異なることによる処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIGS. 9 to 10 in addition to FIGS. In the first embodiment, an A signal and an A + B signal (one focus detection signal and a captured image signal of two photoelectric conversion elements) are read from the pixel 200 of the imaging unit 101, and a phase difference detection method is used. The case where the focus detection and the creation of the captured image are performed simultaneously has been described as an example. On the other hand, in the present embodiment, the A signal and the B signal (the signals for detecting the focus of both photoelectric conversion elements) are read from the pixel 200 of the imaging unit 101, and the focus detection and photographing by the phase difference detection method are performed. A case where image creation is performed simultaneously will be described as an example. As described above, the present embodiment and the first embodiment mainly differ in processing due to different signals read from the pixels 200 of the imaging unit 101. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals as those in FIGS.

本実施形態では、第1の実施形態と同一の第1の露光制御(光電変換素子D1aの露光制御)を実施した後に、第1の実施形態とは異なる第2の露光制御(光電変換素子D1bの露光制御)を実施する。
本実施形態の第2の露光制御では、所定の露光時間の経過後に、リセットトランジスタT2のオンおよびオフと、その後の転送トランジスタT1bのオンおよびオフとにより、光電変換素子D1bの信号電荷のみが読み出される。この時の光電変換素子D1bの出力信号を焦点検出用のB信号と称することとする。また、本実施形態の第2の読み出し動作では、第2の露光制御を実施した1行分の画素200から読み出した光電変換素子D1bの信号、即ち、B信号に対して列信号処理を実施する。
In the present embodiment, after performing the same first exposure control (exposure control of the photoelectric conversion element D1a) as in the first embodiment, the second exposure control (photoelectric conversion element D1b) different from the first embodiment is performed. Exposure control).
In the second exposure control of the present embodiment, only a signal charge of the photoelectric conversion element D1b is read by turning on and off the reset transistor T2 and then turning on and off the transfer transistor T1b after a predetermined exposure time has elapsed. It is. The output signal of the photoelectric conversion element D1b at this time is referred to as a focus detection B signal. In the second readout operation of the present embodiment, column signal processing is performed on the signal of the photoelectric conversion element D1b read out from the pixels 200 for one row subjected to the second exposure control, that is, the B signal. .

図9は、本実施形態の信号処理の一例を説明する図である。図9(a)は、撮像部101にある画素領域201の画素200から読み出されるA信号およびB信号を示す。本実施形態では、画素領域201の画素200から、A信号またはB信号が、行毎に所定の順番で読み出される。
例えば、信号901は、画素領域201の1行1列目の、R(赤)フィルタに対応する画素200のA信号であり、R(A)と表す。信号902は、画素領域201の1行1列目の、R(赤)フィルタに対応する画素200のB信号であり、R(B)と表す。また、対角となる2行2列目の画素200から7行9列目の画素200を囲む領域903を、焦点検出領域とする。尚、図9(a)は、図7(a)において、A+B信号をB信号に置き換えただけなので、図9(a)の詳細な説明を省略する。
FIG. 9 is a diagram illustrating an example of signal processing according to the present embodiment. FIG. 9A shows the A signal and the B signal read from the pixel 200 in the pixel region 201 in the imaging unit 101. In the present embodiment, the A signal or the B signal is read from the pixels 200 in the pixel area 201 in a predetermined order for each row.
For example, the signal 901 is an A signal of the pixel 200 corresponding to the R (red) filter in the first row and the first column of the pixel region 201 and is represented as R (A). A signal 902 is a B signal of the pixel 200 corresponding to the R (red) filter in the first row and the first column of the pixel region 201 and is represented as R (B). Further, a region 903 that surrounds the pixel 200 in the seventh row and the ninth column from the pixel 200 in the second row and the second column, which is a diagonal, is set as a focus detection region. In FIG. 9A, the A + B signal is simply replaced with the B signal in FIG. 7A, and the detailed description of FIG.

図9(b)は、図9(a)の内、信号処理部13における撮影画像の作成に用いる画素200のA信号およびB信号を示す。
本実施形態では、撮影画像の作成に際し、信号処理部13が、画素領域201の全ての画素200の全ての信号を用いる。即ち、信号処理部13は、光電変換素子D1aおよびD1bの加算信号であるA+B信号を用いて撮影画像を作成する。従って、信号処理部13は、A信号とB信号とを加算して((A信号)+(B信号)の計算式を実行して)A+B信号を計算するため、それぞれの画素200におけるA信号およびB信号が必要となる。例えば、信号処理部13は、1行1列目の画素200について、A信号である信号901(R(A))とB信号である信号902(R(B))とを加算して(R(A)+R(B)=R(A+B)として)A+B信号を求めればよい。
FIG. 9B shows an A signal and a B signal of the pixel 200 used for creating a captured image in the signal processing unit 13 in FIG.
In the present embodiment, the signal processing unit 13 uses all the signals of all the pixels 200 in the pixel region 201 when creating a captured image. That is, the signal processing unit 13 creates a captured image using the A + B signal that is an addition signal of the photoelectric conversion elements D1a and D1b. Therefore, the signal processing unit 13 adds the A signal and the B signal (executes the calculation formula of (A signal) + (B signal)) to calculate the A + B signal. And B signals are required. For example, the signal processing unit 13 adds the signal 901 (R (A)) that is the A signal and the signal 902 (R (B)) that is the B signal to the pixel 200 in the first row and the first column (R (A) + R (B) = R (A + B)) A + B signal may be obtained.

図9(c)は、図9(a)の内、信号処理部13における焦点検出処理(AF処理)に関わる画素200の信号を示す。
本実施形態でも、第1の実施形態と同様に、焦点検出処理(AF処理)に際し、信号処理部13が、焦点検出領域903内の偶数行のG(緑)フィルタに対応する画素200の信号を用いる場合を例に挙げて説明する。尚、図9(c)は、図7(c)において、A+B信号をB信号に置き換えただけなので、図9(c)の詳細な説明を省略する。
FIG. 9C shows a signal of the pixel 200 related to the focus detection process (AF process) in the signal processing unit 13 in FIG.
Also in the present embodiment, as in the first embodiment, in the focus detection process (AF process), the signal processing unit 13 outputs the signal of the pixel 200 corresponding to the G (green) filter in the even-numbered row in the focus detection area 903. The case where is used will be described as an example. In FIG. 9C, only the A + B signal is replaced with the B signal in FIG. 7C, and the detailed description of FIG. 9C is omitted.

本実施形態では、信号処理部13は、光電変換素子D1aから得られるA信号と光電変換素子D1bから得られるB信号とを基にした位相差検出方式の焦点検出を実施する。例えば、図9(c)において、信号処理部13は、2行3列目の画素について、A信号である信号904(G(A))およびB信号である信号905(G(B))の信号をそのまま用いて位相差検出方式の焦点検出を実施する。本実施形態では、例えば、A信号により第1の信号の一例が実現され、B信号により第2の信号の一例が実現される。   In the present embodiment, the signal processing unit 13 performs focus detection by a phase difference detection method based on the A signal obtained from the photoelectric conversion element D1a and the B signal obtained from the photoelectric conversion element D1b. For example, in FIG. 9C, the signal processing unit 13 performs the signal 904 (G (A)) that is the A signal and the signal 905 (G (B)) that is the B signal for the pixel in the second row and the third column. The focus detection by the phase difference detection method is performed using the signal as it is. In the present embodiment, for example, an example of the first signal is realized by the A signal, and an example of the second signal is realized by the B signal.

図10は、本実施形態の撮像装置の動作タイミングの一例を示す図である。図10(a)は、撮像動作および動画表示を示し、図10(b)は、画像処理動作を示し、図10(c)は、AF処理動作を示す。図10(a)は、図8(a)に示した撮像動作および動画表示と同一であるので、図10(a)の詳細な説明を省略する。   FIG. 10 is a diagram illustrating an example of operation timing of the imaging apparatus according to the present embodiment. 10A shows the imaging operation and moving image display, FIG. 10B shows the image processing operation, and FIG. 10C shows the AF processing operation. Since FIG. 10A is the same as the imaging operation and the moving image display shown in FIG. 8A, detailed description of FIG. 10A is omitted.

図10(b)に示す画像処理動作では、主に画像処理に関わる動作として実施される項目をその実施順に上から順番に示す。図10(b)において、水平方向は、図10(a)に対応した期間であって、各項目の動作期間を示す。本実施形態では、撮像動作801の期間に撮像部101の画素200から、A信号およびB信号が読み出される。この時に読み出される画素200の信号は、図9(a)で説明した画素領域201の全ての画素200の信号となる。
そこで、図10(b)においては、撮像動作801の期間をA信号およびB信号の読み出し期間とし、「A/B読み出し」と表すことにする。本実施形態では、例えば、列信号処理部203が、撮像動作801の期間に、撮像部101の画素200から、A信号およびB信号を読み出すことにより、第1の読み出し手段の一例が実現される。また、例えば、撮像レートに対応する読み出し速度により、第1の読み出し速度の一例が実現される。
In the image processing operation shown in FIG. 10B, items executed mainly as operations related to image processing are shown in order from the top in the order of execution. In FIG. 10B, the horizontal direction is a period corresponding to FIG. 10A and indicates the operation period of each item. In the present embodiment, the A signal and the B signal are read from the pixel 200 of the imaging unit 101 during the period of the imaging operation 801. The signal of the pixel 200 read at this time is the signal of all the pixels 200 in the pixel area 201 described with reference to FIG.
Therefore, in FIG. 10B, the period of the imaging operation 801 is set as the readout period of the A signal and the B signal, and is expressed as “A / B readout”. In the present embodiment, for example, the column signal processing unit 203 reads an A signal and a B signal from the pixel 200 of the imaging unit 101 during the imaging operation 801, thereby realizing an example of a first reading unit. . Further, for example, an example of the first reading speed is realized by the reading speed corresponding to the imaging rate.

A信号およびB信号の読み出し動作と同時に、列信号処理部102は、A信号およびB信号を撮像基板100からメモリ基板110に転送する。そして、メモリ制御部111は、A信号およびB信号を記録部112に記録する。図10(b)では、これらの動作の期間を「メモリ書き込み」と表すことにする。本実施形態では、例えば、メモリ制御部111が、A信号およびB信号を記録部112に記録することにより、第1の記憶手段の一例が実現される。また、メモリ制御部111が、A信号およびB信号を記録部112に記録する際の書き込み速度(撮像レートに対応する書き込み速度)により、第2の書き込み速度の一例が実現される。   Simultaneously with the reading operation of the A signal and the B signal, the column signal processing unit 102 transfers the A signal and the B signal from the imaging substrate 100 to the memory substrate 110. Then, the memory control unit 111 records the A signal and the B signal in the recording unit 112. In FIG. 10B, the period of these operations is represented as “memory writing”. In the present embodiment, for example, the memory control unit 111 records the A signal and the B signal in the recording unit 112, thereby realizing an example of the first storage unit. In addition, an example of the second writing speed is realized by the writing speed (writing speed corresponding to the imaging rate) when the memory control unit 111 records the A signal and the B signal in the recording unit 112.

本実施形態でも、第1の実施形態と同様に、撮像部101から高速に画素200の信号を読み出すため、信号処理部13の処理能力である処理レートが撮像レートよりも低い場合について説明する。
そこで、メモリ制御部111は、メモリ基板110の記録部112に記録されている画素領域201の全ての画素200の信号を、撮像レートよりも低い処理レートで読み出し、メモリ基板110から回路基板120のバス制御部121に転送する。図10(b)では、この期間を「メモリ読み出し」と表すことにする。
本実施形態では、以上のようにして、記録部112を用いた、高速な撮像レートから低速な処理レートへの、レートの変換が実施される。
Also in the present embodiment, as in the first embodiment, a case where the processing rate that is the processing capability of the signal processing unit 13 is lower than the imaging rate in order to read the signal of the pixel 200 from the imaging unit 101 at high speed will be described.
Therefore, the memory control unit 111 reads out the signals of all the pixels 200 in the pixel area 201 recorded in the recording unit 112 of the memory substrate 110 at a processing rate lower than the imaging rate, and reads the signals from the memory substrate 110 to the circuit substrate 120. Transfer to the bus control unit 121. In FIG. 10B, this period is expressed as “memory read”.
In the present embodiment, rate conversion from a high imaging rate to a low processing rate is performed using the recording unit 112 as described above.

処理レートで回路基板120に転送された画素200の信号は、画像信号前処理部122において、必要な信号前処理が実施されて、画像信号出力部123を介して、撮像素子12から信号処理部13へ出力される。
ここで、信号処理部13における撮影画像の作成には、画素200の光電変換素子D1aおよびD1bの加算信号であるA+B信号を用いる。そこで、記録部112から読み出す画素200の信号は、図9(b)で説明したように、A信号およびB信号となる。画像信号前処理部122において実施される信号前処理には、A+B信号を計算するための計算式「(A信号)+(B信号)」が必要となる。画像信号前処理部122は、この計算式を実行する前に、キズ補正やノイズ低減処理等を実施してもよい。これにより、画像信号前処理部122からは、撮影画像の作成用の信号としてA+B信号が出力される。図10(b)においては、この期間を「A+B処理」と表すことにする。本実施形態では、画像信号前処理部122が、A+B信号を計算することにより、加算手段の一例が実現される。
The signal of the pixel 200 transferred to the circuit board 120 at the processing rate is subjected to necessary signal preprocessing in the image signal preprocessing unit 122, and the signal processing unit from the image sensor 12 through the image signal output unit 123. 13 is output.
Here, the A + B signal that is an addition signal of the photoelectric conversion elements D1a and D1b of the pixel 200 is used to create a captured image in the signal processing unit 13. Therefore, the signals of the pixels 200 read from the recording unit 112 are the A signal and the B signal as described with reference to FIG. The signal preprocessing performed in the image signal preprocessing unit 122 requires a calculation formula “(A signal) + (B signal)” for calculating the A + B signal. The image signal preprocessing unit 122 may perform defect correction, noise reduction processing, and the like before executing this calculation formula. As a result, the A + B signal is output from the image signal preprocessing unit 122 as a signal for creating a captured image. In FIG. 10B, this period is expressed as “A + B processing”. In the present embodiment, the image signal preprocessing unit 122 calculates an A + B signal, thereby realizing an example of an adding unit.

これにより、図9(b)に示すA信号およびB信号の2つの信号を撮像素子12から信号処理部13へ出力する必要がなくなるため、撮像素子12から信号処理部13へ出力する時のデータの転送容量を削減させることが可能となる。
本実施形態では、例えば、メモリ制御部111が、メモリ基板110の記録部112に記録されている画素領域201の全ての画素200の信号を、処理レートで読み出すことにより、第2の読み出し手段の一例が実現される。また、例えば、処理レートに対応する速度により第2の読み出し速度の一例が実現される。また、例えば、画素領域201の全ての画素200の信号により、第1の記憶手段により記憶された前記画素の信号であって、前記撮像手段により撮像された画像を作成するために用いる信号の一例が実現される。
This eliminates the need to output the two signals A and B shown in FIG. 9B from the image sensor 12 to the signal processor 13, and therefore data when the image sensor 12 outputs to the signal processor 13. Transfer capacity can be reduced.
In the present embodiment, for example, the memory control unit 111 reads out the signals of all the pixels 200 in the pixel area 201 recorded in the recording unit 112 of the memory substrate 110 at the processing rate, so that the second reading unit An example is realized. Further, for example, an example of the second reading speed is realized by a speed corresponding to the processing rate. Further, for example, an example of a signal of the pixel stored in the first storage unit based on the signal of all the pixels 200 in the pixel region 201 and used to create an image captured by the imaging unit. Is realized.

信号処理部13において処理レートで画像処理された撮影画像の信号は、信号処理部13あるいは同期制御部15にある不図示のバッファに一時的に記憶される。図10(b)では、この期間を「バッファ書き込み」と表すことにする。
そして、信号処理部13または同期制御部15は、「画像処理」の期間に画像処理された撮影画像の信号をバッファから読み出して画像表示部17に転送する。図10(b)では、この期間を「バッファ読み出し」と表すことにする。
バッファから読み出された撮影画像の信号は、動画表示802の期間に、画像表示部17に表示される。従って、図10(a)および図10(b)に示すように、「バッファ読み出し」の期間は、動画表示802の期間と同じ時間となる。
The signal of the captured image that has been image-processed at the processing rate in the signal processing unit 13 is temporarily stored in a buffer (not shown) in the signal processing unit 13 or the synchronization control unit 15. In FIG. 10B, this period is expressed as “buffer writing”.
Then, the signal processing unit 13 or the synchronization control unit 15 reads out the signal of the captured image that has been subjected to image processing during the “image processing” period, and transfers it to the image display unit 17. In FIG. 10B, this period is expressed as “buffer read”.
The captured image signal read from the buffer is displayed on the image display unit 17 during the moving image display 802 period. Therefore, as shown in FIGS. 10A and 10B, the “buffer read” period is the same as the period of the moving image display 802.

この時、画像処理が画像表示よりも遅いと表示に不具合が生じるため、処理レートが動画レートより大きくなければならない。従って、図10(b)において、「画像処理」の期間と同じとなる「バッファ書き込み」の期間は、「バッファ読み出し」の期間よりも短くなる。
本実施形態では、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファに記憶することにより、第2の記憶手段の一例が実現される。また、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファに書き込む速度(処理レートに対応する書き込み速度)により、第1の書き込み速度の一例が実現される。また、例えば、バッファにより第2の記憶媒体の一例が実現される。また、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファから読み出すことにより、第4の読み出し手段の一例が実現される。また、例えば、信号処理部13または同期制御部15が、画像処理された撮影画像の信号をバッファから読み出す速度(動画レートに対応する読み出し速度)により、第3の読み出し速度の一例が実現される。
本実施形態では、以上のようにして、信号処理部13あるいは同期制御部15のバッファを用いた、高速な処理レートから低速な動画レートへのレートの変換が実施される。
また、作成された撮影画像は、同期制御部15の指示により、画像記録部18に記録することも可能である。
ここで、図10(b)の説明では、信号処理部13あるいは同期制御部15にバッファがあるとしたが、画像表示部17にバッファを設けてもよい。このようにする場合、画像処理された撮影画像の信号を画像表示部17にあるバッファに処理レートで転送し、動画レートで読み出して画像表示部17に表示することになる。
At this time, if the image processing is slower than the image display, a problem occurs in the display, and therefore the processing rate must be larger than the moving image rate. Accordingly, in FIG. 10B, the “buffer writing” period, which is the same as the “image processing” period, is shorter than the “buffer reading” period.
In the present embodiment, for example, the signal processing unit 13 or the synchronization control unit 15 stores an image-processed captured image signal in a buffer, thereby realizing an example of a second storage unit. Further, for example, an example of the first writing speed is realized by the speed at which the signal processing unit 13 or the synchronization control unit 15 writes the signal of the captured image that has undergone image processing into the buffer (the writing speed corresponding to the processing rate). . Further, for example, an example of the second storage medium is realized by a buffer. Further, for example, when the signal processing unit 13 or the synchronization control unit 15 reads out the signal of the captured image subjected to the image processing from the buffer, an example of a fourth reading unit is realized. Further, for example, an example of the third reading speed is realized by the speed at which the signal processing unit 13 or the synchronization control unit 15 reads the signal of the captured image that has undergone image processing from the buffer (reading speed corresponding to the moving image rate). .
In the present embodiment, rate conversion from a high-speed processing rate to a low-speed moving image rate is performed using the buffer of the signal processing unit 13 or the synchronization control unit 15 as described above.
Further, the created captured image can be recorded in the image recording unit 18 according to an instruction from the synchronization control unit 15.
Here, in the description of FIG. 10B, the signal processing unit 13 or the synchronization control unit 15 has a buffer, but the image display unit 17 may be provided with a buffer. In this case, the image-processed captured image signal is transferred to a buffer in the image display unit 17 at a processing rate, read at a moving image rate, and displayed on the image display unit 17.

図10(c)に示すAF処理動作では、主に焦点検出処理(AF処理)に関わる動作として実施される項目をその実施順に上から順番に示す。図10(c)において、水平方向は、図10(a)に対応した期間であって、各項目の動作期間を示す。
撮像動作801となる「A/B読み出し」と同時に実施される記録部112への「メモリ書き込み」は、図10(b)に示した項目と同じ項目である。従って、ここでは、これらの詳細な説明を省略する。
図9(a)に示したように、撮像部101にある画素領域201内に焦点検出領域903を設ける。信号処理部13は、焦点検出領域903内の画素200から得られるA信号およびB信号を基に焦点検出処理を実施する。
この時、焦点検出に用いる画素200(焦点検出画素)は、焦点検出領域903内の全ての画素である必要はない。本実施形態では、図9(c)に示したように、信号処理部13は、焦点検出領域903内の偶数行のG(緑)フィルタに対応する画素200を用いる。
In the AF processing operation shown in FIG. 10C, items executed mainly as operations related to the focus detection processing (AF processing) are shown in order from the top in the order of execution. In FIG. 10C, the horizontal direction is a period corresponding to FIG. 10A and indicates the operation period of each item.
“Memory writing” to the recording unit 112 performed simultaneously with “A / B reading” as the imaging operation 801 is the same item as shown in FIG. Therefore, detailed description thereof is omitted here.
As shown in FIG. 9A, a focus detection area 903 is provided in the pixel area 201 in the imaging unit 101. The signal processing unit 13 performs focus detection processing based on the A signal and the B signal obtained from the pixels 200 in the focus detection region 903.
At this time, the pixels 200 (focus detection pixels) used for focus detection need not be all the pixels in the focus detection region 903. In the present embodiment, as illustrated in FIG. 9C, the signal processing unit 13 uses the pixels 200 corresponding to the G (green) filters in even rows in the focus detection region 903.

ここで、焦点検出画素(焦点検出領域903内の偶数行のG(緑)フィルタに対応する画素200)の信号が、飛び飛びの画素200の位置にあることを表すために、図10(c)では、時間隔を空けた1つの矩形を1つの画素200の信号として表現する。また、図10(c)では、焦点検出画素の信号(矩形)を「メモリ上AF情報」と表すことにする。本実施形態では、例えば、焦点検出領域903により、第1の領域よりも狭い領域であって、焦点を検出するために用いる信号を出力する画素を含む領域である第2の領域の一例が実現される。また、例えば、焦点検出画素により、焦点を検出するために用いる信号を出力する画素の一例が実現される。   Here, in order to indicate that the signal of the focus detection pixel (the pixel 200 corresponding to the G (green) filter of the even-numbered row in the focus detection region 903) is at the position of the skipped pixel 200, FIG. Then, one rectangle with a time interval is expressed as a signal of one pixel 200. In FIG. 10C, the signal (rectangle) of the focus detection pixel is represented as “AF information on memory”. In the present embodiment, for example, the focus detection region 903 realizes an example of a second region that is a region narrower than the first region and includes a pixel that outputs a signal used to detect a focus. Is done. Also, for example, an example of a pixel that outputs a signal used to detect a focus is realized by the focus detection pixel.

「A/B読み出し」動作において、焦点検出画素を読み出すには、焦点検出領域903内の全ての画素を読み出す必要があることが分かる。そこで、焦点検出領域903から順次読み出される焦点検出画素の信号を用いて、この読み出しと同時に焦点検出処理を実施する場合、焦点検出領域903内の全ての画素200を読み出す期間に亘り、焦点検出処理に関わる回路を動作させ続けなければならない。
しかしながら、本実施形態でも第1の実施形態と同様に、メモリ制御部111は、メモリ基板110の記録部112に記録されている焦点検出画素の信号のみを、図9(c)のように連続して読み出し、メモリ基板110から回路基板120に転送する。この時、記録部112から読み出される焦点検出画素の信号は、A信号およびB信号となる。図10(c)においては、この期間を「連続読み出し」と表すことにする。本実施形態では、例えば、メモリ制御部111が、メモリ基板110の記録部112に記録されている焦点検出画素の信号のみを連続して読み出すことにより、第3の読み出し手段の一例が実現される。また、例えば、焦点検出画素のA信号およびB信号により、第1の記憶手段により記憶された画素の信号の一部の信号であって、焦点を検出するために用いる信号の一例が実現される。
In the “A / B read” operation, it is understood that all pixels in the focus detection area 903 need to be read in order to read the focus detection pixels. Therefore, when the focus detection process is performed simultaneously with the readout using the signals of the focus detection pixels sequentially read from the focus detection area 903, the focus detection process is performed over a period of reading all the pixels 200 in the focus detection area 903. It is necessary to continue to operate the circuit related to.
However, in this embodiment as well, as in the first embodiment, the memory control unit 111 continuously outputs only the focus detection pixel signals recorded in the recording unit 112 of the memory substrate 110 as shown in FIG. The data is read and transferred from the memory board 110 to the circuit board 120. At this time, the focus detection pixel signals read from the recording unit 112 are the A signal and the B signal. In FIG. 10C, this period is expressed as “continuous reading”. In the present embodiment, for example, the memory control unit 111 continuously reads only the focus detection pixel signal recorded in the recording unit 112 of the memory substrate 110, thereby realizing an example of the third reading unit. . Further, for example, the A signal and the B signal of the focus detection pixel realize an example of a signal that is a part of the pixel signal stored in the first storage unit and is used for detecting the focus. .

回路基板120に転送された焦点検出画素の信号は、AF信号前処理部124において、必要な信号前処理を実施されて、AF信号出力部125を介して、撮像素子12から信号処理部13へ出力される。AF信号前処理部124において実施される信号前処理には、キズ補正やノイズ低減処理等がある。しかしながら、A信号およびB信号は焦点検出処理が可能な信号であるため、AF信号出力部125は、A信号およびB信号をそのまま信号処理部13へ出力してもよい。これにより、AF信号前処理部124からは、焦点検出画素の信号としてA信号およびB信号が出力される。   The signal of the focus detection pixel transferred to the circuit board 120 is subjected to necessary signal preprocessing in the AF signal preprocessing unit 124, and is sent from the image sensor 12 to the signal processing unit 13 via the AF signal output unit 125. Is output. Signal preprocessing performed in the AF signal preprocessing unit 124 includes scratch correction, noise reduction processing, and the like. However, since the A signal and the B signal are signals that can be subjected to focus detection processing, the AF signal output unit 125 may output the A signal and the B signal to the signal processing unit 13 as they are. As a result, the AF signal preprocessing unit 124 outputs the A signal and the B signal as the focus detection pixel signals.

そして、信号処理部13が備える不図示の焦点検出処理部は、水平方向の複数の画素に関わる焦点検出用のA信号およびB信号に基づいて、画素内瞳分割された異なる光電変換素子Ta1、Ta2に対する入射光の位相差を検出する。
次に、焦点検出処理部は、検出した位相差に基づいて、撮像装置から被写体までの距離情報に対応する評価値であって、AFに用いられる評価値であるAF評価値を算出し、同期制御部15に出力する。本実施形態では、例えば、焦点検出処理部を用いることにより、検出手段の一例が実現される。
A focus detection processing unit (not shown) included in the signal processing unit 13 includes different photoelectric conversion elements Ta1 obtained by dividing the intra-pixel pupil based on the A signal and B signal for focus detection related to a plurality of pixels in the horizontal direction. The phase difference of incident light with respect to Ta2 is detected.
Next, the focus detection processing unit calculates an AF evaluation value that is an evaluation value corresponding to distance information from the imaging device to the subject and used for AF based on the detected phase difference, and performs synchronization. Output to the control unit 15. In the present embodiment, for example, an example of a detection unit is realized by using a focus detection processing unit.

ここまでが、信号処理部13で実行される焦点検出処理となり、図10(c)においては、この期間を「AF評価値算出」と表すことにする。
同期制御部15は、AF評価値を基にして、撮像光学系11が備える合焦レンズを駆動して、被写体が合焦するように制御する。図10(c)においては、同期制御部15による制御に移行することを「AF制御」と表すことにする。
Up to this point, focus detection processing is executed by the signal processing unit 13, and in FIG. 10C, this period is represented as “AF evaluation value calculation”.
The synchronization control unit 15 drives the focusing lens included in the imaging optical system 11 based on the AF evaluation value, and controls the subject to focus. In FIG. 10C, the shift to the control by the synchronization control unit 15 is represented as “AF control”.

信号処理部13の焦点検出処理部は、「連続読み出し」された焦点検出画素の信号を基に、連続的に焦点検出処理を実施する。ここで、焦点検出画素の焦点検出処理にかかる単位時間あたりのデータ処理量を、必要に応じてAFレートと称する。
図10(c)のAF処理動作では、信号処理部13の焦点検出処理部は、記録部112からAFレートで連続的に読み出された焦点検出画素のA信号およびB信号を用いて、AFレートで焦点検出処理を実施して、AF評価値を算出する。そして、焦点検出処理部は、AF評価値を同期制御部15に出力する。このため、図10(c)において、「連続読み出し」の期間、および「AF評価値算出」の期間は等しい期間となる。従って、この時に、記録部112を用いた、低速な撮像レートから高速なAFレートへのレートの変換が実施される。
The focus detection processing unit of the signal processing unit 13 continuously performs focus detection processing based on the signals of the focus detection pixels that have been “continuously read”. Here, the data processing amount per unit time required for the focus detection processing of the focus detection pixels is referred to as an AF rate as necessary.
In the AF processing operation of FIG. 10C, the focus detection processing unit of the signal processing unit 13 uses the A signal and the B signal of the focus detection pixels continuously read from the recording unit 112 at the AF rate to perform AF. Focus detection processing is performed at the rate, and an AF evaluation value is calculated. Then, the focus detection processing unit outputs the AF evaluation value to the synchronization control unit 15. For this reason, in FIG. 10C, the period of “continuous reading” and the period of “AF evaluation value calculation” are equal. Accordingly, at this time, the recording unit 112 is used to convert the rate from a low imaging rate to a high AF rate.

以上のように本実施形態では、1回の撮像動作で焦点検出用の信号と撮影画像用の信号とを同時に取得することが可能となる。また、撮像動作においては、撮像部101の画素200の信号を読み出して記録部112へ転送する撮像レートよりも、撮影画像の画像処理にかかる処理レートを遅くする。従って、信号処理部13の処理能力、消費電力の大きさ、および発熱量を基に画像処理の期間を決めることができる。更に、焦点検出領域903内の焦点検出画素の信号のみを連続して読み出す。従って、撮像動作において、焦点検出領域903内の全ての画素を読み出しながら、同時に焦点検出処理を実施する場合に比べて、信号処理部13の焦点検出処理部、およびAF信号前処理部124の動作期間を短縮することができる。よって、撮像装置の消費電力を削減することができる。また、撮像素子12から信号処理部13への焦点検出用の信号の転送期間が短縮されるので、焦点検出処理にかかる時間を大幅に短縮することができる。また、撮像素子12から信号処理部13へ出力する撮影画像用の信号がA+B信号のみとなるので、処理レートを更に低減できると共にデータの転送容量を削減させることができる。また、撮像部101の画素の信号を記録部112に記録させることで、画像処理にかかる処理レートの制約がなくなり、高速に撮像動作を実施できるので、ローリング歪を低減させることができる。以上のように本実施形態でも、第1の実施形態と同様に、画素内瞳分割機能を有する画素を備える撮像装置が、位相差検出方式の焦点検出と被写体画像の作成とを行うに際し、フレームレートの低下の抑制と消費電力の削減とを可能にすることができる。   As described above, in the present embodiment, it is possible to simultaneously acquire a focus detection signal and a captured image signal in one imaging operation. In the imaging operation, the processing rate for the image processing of the captured image is made slower than the imaging rate for reading the signal of the pixel 200 of the imaging unit 101 and transferring it to the recording unit 112. Therefore, the image processing period can be determined based on the processing capability of the signal processing unit 13, the power consumption, and the heat generation amount. Furthermore, only the signal of the focus detection pixel in the focus detection area 903 is read out continuously. Therefore, in the imaging operation, the operations of the focus detection processing unit of the signal processing unit 13 and the AF signal preprocessing unit 124 are compared with the case where the focus detection processing is performed simultaneously while reading all the pixels in the focus detection region 903. The period can be shortened. Therefore, power consumption of the imaging device can be reduced. In addition, since the transfer period of the focus detection signal from the image sensor 12 to the signal processing unit 13 is shortened, the time required for the focus detection process can be significantly shortened. In addition, since only the A + B signal is output from the image sensor 12 to the signal processing unit 13, the processing rate can be further reduced and the data transfer capacity can be reduced. In addition, by recording the pixel signal of the imaging unit 101 in the recording unit 112, there is no restriction on the processing rate for image processing, and the imaging operation can be performed at high speed, so that rolling distortion can be reduced. As described above, in this embodiment as well, in the same way as in the first embodiment, when an imaging apparatus including a pixel having an in-pixel pupil division function performs focus detection using a phase difference detection method and creation of a subject image, a frame It is possible to suppress rate reduction and reduce power consumption.

尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

11:撮像光学系、12:撮像素子、13;信号処理部、15:同期制御部、17:画像表示部   11: imaging optical system, 12: imaging device, 13: signal processing unit, 15: synchronization control unit, 17: image display unit

Claims (20)

それぞれが複数の光電変換部を有する複数の画素を備える撮像手段と、
前記撮像手段により撮像された画像に対応する第1の領域にある前記画素の信号を読み出す第1の読み出し手段と、
前記第1の読み出し手段により読み出された前記画素の信号を第1の記憶媒体に記憶する第1の記憶手段と、
前記第1の記憶手段により記憶された前記画素の信号であって、前記撮像手段により撮像された画像を作成するために用いる信号を読み出す第2の読み出し手段と、
前記第1の記憶手段により記憶された前記画素の信号の一部の信号であって、焦点を検出するために用いる信号を連続的に読み出す第3の読み出し手段と、を有し、
前記第1の読み出し手段による前記画素の信号の読み出し速度である第1の読み出し速度よりも、前記第2の読み出し手段による前記信号の読み出し速度である第2の読み出し速度の方が遅いことを特徴とする撮像装置。
Imaging means comprising a plurality of pixels each having a plurality of photoelectric conversion units;
First reading means for reading signals of the pixels in a first area corresponding to an image picked up by the image pickup means;
First storage means for storing a signal of the pixel read by the first reading means in a first storage medium;
Second readout means for reading out the signal of the pixel stored by the first storage means and used to create an image captured by the imaging means;
A third readout unit that continuously reads out a signal that is a part of the signal of the pixel stored in the first storage unit and that is used to detect a focus;
The second readout speed, which is the readout speed of the signal by the second readout means, is slower than the first readout speed, which is the readout speed of the signal of the pixel by the first readout means. An imaging device.
前記複数の光電変換部は、第1の光電変換部と第2の光電変換部とを有し、
前記画素の信号は、前記第1の光電変換部から出力された信号である第1の信号と、前記第1の光電変換部および前記第2の光電変換部から出力された信号が加算された信号または前記第2の光電変換部から出力された信号である第2の信号と、の少なくとも何れか一方を含むことを特徴とする請求項1に記載の撮像装置。
The plurality of photoelectric conversion units include a first photoelectric conversion unit and a second photoelectric conversion unit,
The signal of the pixel is obtained by adding a first signal that is a signal output from the first photoelectric conversion unit and a signal output from the first photoelectric conversion unit and the second photoelectric conversion unit. The imaging apparatus according to claim 1, further comprising at least one of a signal and a second signal that is a signal output from the second photoelectric conversion unit.
前記第1の読み出し手段は、前記第1の信号および前記第2の信号を前記第1の読み出し速度で読み出すことを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the first readout unit reads out the first signal and the second signal at the first readout speed. 前記第2の信号は、前記第1の光電変換部および前記第2の光電変換部から出力された信号が加算された信号であり、
前記第1の読み出し手段は、前記第1の領域よりも狭い領域であって、前記焦点を検出するために用いる信号を出力する前記画素を含む領域である第2の領域にある前記画素から、前記第1の信号および前記第2の信号を前記第1の読み出し速度で読み出し、前記第1の領域のうち、前記第2の領域と異なる領域にある前記画素から、前記第2の信号を前記第1の読み出し速度で読み出すことを特徴とする請求項2または3に記載の撮像装置。
The second signal is a signal obtained by adding signals output from the first photoelectric conversion unit and the second photoelectric conversion unit,
The first reading means is an area narrower than the first area, and the pixel in the second area, which is an area including the pixel that outputs a signal used to detect the focus, The first signal and the second signal are read at the first readout speed, and the second signal is output from the pixel in a region different from the second region in the first region. 4. The imaging apparatus according to claim 2, wherein reading is performed at a first reading speed.
前記第2の信号は、前記第1の光電変換部および前記第2の光電変換部から出力された信号が加算された信号であり、
前記第2の読み出し手段は、前記撮像手段により撮像された画像を作成するために用いる信号として、前記第2の信号を、前記第2の読み出し速度で読み出すことを特徴とする請求項2〜4の何れか1項に記載の撮像装置。
The second signal is a signal obtained by adding signals output from the first photoelectric conversion unit and the second photoelectric conversion unit,
The second reading means reads the second signal at the second reading speed as a signal used to create an image picked up by the image pickup means. The imaging device according to any one of the above.
前記第2の信号は、前記第1の光電変換部および前記第2の光電変換部から出力された信号が加算された信号であり、
前記第1の信号および前記第2の信号に基づいて、前記第2の光電変換部から出力された画素の信号を生成する生成手段を更に有することを特徴とする請求項2〜5の何れか1項に記載の撮像装置。
The second signal is a signal obtained by adding signals output from the first photoelectric conversion unit and the second photoelectric conversion unit,
The generator according to any one of claims 2 to 5, further comprising generating means for generating a pixel signal output from the second photoelectric conversion unit based on the first signal and the second signal. The imaging apparatus according to item 1.
前記第2の信号は、前記第2の光電変換部から出力された信号であり、
前記第2の読み出し手段は、前記撮像手段により撮像された画像を作成するために用いる信号として、前記第1の信号および前記第2の信号を、前記第2の読み出し速度で読み出すことを特徴とする請求項2または3に記載の撮像装置。
The second signal is a signal output from the second photoelectric conversion unit,
The second reading means reads the first signal and the second signal as the signals used for creating the image picked up by the image pickup means at the second reading speed. The imaging device according to claim 2 or 3.
前記第2の信号は、前記第2の光電変換部から出力された信号であり、
前記第2の読み出し手段により読み出された前記第1の信号および前記第2の信号を加算する加算手段を更に有することを特徴とする請求項2、3、および7の何れか1項に記載の撮像装置。
The second signal is a signal output from the second photoelectric conversion unit,
8. The apparatus according to claim 2, further comprising an adding unit that adds the first signal and the second signal read by the second reading unit. 9. Imaging device.
前記第3の読み出し手段は、前記焦点を検出するために用いる信号として、前記第1の信号および前記第2の信号を連続的に読み出すことを特徴とする請求項2〜8の何れか1項に記載の撮像装置。   The said 3rd reading means reads the said 1st signal and the said 2nd signal continuously as a signal used in order to detect the said focus, The any one of Claims 2-8 characterized by the above-mentioned. The imaging device described in 1. 前記第1の信号および前記第2の信号が加算された信号を画像処理して、前記撮像手段により撮像された画像の信号を生成する画像処理手段を更に有することを特徴とする請求項2〜9の何れか1項に記載の撮像装置。   3. The image processing apparatus according to claim 2, further comprising: an image processing unit that performs image processing on a signal obtained by adding the first signal and the second signal to generate a signal of an image captured by the imaging unit. The imaging apparatus according to any one of 9. 前記画像処理手段により生成された前記信号を、前記第1の読み出し速度よりも遅い第1の書き込み速度で第2の記憶媒体に記憶する第2の記憶手段と、
前記第2の記憶手段により記憶された前記信号を、前記第1の読み出し速度よりも遅い第3の読み出し速度で読み出す第4の読み出し手段と、を更に有することを特徴とする請求項10に記載の撮像装置。
Second storage means for storing the signal generated by the image processing means in a second storage medium at a first writing speed slower than the first reading speed;
11. The apparatus according to claim 10, further comprising a fourth reading unit that reads the signal stored by the second storage unit at a third reading speed that is slower than the first reading speed. Imaging device.
前記第3の読み出し速度は、前記第2の読み出し速度および前記第1の書き込み速度よりも遅いことを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the third reading speed is slower than the second reading speed and the first writing speed. 前記第2の読み出し速度および前記第1の書き込み速度は同じであることを特徴とする請求項11または12に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the second reading speed and the first writing speed are the same. 前記第2の読み出し速度は、前記第1の記憶手段により記憶された前記信号に基づく画像を、その出力先に出力する速度に応じた速度であることを特徴とする請求項1〜10の何れか1項に記載の撮像装置。   11. The second reading speed is a speed corresponding to a speed at which an image based on the signal stored in the first storage means is output to an output destination. The imaging apparatus of Claim 1. 前記第1の読み出し速度と、前記第1の記憶手段による前記画素の信号の第1の記憶媒体への書き込み速度である第2の書き込み速度は同じであることを特徴とする請求項1〜14の何れか1項に記載の撮像装置。   15. The first writing speed is the same as a second writing speed, which is a writing speed of the pixel signal from the first storage means to the first storage medium. The imaging device according to any one of the above. 前記焦点を検出するために用いる信号として、前記第1の光電変換部から出力された信号および前記第2の光電変換部から出力された信号の位相差を検出する検出手段を更に有することを特徴とする請求項1〜15の何れか1項に記載の撮像装置。   It further has a detection means for detecting a phase difference between the signal output from the first photoelectric conversion unit and the signal output from the second photoelectric conversion unit as a signal used for detecting the focal point. The imaging device according to any one of claims 1 to 15. 前記撮像手段は、前記複数の画素を備える第1の基板と、
前記第1の記憶媒体を備える第2の基板と
前記第2の読み出し手段および前記第3の読み出し手段により読み出された前記信号を前記撮像手段の外部に出力する出力手段を備える第3の基板と、を有し、
前記第1の基板、前記第2の基板、および前記第3の基板は、この順番で積層され、且つ、相互に電気的に接続されることを特徴とする請求項1〜16の何れか1項に記載の撮像装置。
The imaging means includes a first substrate including the plurality of pixels;
A second substrate comprising the first storage medium; and a third substrate comprising output means for outputting the signal read by the second readout means and the third readout means to the outside of the imaging means. And having
The first substrate, the second substrate, and the third substrate are stacked in this order, and are electrically connected to each other. The imaging device according to item.
前記第1の基板の面のうち、被写体光が入射する側の面に前記複数の画素が配置されることを特徴とする請求項17に記載の撮像装置。   The imaging device according to claim 17, wherein the plurality of pixels are arranged on a surface of the first substrate on a side on which subject light is incident. それぞれが複数の光電変換部を有する複数の画素を備えた撮像手段を有する撮像装置の制御方法であって、
前記撮像手段により撮像された画像に対応する第1の領域にある前記画素の信号を読み出す第1の読み出し工程と、
前記第1の読み出し工程により読み出された前記画素の信号を第1の記憶媒体に記憶する第1の記憶工程と、
前記第1の記憶工程により記憶された前記画素の信号であって、前記撮像手段により撮像された画像を作成するために用いる信号を読み出す第2の読み出し工程と、
前記第1の記憶工程により記憶された前記画素の信号の一部の信号であって、焦点を検出するために用いる信号を連続的に読み出す第3の読み出し工程と、を有し、
前記第1の読み出し工程による前記画素の信号の読み出し速度である第1の読み出し速度よりも、前記第2の読み出し工程による前記信号の読み出し速度である第2の読み出し速度の方が遅いことを特徴とする撮像装置の制御方法。
A method for controlling an image pickup apparatus having an image pickup unit including a plurality of pixels each having a plurality of photoelectric conversion units,
A first reading step of reading a signal of the pixel in a first area corresponding to an image picked up by the image pickup means;
A first storage step of storing the signal of the pixel read out in the first readout step in a first storage medium;
A second readout step of reading out the signal of the pixel stored in the first storage step and used to create an image captured by the imaging unit;
A third readout step of continuously reading out a signal that is a part of the signal of the pixel stored in the first storage step and that is used for detecting a focus;
The second readout speed, which is the readout speed of the signal in the second readout process, is slower than the first readout speed, which is the readout speed of the pixel signal in the first readout process. A method for controlling the imaging apparatus.
それぞれが複数の光電変換部を有する複数の画素を備えた撮像手段を有する撮像装置を制御することをコンピュータに実行させるためのプログラムであって、
前記撮像手段により撮像された画像に対応する第1の領域にある前記画素の信号を読み出す第1の読み出し工程と、
前記第1の読み出し工程により読み出された前記画素の信号を第1の記憶媒体に記憶する第1の記憶工程と、
前記第1の記憶工程により記憶された前記画素の信号であって、前記撮像手段により撮像された画像を作成するために用いる信号を読み出す第2の読み出し工程と、
前記第1の記憶工程により記憶された前記画素の信号の一部の信号であって、焦点を検出するために用いる信号を連続的に読み出す第3の読み出し工程と、をコンピュータに実行させ、
前記第1の読み出し工程による前記画素の信号の読み出し速度である第1の読み出し速度よりも、前記第2の読み出し工程による前記信号の読み出し速度である第2の読み出し速度の方が遅いことを特徴とするプログラム。
A program for causing a computer to control an imaging device having an imaging means including a plurality of pixels each having a plurality of photoelectric conversion units,
A first reading step of reading a signal of the pixel in a first area corresponding to an image picked up by the image pickup means;
A first storage step of storing the signal of the pixel read out in the first readout step in a first storage medium;
A second readout step of reading out the signal of the pixel stored in the first storage step and used to create an image captured by the imaging unit;
A third readout step of continuously reading out a signal that is a part of the signal of the pixel stored in the first storage step and is used for detecting a focus;
The second readout speed, which is the readout speed of the signal in the second readout process, is slower than the first readout speed, which is the readout speed of the pixel signal in the first readout process. Program.
JP2017023810A 2017-02-13 2017-02-13 Image pickup device, control method of image pickup device, and program Active JP6884590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017023810A JP6884590B2 (en) 2017-02-13 2017-02-13 Image pickup device, control method of image pickup device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017023810A JP6884590B2 (en) 2017-02-13 2017-02-13 Image pickup device, control method of image pickup device, and program

Publications (2)

Publication Number Publication Date
JP2018133600A true JP2018133600A (en) 2018-08-23
JP6884590B2 JP6884590B2 (en) 2021-06-09

Family

ID=63248608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017023810A Active JP6884590B2 (en) 2017-02-13 2017-02-13 Image pickup device, control method of image pickup device, and program

Country Status (1)

Country Link
JP (1) JP6884590B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113498604A (en) * 2019-03-13 2021-10-12 富士胶片株式会社 Imaging element, imaging device, method for operating imaging element, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048313A (en) * 2006-08-21 2008-02-28 Sony Corp Physical quantity detector and drive method thereof, and imaging apparatus
JP2013211833A (en) * 2012-03-01 2013-10-10 Canon Inc Imaging device, imaging system, driving method of imaging device, and driving method of imaging system
WO2014007004A1 (en) * 2012-07-06 2014-01-09 ソニー株式会社 Solid-state imaging device, driving method for solid-state imaging device, and electronic device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048313A (en) * 2006-08-21 2008-02-28 Sony Corp Physical quantity detector and drive method thereof, and imaging apparatus
JP2013211833A (en) * 2012-03-01 2013-10-10 Canon Inc Imaging device, imaging system, driving method of imaging device, and driving method of imaging system
WO2014007004A1 (en) * 2012-07-06 2014-01-09 ソニー株式会社 Solid-state imaging device, driving method for solid-state imaging device, and electronic device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113498604A (en) * 2019-03-13 2021-10-12 富士胶片株式会社 Imaging element, imaging device, method for operating imaging element, and program
CN113498604B (en) * 2019-03-13 2023-01-20 富士胶片株式会社 Imaging element, imaging apparatus, method of operating imaging element, and computer-readable storage medium

Also Published As

Publication number Publication date
JP6884590B2 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
US7978240B2 (en) Enhancing image quality imaging unit and image sensor
JP5026951B2 (en) Imaging device driving device, imaging device driving method, imaging device, and imaging device
JP4609092B2 (en) Physical information acquisition method and physical information acquisition device
JP6614133B2 (en) Imaging device, control method, and imaging apparatus
JP2015154413A (en) Information processor, information processing method, information processing system and imaging apparatus
JP2008228265A (en) Imaging apparatus
CN109474781B (en) Image pickup apparatus, control method for image pickup apparatus, and recording medium
JP6802642B2 (en) Imaging device and its control method, program, and storage medium
JP2015033036A (en) Imaging device, control method for imaging device, and control program
JP6884590B2 (en) Image pickup device, control method of image pickup device, and program
JP5235701B2 (en) Imaging device
JP6825675B2 (en) Image sensor and image sensor
JP6448219B2 (en) Imaging apparatus and control method thereof
JP6217338B2 (en) Solid-state imaging device and imaging apparatus
JP7210172B2 (en) Imaging device and its control method
JP4630200B2 (en) Solid-state imaging device and imaging apparatus
JP2005303653A (en) Image pickup device
JP6798532B2 (en) Image sensor and image sensor
JP6261334B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP6128776B2 (en) Solid-state imaging device, imaging device, and signal readout method
JP6760907B2 (en) Image sensor and image sensor
JP2004153710A (en) Control method of imaging apparatus, and imaging apparatus
JP6470589B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6375614B2 (en) Solid-state imaging device and imaging apparatus
JP2021016201A (en) Solid state imaging device and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210512

R151 Written notification of patent or utility model registration

Ref document number: 6884590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151