JP2015065624A - Imaging device and imaging apparatus - Google Patents

Imaging device and imaging apparatus Download PDF

Info

Publication number
JP2015065624A
JP2015065624A JP2013199590A JP2013199590A JP2015065624A JP 2015065624 A JP2015065624 A JP 2015065624A JP 2013199590 A JP2013199590 A JP 2013199590A JP 2013199590 A JP2013199590 A JP 2013199590A JP 2015065624 A JP2015065624 A JP 2015065624A
Authority
JP
Japan
Prior art keywords
pixel
light receiving
pixels
receiving region
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013199590A
Other languages
Japanese (ja)
Other versions
JP6368999B2 (en
Inventor
寛信 村田
Hironobu Murata
寛信 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013199590A priority Critical patent/JP6368999B2/en
Publication of JP2015065624A publication Critical patent/JP2015065624A/en
Application granted granted Critical
Publication of JP6368999B2 publication Critical patent/JP6368999B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device which equalizes incident light onto two light-receiving areas.SOLUTION: There is provided an imaging device comprising: a plurality of pixels which are arranged along a first direction and second direction and each includes two separated light-receiving areas; and an expansion optical element which is provided on some of the plurality of pixels and expands an area on the light-receiving area irradiated with light incident on the corresponding pixel. The imaging device makes reset timing of a second light-receiving area to be delayed with respect to reset timing for resetting electric charge accumulated in the first light-receiving area, and simultaneously reads out output signals corresponding to electric charge amounts accumulated in the first and second light-receiving areas and subtracts an output signal value of the second light-receiving area from an output signal value of the first light-receiving area to generate a pixel signal of that pixel.

Description

本発明は、撮像素子および撮像装置に関する。   The present invention relates to an imaging element and an imaging apparatus.

一つの画素が2つの光電変換素子を有し、焦点検出信号を出力する撮像素子が知られている(例えば、特許文献1参照)。
特許文献1 特開2012−113027号公報
There is known an imaging device in which one pixel has two photoelectric conversion elements and outputs a focus detection signal (see, for example, Patent Document 1).
Japanese Patent Application Laid-Open No. 2012-113027

2つの光電変換素子を焦点検出用に用いる場合、2つの光電変換素子にはそれぞれ分離された光が入射される。これに対し、一方の光電変換素子の出力を、他方の光電変換素子の出力の補正に用いるような場合等、2つの光電変換素子には均等に光が入射されることが好ましい場合がある。しかし、2つの光電変換素子を同一の位置に配置することはできないので、2つの光電変換素子への入射光は均等にならない。   When two photoelectric conversion elements are used for focus detection, separated light is incident on the two photoelectric conversion elements. On the other hand, in some cases, such as when the output of one photoelectric conversion element is used for correction of the output of the other photoelectric conversion element, it may be preferable that light is equally incident on the two photoelectric conversion elements. However, since the two photoelectric conversion elements cannot be arranged at the same position, the incident light to the two photoelectric conversion elements is not uniform.

本発明の第1の態様においては、第1方向および第2方向に沿って配列され、それぞれ分離された2つの受光領域を有する複数の画素と、複数の画素のうち一部の画素に対して設けられ、対応する画素に入射する光の前記受光領域における照射領域を拡大させる拡大光学素子とを備える撮像素子を提供する。   In the first aspect of the present invention, a plurality of pixels having two light receiving regions arranged along the first direction and the second direction and separated from each other, and a part of the plurality of pixels. Provided is an imaging device provided with a magnifying optical element that enlarges an irradiation region in the light receiving region of light incident on a corresponding pixel.

本発明の第2の態様においては、第1の態様の撮像素子を備える撮像装置を提供する。   According to a second aspect of the present invention, there is provided an imaging apparatus including the imaging element according to the first aspect.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一つの実施形態に係る撮像素子100の概要を示す図である。1 is a diagram illustrating an overview of an image sensor 100 according to one embodiment. 第1画素202−1の一例を示す図である。It is a figure which shows an example of the 1st pixel 202-1. 第2画素202−2および第3画素202−3の一例を示す図である。It is a figure which shows an example of the 2nd pixel 202-2 and the 3rd pixel 202-3. 受光部200の一例を示す図である。2 is a diagram illustrating an example of a light receiving unit 200. FIG. 信号処理部210の他の処理例を示す図である。It is a figure which shows the other process example of the signal processing part. 受光部200の構成例を示す図である。3 is a diagram illustrating a configuration example of a light receiving unit 200. FIG. 受光部200の構造例を示す図である。FIG. 3 is a diagram illustrating a structural example of a light receiving unit 200. 受光部200の構造例を示す図である。FIG. 3 is a diagram illustrating a structural example of a light receiving unit 200. 信号処理部210における配列変換処理の一例を示す図である。It is a figure which shows an example of the array conversion process in the signal processing part. 第1変換画素203−1の配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the 1st conversion pixel 203-1. 信号処理部210における配列変換処理の一例を示す図である。It is a figure which shows an example of the array conversion process in the signal processing part. 第2変換画素203−2および第3変換画素203−3の配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the 2nd conversion pixel 203-2 and the 3rd conversion pixel 203-3. 第1変換画素203−1、第2変換画素203−2および第3変換画素203−3の配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the 1st conversion pixel 203-1, the 2nd conversion pixel 203-2, and the 3rd conversion pixel 203-3. マイクロレンズ101の斜視図である。1 is a perspective view of a micro lens 101. FIG. マイクロレンズ101の平面形状を示す図である。2 is a diagram illustrating a planar shape of a microlens 101. FIG. 受光部200の他の構成例を示す図である。6 is a diagram illustrating another configuration example of the light receiving unit 200. FIG. 図14に示した例における、転送トランジスタTXのおよび電荷検出部の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the transfer transistor TX and the electric charge detection part in the example shown in FIG. 撮像素子100の断面の一例を示す図である。1 is a diagram illustrating an example of a cross section of an image sensor 100. FIG. 一つの実施形態に係る撮像装置500の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device 500 which concerns on one embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一つの実施形態に係る撮像素子100の概要を示す図である。撮像素子100は、複数の画素202が配列される受光部200と、受光部200からの信号を処理する信号処理部210とを備える。複数の画素202は、それぞれフォトダイオード等の受光素子を有しており、受光量に応じて電荷を蓄積する。本例の信号処理部210は、各画素202が蓄積した電荷量に応じた信号を読み出し、予め定められた処理を行う。   FIG. 1 is a diagram illustrating an overview of an image sensor 100 according to one embodiment. The image sensor 100 includes a light receiving unit 200 in which a plurality of pixels 202 are arranged, and a signal processing unit 210 that processes a signal from the light receiving unit 200. Each of the plurality of pixels 202 has a light receiving element such as a photodiode, and accumulates electric charges according to the amount of received light. The signal processing unit 210 of this example reads a signal corresponding to the amount of charge accumulated in each pixel 202 and performs a predetermined process.

本例における複数の画素202は、行列状に配列される。つまり、複数の画素202が複数の行および複数の列に沿って配置される。本明細書では、行方向をx軸方向とし、列方向をy軸方向として図示している。行方向は第1方向の一例であり、列方向は第2方向の一例である。   The plurality of pixels 202 in this example are arranged in a matrix. That is, the plurality of pixels 202 are arranged along a plurality of rows and a plurality of columns. In the present specification, the row direction is illustrated as the x-axis direction, and the column direction is illustrated as the y-axis direction. The row direction is an example of the first direction, and the column direction is an example of the second direction.

複数の画素202は、複数の第1画素202−1、複数の第2画素202−2および複数の第3画素202−3を含む。第1画素202−1は、第1の色のカラーフィルタに対応する画素であり、第2画素202−2は、第2の色のカラーフィルタに対応する画素であり、第3画素202−3は、第3の色のカラーフィルタに対応する画素である。本例において第1の色は緑色であり、第2の色は青色であり、第3の色は赤色である。本例において、それぞれの画素202の平面形状は四角形であり、画素202の各辺が第1方向および第2方向に対して45度傾いている。より具体的な例では、それぞれの画素202の平面形状は正方形である。   The plurality of pixels 202 includes a plurality of first pixels 202-1, a plurality of second pixels 202-2, and a plurality of third pixels 202-3. The first pixel 202-1 is a pixel corresponding to the color filter of the first color, the second pixel 202-2 is a pixel corresponding to the color filter of the second color, and the third pixel 202-3. Are pixels corresponding to the color filter of the third color. In this example, the first color is green, the second color is blue, and the third color is red. In this example, the planar shape of each pixel 202 is a quadrangle, and each side of the pixel 202 is inclined 45 degrees with respect to the first direction and the second direction. In a more specific example, the planar shape of each pixel 202 is a square.

複数の第1画素202−1は、行方向および列方向の両方向に沿って配列される。本例では、第1画素202−1の各頂点が互いに隣接するように配置される。このような配置により、近接して配置される4つの第1画素202−1に囲まれる領域が生じる。第2画素202−2および第3画素202−3は、4つの第1画素202−1に囲まれる領域に設けられる。本例において、それぞれの画素202の形状は同一である。   The plurality of first pixels 202-1 are arranged along both the row direction and the column direction. In this example, the vertices of the first pixel 202-1 are arranged so as to be adjacent to each other. With such an arrangement, a region surrounded by the four first pixels 202-1 arranged in proximity is generated. The second pixel 202-2 and the third pixel 202-3 are provided in a region surrounded by the four first pixels 202-1. In this example, the shape of each pixel 202 is the same.

第2画素202−2は、列方向に沿って配列される。また、第3画素202−3も、列方向に沿って配列される。第2画素202−2の列および第3画素202−3の列は、行方向において交互に配置される。また、第2画素202−2の列および第3画素202−3の列は、第1画素202−1の列に対して、列方向において半画素分ずれて配列される。   The second pixels 202-2 are arranged along the column direction. The third pixel 202-3 is also arranged along the column direction. The column of the second pixel 202-2 and the column of the third pixel 202-3 are alternately arranged in the row direction. Further, the column of the second pixel 202-2 and the column of the third pixel 202-3 are arranged so as to be shifted by half a pixel in the column direction with respect to the column of the first pixel 202-1.

なお、図1に示した画素202の配列は一例であり、画素202の配列は図1の例に限定されない。画素202は任意の配列であってよい。例えば画素202の配列は、いわゆるベイヤー配列であってよい。   Note that the arrangement of the pixels 202 illustrated in FIG. 1 is an example, and the arrangement of the pixels 202 is not limited to the example of FIG. The pixels 202 may be in an arbitrary arrangement. For example, the array of the pixels 202 may be a so-called Bayer array.

図2Aは、第1画素202−1の一例を示す図である。第1画素202−1は、分離された2つの受光領域214を有する。第1画素202−1の第1受光領域214aおよび第2受光領域214bは、行方向に並んで配列される。本例では、第1画素202−1の領域を、列方向に伸びる直線で2等分することで、2つの受光領域214が規定される。本例において当該直線は、第1画素202−1の対角線である。入射光に応じて生成された電荷が受光領域214間で移動しないように、受光領域214間には素子分離部が設けられる。なお、図2Aにおいては、第1画素202−1に対応して設けられるマイクロレンズ101を点線で示す。本例の2つの受光領域214は、共通のマイクロレンズ101に対して、行方向において異なる位置に設けられる。   FIG. 2A is a diagram illustrating an example of the first pixel 202-1. The first pixel 202-1 has two light receiving regions 214 separated. The first light receiving region 214a and the second light receiving region 214b of the first pixel 202-1 are arranged side by side in the row direction. In this example, the two light receiving regions 214 are defined by dividing the region of the first pixel 202-1 into two equal parts by a straight line extending in the column direction. In this example, the straight line is a diagonal line of the first pixel 202-1. An element isolation portion is provided between the light receiving regions 214 so that charges generated according to incident light do not move between the light receiving regions 214. In FIG. 2A, the microlens 101 provided corresponding to the first pixel 202-1 is indicated by a dotted line. The two light receiving regions 214 in this example are provided at different positions in the row direction with respect to the common microlens 101.

受光部200において、複数の第1画素202−1が、行方向に隣接して配列される。信号処理部210は、一部の行方向に隣接して配列された第1画素202−1の第1受光領域214aからの信号と、第2受光領域214bからの信号との行方向における像面位相差を検出することで、焦点状態を検出する焦点検出部として機能する。像面位相差検出用の第1画素202−1が、行方向に隣接して配列されるので、行方向における像面位相差を精度よく検出することができる。また、遮光を用いて像面位相差を検出する方式に比べ、光の利用効率を向上させることができる。   In the light receiving unit 200, a plurality of first pixels 202-1 are arranged adjacent to each other in the row direction. The signal processing unit 210 is an image plane in the row direction of signals from the first light receiving region 214a and signals from the second light receiving region 214b of the first pixels 202-1 arranged adjacent to each other in the row direction. By detecting the phase difference, it functions as a focus detection unit that detects the focus state. Since the first pixels 202-1 for detecting the image plane phase difference are arranged adjacent to each other in the row direction, the image plane phase difference in the row direction can be accurately detected. In addition, the light use efficiency can be improved as compared with the method of detecting the image plane phase difference using light shielding.

図2Bは、第2画素202−2および第3画素202−3の一例を示す図である。第2画素202−2および第3画素202−3は、分離された2つの受光領域214を有する。第2画素202−2および第3画素202−3の第1受光領域214aおよび第2受光領域214bは、列方向に並んで配列される。本例では、第2画素202−2または第3画素202−3の領域を、行方向に伸びる直線で2等分することで、2つの受光領域214が規定される。第2画素202−2および第3画素202−3の2つの受光領域214は、共通のマイクロレンズ101に対して、列方向において異なる位置に設けられる。   FIG. 2B is a diagram illustrating an example of the second pixel 202-2 and the third pixel 202-3. The second pixel 202-2 and the third pixel 202-3 have two separated light receiving regions 214. The first light receiving region 214a and the second light receiving region 214b of the second pixel 202-2 and the third pixel 202-3 are arranged side by side in the column direction. In this example, the two light receiving regions 214 are defined by dividing the region of the second pixel 202-2 or the third pixel 202-3 into two equal parts by a straight line extending in the row direction. The two light receiving regions 214 of the second pixel 202-2 and the third pixel 202-3 are provided at different positions in the column direction with respect to the common microlens 101.

受光部200において、複数の第2画素202−2または第3画素202−3が、列方向に隣接して配列される。信号処理部210は、一部の列方向に隣接して配列された第2画素202−2または第3画素202−3の第1受光領域214aからの信号と、第2受光領域214bからの信号との列方向における像面位相差を検出することで、焦点状態を検出する焦点検出部として機能する。像面位相差検出用の第2画素202−2または第3画素202−3が、列方向に隣接して配列されるので、列方向における像面位相差を精度よく検出することができる。また、遮光を用いて像面位相差を検出する方式に比べ、光の利用効率を向上させることができる。   In the light receiving unit 200, a plurality of second pixels 202-2 or third pixels 202-3 are arranged adjacent to each other in the column direction. The signal processing unit 210 includes a signal from the first light receiving region 214a and a signal from the second light receiving region 214b of the second pixel 202-2 or the third pixel 202-3 arranged adjacent to each other in the column direction. By detecting the image plane phase difference in the column direction, it functions as a focus detection unit that detects the focus state. Since the second pixel 202-2 or the third pixel 202-3 for detecting the image plane phase difference is arranged adjacent to the column direction, the image plane phase difference in the column direction can be accurately detected. In addition, the light use efficiency can be improved as compared with the method of detecting the image plane phase difference using light shielding.

図3は、受光部200の一例を示す図である。本例の受光部200においては、全ての画素202が2つの受光領域214を有する。図3においては、各画素202における受光領域214の境界を点線で示している。本例では、一部の画素202の出力を用いて画像データを生成するとともに、残りの画素202の出力を像面位相差検出に用いる。   FIG. 3 is a diagram illustrating an example of the light receiving unit 200. In the light receiving unit 200 of this example, all the pixels 202 have two light receiving regions 214. In FIG. 3, the boundary of the light receiving region 214 in each pixel 202 is indicated by a dotted line. In this example, image data is generated using outputs from some pixels 202, and outputs from the remaining pixels 202 are used for image plane phase difference detection.

図3においては、画像データを生成するのに用いる画素202を白抜きの四角で示しており、像面位相差検出用に用いる画素202を網掛けの四角で示している。上述したように、像面位相差検出用の第1画素202−1は列方向に並んで配置され、像面位相差検出用の第2画素202−2は行方向に並んで配置され、像面位相差検出用の第3画素202−3は行方向に並んで配置される。上述したように、信号処理部210は、これらの像面位相差検出用の画素202の出力を用いて、像面位相差を検出する。   In FIG. 3, the pixels 202 used for generating image data are indicated by white squares, and the pixels 202 used for image plane phase difference detection are indicated by shaded squares. As described above, the first pixels 202-1 for detecting the image plane phase difference are arranged side by side in the column direction, and the second pixels 202-2 for detecting the image plane phase difference are arranged side by side in the row direction. The third pixels 202-3 for detecting the surface phase difference are arranged side by side in the row direction. As described above, the signal processing unit 210 detects the image plane phase difference using the output of the pixel 202 for detecting the image plane phase difference.

また、信号処理部210は、画像データ生成用の画素202において、一方の受光領域214の出力信号を用いて、他方の受光領域214の出力信号を補正する。補正後の信号を、当該画素202における画素信号として用いる。なお、本例の受光部200においては、画像データ生成用の画素202は、像面位相差検出用の画素202よりも多い。   Further, the signal processing unit 210 corrects the output signal of the other light receiving region 214 by using the output signal of one light receiving region 214 in the pixel 202 for generating image data. The corrected signal is used as a pixel signal in the pixel 202. In the light receiving unit 200 of this example, the number of pixels 202 for generating image data is larger than the number of pixels 202 for detecting the image plane phase difference.

図4は、画像データ生成用の画素202の出力に対する、信号処理部210の処理例を示す図である。本例の信号処理部210は、受光領域214の出力信号を読み出す画素202を行単位で選択する。信号処理部210は、選択した行に属する画素202の出力信号を同時に読み出す。この場合、出力信号の読み出しタイミングが行毎に相違し、電荷蓄積時間が行毎に相違してしまう。本例の信号処理部210は、各画素202の第2受光領域214bの出力信号を用いて、第1受光領域214aの出力信号を補正することで、電荷蓄積時間の相違を補償する。なお、本例の受光部200は、全ての画素202が2つの受光領域214を有する。   FIG. 4 is a diagram illustrating a processing example of the signal processing unit 210 for the output of the pixel 202 for generating image data. The signal processing unit 210 of this example selects the pixels 202 from which the output signal of the light receiving region 214 is read out in units of rows. The signal processing unit 210 simultaneously reads output signals from the pixels 202 belonging to the selected row. In this case, the read timing of the output signal is different for each row, and the charge accumulation time is different for each row. The signal processing unit 210 of this example compensates for the difference in the charge accumulation time by correcting the output signal of the first light receiving region 214a using the output signal of the second light receiving region 214b of each pixel 202. In the light receiving unit 200 of this example, all the pixels 202 have two light receiving regions 214.

図4では、第1行に属する画素202の第1受光領域214aの電荷蓄積時間をa1で示し、第2受光領域214bの電荷蓄積時間をb1で示す。また、第2行に属する画素202の第1受光領域214aの電荷蓄積時間をa2で示し、第2受光領域214bの電荷蓄積時間をb2で示す。他の行についても同様である。また、図4におけるADCは、それぞれの受光領域214の出力信号をデジタル変換する時間を示している。   In FIG. 4, the charge accumulation time of the first light receiving region 214a of the pixel 202 belonging to the first row is indicated by a1, and the charge accumulation time of the second light receiving region 214b is indicated by b1. In addition, the charge accumulation time of the first light receiving region 214a of the pixels 202 belonging to the second row is denoted by a2, and the charge accumulation time of the second light receiving region 214b is denoted by b2. The same applies to the other rows. Further, ADC in FIG. 4 indicates time for digitally converting the output signal of each light receiving area 214.

図4に示すように信号処理部210は、それぞれの画素202について、第1受光領域214aが蓄積した電荷をリセットするリセットタイミングAに対して、第2受光領域214bのリセットタイミングBを遅らせる。このため、受光部200は、それぞれの画素202の第1受光領域214aおよび第2受光領域214bのリセットタイミングを独立に制御するリセット線を有する。リセットタイミングAおよびリセットタイミングBは、全ての画素202において共通である。   As shown in FIG. 4, the signal processing unit 210 delays the reset timing B of the second light receiving region 214b with respect to the reset timing A for resetting the charge accumulated in the first light receiving region 214a for each pixel 202. For this reason, the light receiving unit 200 has a reset line that independently controls the reset timing of the first light receiving region 214a and the second light receiving region 214b of each pixel 202. The reset timing A and the reset timing B are common to all the pixels 202.

そして、信号処理部210は、それぞれの画素202について、第1受光領域214aおよび第2受光領域214bが蓄積した電荷量に応じた出力信号を同時に読み出す。このため、受光部200は、それぞれの画素202の第1受光領域214aおよび第2受光領域214bの出力信号を並列に伝送する読み出し線を有する。また、信号処理部210は、それぞれの画素202の第1受光領域214aおよび第2受光領域214bの出力信号を並列に処理する処理回路を有する。   Then, the signal processing unit 210 simultaneously reads out an output signal corresponding to the amount of charge accumulated in the first light receiving region 214a and the second light receiving region 214b for each pixel 202. For this reason, the light receiving unit 200 has a readout line that transmits the output signals of the first light receiving region 214a and the second light receiving region 214b of each pixel 202 in parallel. The signal processing unit 210 includes a processing circuit that processes output signals from the first light receiving region 214a and the second light receiving region 214b of each pixel 202 in parallel.

信号処理部210は、それぞれの画素202について、第1受光領域214aの出力信号の値から、第2受光領域214bの出力信号の値を減算して、各画素202の画素信号を生成する。これにより、全ての画素202において、リセットタイミングAからリセットタイミングBまでの電荷蓄積時間に応じた画素信号を生成することができる。このような処理により、ローリング読み出しで読み出した出力信号から、グローバルシャッタによる画素信号を擬似的に生成することができる。信号処理部210は、図4において説明した処理を行うグローバルシャッタ処理部としても機能する。   For each pixel 202, the signal processing unit 210 subtracts the value of the output signal of the second light receiving area 214b from the value of the output signal of the first light receiving area 214a to generate a pixel signal of each pixel 202. Thereby, in all the pixels 202, a pixel signal corresponding to the charge accumulation time from the reset timing A to the reset timing B can be generated. By such processing, a pixel signal by a global shutter can be generated in a pseudo manner from an output signal read by rolling reading. The signal processing unit 210 also functions as a global shutter processing unit that performs the processing described in FIG.

図5は、受光部200の構成例を示す図である。図5では、一つの画素202に関する構成だけを示すが、受光部200は、全ての画素202について同様の構成を有する。上述したように、受光部200は、第1受光領域214aのリセットタイミングを制御するリセット線221−1と、第2受光領域214bのリセットタイミングを制御するリセット線221−2とを有する。リセット線221−1およびリセット線221−2は、画素202の行毎に設けられる。同一の行に含まれる画素202は、共通のリセット線221−1およびリセット線221−2に接続される。   FIG. 5 is a diagram illustrating a configuration example of the light receiving unit 200. Although only the configuration related to one pixel 202 is shown in FIG. 5, the light receiving unit 200 has the same configuration for all the pixels 202. As described above, the light receiving unit 200 includes the reset line 221-1 that controls the reset timing of the first light receiving region 214a and the reset line 221-2 that controls the reset timing of the second light receiving region 214b. The reset line 221-1 and the reset line 221-2 are provided for each row of the pixels 202. Pixels 202 included in the same row are connected to a common reset line 221-1 and reset line 221-2.

また、受光部200は、第1受光領域214aの出力信号を読み出す読み出し線224−1と、第2受光領域214bの出力信号を読み出す読み出し線224−2とを有する。読み出し線224−1および読み出し線224−2は、画素202の列毎に設けられる。同一の列に含まれる画素202は、共通の読み出し線224−1および読み出し線224−2に接続される。読み出し線224は、それぞれの出力信号を信号処理部210に伝送する。   In addition, the light receiving unit 200 includes a read line 224-1 for reading the output signal of the first light receiving region 214a and a read line 224-2 for reading the output signal of the second light receiving region 214b. The readout line 224-1 and the readout line 224-2 are provided for each column of the pixels 202. Pixels 202 included in the same column are connected to a common readout line 224-1 and readout line 224-2. The readout line 224 transmits each output signal to the signal processing unit 210.

なお、信号処理部210は、行選択信号SELにより、出力信号を読み出す行を選択する。また、信号処理部210は、出力信号を転送すべき受光領域214を、転送信号Tx1、Tx2により選択する。   Note that the signal processing unit 210 selects a row from which an output signal is read based on the row selection signal SEL. Further, the signal processing unit 210 selects the light receiving region 214 to which the output signal is to be transferred, based on the transfer signals Tx1 and Tx2.

このような構成により、信号処理部210は、それぞれの画素202について、第1受光領域214aおよび第2受光領域214bが蓄積した電荷量に応じた出力信号を同時に、且つ、受光領域毎に独立して読み出す読出部として機能する。更に、信号処理部210は、ローリング読み出しで読み出した出力信号から、グローバルシャッタによる画素信号を擬似的に生成することができる。第2受光領域214bの出力信号を用いて、第1受光領域214aの出力信号を補正するので、第1受光領域214aおよび第2受光領域214bには均等に光が入射することが好ましい。しかし、第1受光領域214aおよび第2受光領域214bは異なる位置に設けられるので、第1受光領域214aおよび第2受光領域214bに均等に光が入射しない場合もある。   With such a configuration, the signal processing unit 210 simultaneously outputs an output signal corresponding to the amount of charge accumulated in the first light receiving region 214a and the second light receiving region 214b for each pixel 202 and independently for each light receiving region. It functions as a reading unit that reads out data. Further, the signal processing unit 210 can artificially generate a pixel signal by the global shutter from the output signal read by rolling reading. Since the output signal of the first light receiving region 214a is corrected using the output signal of the second light receiving region 214b, it is preferable that the light is equally incident on the first light receiving region 214a and the second light receiving region 214b. However, since the first light receiving region 214a and the second light receiving region 214b are provided at different positions, the light may not be evenly incident on the first light receiving region 214a and the second light receiving region 214b.

通常、撮像素子100におけるマイクロレンズ101は、光軸に対する画素202の位置に応じて、画素202に対してずらして配置される。このように設計することで、ある特定のEPD値のレンズに対して、どの位置の画素202であっても、画素202の中心に光のスポットが配置される。EPD値は、像面(撮像素子100の表面)から、レンズの射出瞳までの距離を示す値である。このように、どの位置の画素202であっても、画素202の中心に光スポットがくるEPD値を、EPDジャストと称する。   Usually, the microlens 101 in the image sensor 100 is arranged so as to be shifted with respect to the pixel 202 in accordance with the position of the pixel 202 with respect to the optical axis. By designing in this way, a light spot is arranged at the center of the pixel 202 at any position of the pixel 202 with respect to a lens having a specific EPD value. The EPD value is a value indicating the distance from the image plane (the surface of the image sensor 100) to the exit pupil of the lens. As described above, the EPD value in which the light spot is at the center of the pixel 202 regardless of the position of the pixel 202 is referred to as EPD just.

これに対して、EPDジャストのレンズよりも、EPDが短くなるレンズ、または、EPDが長くなるレンズでは、画素202の位置に応じて、光のスポットが画素202の中心からずれてしまう。画素202は、中心線で2つの受光領域214に分割されるので、光のスポットが画素202の中心からずれると、2つの受光領域214で、出力信号の大きさに差が生じてしまう。例えば、光軸から離れた位置では、光のスポットの大部分が、一方の受光領域214に含まれてしまい、当該受光領域214の出力信号が非常に大きくなるのに対して、他方の受光領域214の出力信号が非常に小さくなる。このように、2つの受光領域214には、必ずしも均等に光が入射されない。   On the other hand, in a lens in which the EPD is shorter or a lens in which the EPD is longer than that of the EPD just lens, the light spot is shifted from the center of the pixel 202 depending on the position of the pixel 202. Since the pixel 202 is divided into two light receiving regions 214 along the center line, if the spot of light deviates from the center of the pixel 202, a difference occurs in the magnitude of the output signal in the two light receiving regions 214. For example, at a position away from the optical axis, most of the light spot is included in one light receiving area 214, and the output signal of the light receiving area 214 becomes very large, whereas the other light receiving area 214 The output signal of 214 becomes very small. Thus, light is not necessarily incident on the two light receiving regions 214 evenly.

なお、上述したEPD値に応じて、受光領域214の出力信号を補正することも考えられるが、条件によっては、一方の受光領域214にまったく光が入射されないこともある。この場合、演算で出力信号を補正することができない。   Although it is conceivable to correct the output signal of the light receiving region 214 in accordance with the EPD value described above, light may not be incident on one light receiving region 214 depending on conditions. In this case, the output signal cannot be corrected by calculation.

図6は、受光部200の構造例を示す図である。図6では、受光部200の断面構造を示す。また図6では、受光部200のうち、画像データ生成用の2つの画素202に対応する部分だけを示している。受光部200は、画像データ生成用の画素202に対応して、拡大光学素子114を備える。拡大光学素子114は、対応する画素202に入射する光の受光領域214における照射領域を拡大させる。つまり、拡大光学素子114は、2つの受光領域214に入射される光の量を均等化させる。拡大光学素子114は、例えば入射光を拡散させて出力する拡散板、または、回折格子が形成された回折板等である。   FIG. 6 is a diagram illustrating a structure example of the light receiving unit 200. FIG. 6 shows a cross-sectional structure of the light receiving unit 200. In FIG. 6, only a portion of the light receiving unit 200 corresponding to the two pixels 202 for generating image data is shown. The light receiving unit 200 includes a magnifying optical element 114 corresponding to the pixel 202 for generating image data. The magnifying optical element 114 enlarges the irradiation area in the light receiving area 214 of light incident on the corresponding pixel 202. That is, the magnifying optical element 114 equalizes the amount of light incident on the two light receiving regions 214. The magnifying optical element 114 is, for example, a diffusion plate that diffuses and outputs incident light, or a diffraction plate on which a diffraction grating is formed.

拡大光学素子114は、当該画素202への入射光の光路上に設けられる。本例では、拡大光学素子114は、当該画素202に対応するカラーフィルタ102と、受光領域214との間に設けられる。ただし、拡大光学素子114の位置は、当該位置に限定されない。拡大光学素子114は、カラーフィルタ102とマイクロレンズ101との間に設けられてもよいし、他の位置に設けられてもよい。   The magnifying optical element 114 is provided on the optical path of the incident light to the pixel 202. In this example, the magnifying optical element 114 is provided between the color filter 102 corresponding to the pixel 202 and the light receiving region 214. However, the position of the magnifying optical element 114 is not limited to this position. The magnifying optical element 114 may be provided between the color filter 102 and the microlens 101 or may be provided at another position.

図6に示すように、各画素202の間には、画素分離部115が形成される。また、各画素202における2つの受光領域214の間には、領域分離部116が形成される。画素分離部115および領域分離部116は、絶縁材料で形成されてよい。   As shown in FIG. 6, a pixel separation unit 115 is formed between the pixels 202. In addition, a region separation unit 116 is formed between the two light receiving regions 214 in each pixel 202. The pixel separation unit 115 and the region separation unit 116 may be formed of an insulating material.

入射光のスポットが一方の受光領域214に偏ってしまうような場合であっても、拡大光学素子114を設けることにより光量の偏りを低減することができる。また、入射光のスポットの大部分が領域分離部116上に位置してしまう場合であっても、拡大光学素子114を設けることにより、入射光を2つの受光領域214に分散させることができる。このように、受光部200の画素202の一部である、画像データ生成用の画素202に対して拡大光学素子114を設けることで、画素信号を精度よく生成することができる。   Even in the case where the spot of incident light is biased toward one light receiving region 214, the bias of the light amount can be reduced by providing the magnifying optical element 114. Further, even when the majority of the incident light spot is located on the region separation unit 116, the incident light can be dispersed in the two light receiving regions 214 by providing the magnifying optical element 114. Thus, by providing the magnifying optical element 114 with respect to the pixel 202 for generating image data, which is a part of the pixel 202 of the light receiving unit 200, a pixel signal can be generated with high accuracy.

図7は、受光部200の構造例を示す図である。図7では、受光部200の断面構造を示す。また図7では、受光部200のうち、像面位相差検出用の2つの画素202に対応する部分だけを示している。受光部200は、像面位相差検出用の画素202に対応して、分離光学素子117を備える。つまり、分離光学素子117は、拡大光学素子114が設けられていない画素に対して設けられる。   FIG. 7 is a diagram illustrating a structural example of the light receiving unit 200. FIG. 7 shows a cross-sectional structure of the light receiving unit 200. In FIG. 7, only a portion of the light receiving unit 200 corresponding to the two pixels 202 for detecting the image plane phase difference is shown. The light receiving unit 200 includes a separation optical element 117 corresponding to the image plane phase difference detection pixel 202. That is, the separation optical element 117 is provided for a pixel in which the magnifying optical element 114 is not provided.

分離光学素子117は、入射する光を2つの受光領域214のそれぞれに分離させる。つまり、分離光学素子117は、マイクロレンズ101を通過した光束を一対の分離光束に分離し、それぞれの分離光束を、対応する受光領域214に入射させる。分離光学素子117は、撮影光学系の射出瞳面と、分離光学素子117が配置される配置面とが、マイクロレンズ101により光学的に共役となるように配置されることが好ましい。分離光学素子117は、例えばプリズム、レンズ等である。分離光学素子117は、受光領域214毎にプリズムまたはレンズ等を有する。プリズムまたはレンズは、対応する受光領域214に対して分離光束を照射する。   The separation optical element 117 separates incident light into each of the two light receiving regions 214. That is, the separation optical element 117 separates the light beam that has passed through the microlens 101 into a pair of separated light beams, and causes each separated light beam to enter the corresponding light receiving region 214. The separation optical element 117 is preferably arranged so that the exit pupil plane of the photographing optical system and the arrangement surface on which the separation optical element 117 is arranged are optically conjugate by the microlens 101. The separation optical element 117 is, for example, a prism or a lens. The separation optical element 117 has a prism or a lens for each light receiving region 214. The prism or lens irradiates the corresponding light receiving area 214 with a separated light beam.

分離光学素子117は、当該画素202への入射光の光路上に設けられる。本例では、分離光学素子117は、当該画素202に対応するカラーフィルタ102と、受光領域214との間に設けられる。ただし、分離光学素子117の位置は、当該位置に限定されない。分離光学素子117は、カラーフィルタ102とマイクロレンズ101との間に設けられてもよいし、他の位置に設けられてもよい。   The separation optical element 117 is provided on the optical path of the incident light to the pixel 202. In this example, the separation optical element 117 is provided between the color filter 102 corresponding to the pixel 202 and the light receiving region 214. However, the position of the separation optical element 117 is not limited to the position. The separation optical element 117 may be provided between the color filter 102 and the microlens 101 or may be provided at another position.

また、受光部200は、遮光マスク118を更に備えてよい。遮光マスク118は、分離光学素子117と略同一面に設けられ、分離光学素子117が分離する分離光束を通過させる開口が設けられている。   The light receiving unit 200 may further include a light shielding mask 118. The light shielding mask 118 is provided on substantially the same plane as the separation optical element 117 and is provided with an opening through which the separated light beam separated by the separation optical element 117 is passed.

図6および図7に示したように、受光部200は、画像データ生成用の画素202に対しては拡大光学素子114を設け、像面位相差検出用の画素202に対しては分離光学素子117を設ける。これにより、画素信号を精度よく生成しつつ、像面位相差も精度よく検出することができる。   As shown in FIGS. 6 and 7, the light receiving unit 200 is provided with a magnifying optical element 114 for the image data generation pixel 202, and a separation optical element for the image plane phase difference detection pixel 202. 117 is provided. Thereby, it is possible to detect the image plane phase difference with high accuracy while generating the pixel signal with high accuracy.

また、信号処理部210は、受光部200からの各画素信号に基づく画像データを、ベイヤー配列等の所定の画素配列の画像データに変換する配列変換部としても機能する。上述したように、信号処理部210は、画像データ生成用の各画素202の2つの受光領域214からの信号を用いて、各画素202の画素信号を生成する。また、像面位相差検出用の画素202に対しては、当該画素202の周辺の画素202の出力値を用いて、画素信号を生成してよい。例えば、信号処理部210は、周辺の同一色の画素202の出力値を補間することで、当該画素202の画素信号を生成する。   The signal processing unit 210 also functions as an array conversion unit that converts image data based on each pixel signal from the light receiving unit 200 into image data of a predetermined pixel array such as a Bayer array. As described above, the signal processing unit 210 generates a pixel signal of each pixel 202 using signals from the two light receiving regions 214 of each pixel 202 for generating image data. For the image plane phase difference detection pixel 202, a pixel signal may be generated using the output value of the pixel 202 around the pixel 202. For example, the signal processing unit 210 generates a pixel signal of the pixel 202 by interpolating the output values of the surrounding pixels 202 of the same color.

図8は、信号処理部210における配列変換処理の一例を示す図である。図8においては、複数の画素202の各列の番号をm、m+1、m+2、・・・、m+k、・・・とし、各行の番号をn、n+1、n+2、・・・、n+l、・・・とする。ただし、k、lは整数とする。図8においては、第1画素202−1の画素信号から、配列変換後の第1変換画素203−1の変換画素信号を生成する処理を説明する。本例の第1画素202−1は、kが0または偶数の列と、lが0または偶数の行に配列される。   FIG. 8 is a diagram illustrating an example of array conversion processing in the signal processing unit 210. In FIG. 8, the number of each column of the plurality of pixels 202 is m, m + 1, m + 2,..., M + k,..., And the number of each row is n, n + 1, n + 2,.・ Let's say. However, k and l are integers. In FIG. 8, a process of generating a converted pixel signal of the first converted pixel 203-1 after the array conversion from the pixel signal of the first pixel 202-1 will be described. The first pixels 202-1 of this example are arranged in columns where k is 0 or even and rows where l is 0 or even.

信号処理部210は、行方向において隣接する2つの第1画素202−1の画素信号を加算して、当該2つの第1画素202−1の間に仮想的に配置される第1変換画素203−1の変換画素信号を生成する。図8においては、画素信号を加算する2つの第1画素202−1を両矢印で結合している。   The signal processing unit 210 adds the pixel signals of the two first pixels 202-1 adjacent in the row direction, and the first conversion pixel 203 that is virtually arranged between the two first pixels 202-1. A conversion pixel signal of −1 is generated. In FIG. 8, two first pixels 202-1 to which pixel signals are added are connected by a double arrow.

より具体的には、信号処理部210は、各行の第1画素202−1が、それぞれ隣接する2つの第1画素202−1のペアとなるようにグルーピングする。信号処理部210は、ペアとなった2つの第1画素202−1の画素信号を加算して、第1変換画素203−1の変換画素信号を生成する。このとき、第1変換画素203−1の行方向の位置が、第1画素202−1の行毎に交互に異なるように、各行の第1画素202−1をグルーピングする。例えば、第n+s(但し、sは0、4、8、・・・)行においては、(m、m+2)、(m+4、m+6)、(m+8、m+10)の列位置の第1画素202−1がグルーピングされる。これに対して、第n+s+2行においては、(m+2、m+4)、(m+6、m+8)、(m+10、m+12)の列位置の第1画素202−1がグルーピングされる。   More specifically, the signal processing unit 210 groups the first pixels 202-1 in each row so as to form a pair of two adjacent first pixels 202-1. The signal processing unit 210 adds the pixel signals of the paired first pixels 202-1 to generate a converted pixel signal of the first converted pixel 203-1. At this time, the first pixels 202-1 in each row are grouped so that the positions in the row direction of the first conversion pixels 203-1 are alternately different for each row of the first pixels 202-1. For example, in the (n + s) th row (where s is 0, 4, 8,...), The first pixel 202-1 at the column position (m, m + 2), (m + 4, m + 6), (m + 8, m + 10). Are grouped. On the other hand, in the (n + s + 2) th row, the first pixels 202-1 at the column positions (m + 2, m + 4), (m + 6, m + 8), (m + 10, m + 12) are grouped.

図9は、第1変換画素203−1の配列例を示す図である。図8に説明した変換処理により、第1変換画素203−1は図9のように配列される。つまり、第1変換画素203−1の行方向の位置が、第1変換画素203−1の行毎に交互に異なるように配列される。具体的には、第n+s行においては、m+1、m+5、m+9の列位置に第1変換画素203−1が配置される。また、第n+s+2行においては、m+3、m+7、m+11の列位置に第1変換画素203−1が配置される。   FIG. 9 is a diagram illustrating an arrangement example of the first conversion pixels 203-1. By the conversion process described in FIG. 8, the first conversion pixels 203-1 are arranged as shown in FIG. That is, the positions of the first conversion pixels 203-1 in the row direction are arranged to be alternately different for each row of the first conversion pixels 203-1. Specifically, in the (n + s) th row, the first conversion pixel 203-1 is arranged at column positions m + 1, m + 5, and m + 9. In the (n + s + 2) th row, the first conversion pixel 203-1 is arranged at the column positions of m + 3, m + 7, and m + 11.

図10は、信号処理部210における配列変換処理の一例を示す図である。図10においては、第2画素202−2および第3画素202−3の画素信号から、配列変換後の第2変換画素203−2および第3変換画素203−3の変換画素信号を生成する処理を説明する。本例の第2画素202−2および第3画素202−3は、kが奇数の列に配列される。本例では、第2画素202−2は、m+3、m+7、m+11、・・・の列に配列される。また、第3画素202−3は、m+1、m+5、m+9、・・・の列に配列される。   FIG. 10 is a diagram illustrating an example of array conversion processing in the signal processing unit 210. In FIG. 10, the process which produces | generates the conversion pixel signal of the 2nd conversion pixel 203-2 and the 3rd conversion pixel 203-3 after arrangement | sequence conversion from the pixel signal of the 2nd pixel 202-2 and the 3rd pixel 202-3. Will be explained. The second pixel 202-2 and the third pixel 202-3 in this example are arranged in a column in which k is an odd number. In this example, the second pixels 202-2 are arranged in columns of m + 3, m + 7, m + 11,. The third pixels 202-3 are arranged in columns of m + 1, m + 5, m + 9,.

信号処理部210は、列方向において隣接する2つの第2画素202−2の画素信号を加算して、当該2つの第2画素202−2の間に仮想的に配置される第2変換画素203−2の変換画素信号を生成する。また、信号処理部210は、列方向において隣接する2つの第3画素202−3の画素信号を加算して、当該2つの第3画素202−3の間に仮想的に配置される第3変換画素203−3の変換画素信号を生成する。図10においては、画素信号を加算する2つの画素202を両矢印で結合している。   The signal processing unit 210 adds the pixel signals of the two second pixels 202-2 adjacent in the column direction, and the second conversion pixel 203 that is virtually disposed between the two second pixels 202-2. -2 conversion pixel signal is generated. Further, the signal processing unit 210 adds the pixel signals of the two third pixels 202-3 adjacent in the column direction, and performs a third conversion that is virtually arranged between the two third pixels 202-3. A converted pixel signal of the pixel 203-3 is generated. In FIG. 10, two pixels 202 to which pixel signals are added are joined by a double arrow.

なお、図8において説明した2つの第1画素202−1を結ぶ両矢印と、図10において説明した2つの第2画素202−2を結ぶ両矢印、および、2つの第3画素202−3を結ぶ両矢印とが重ならないように、画素信号を加算する第2画素202−2のペアおよび第3画素202−3のペアが選択される。つまり、第1変換画素203−1、第2変換画素203−2、第3変換画素203−3の位置が重ならないように、画素信号を加算する第2画素202−2のペアおよび第3画素202−3のペアが選択される。   It should be noted that the double arrow connecting the two first pixels 202-1 described in FIG. 8, the double arrow connecting the two second pixels 202-2 described in FIG. 10, and the two third pixels 202-3 The pair of the second pixel 202-2 and the pair of the third pixel 202-3 to which the pixel signals are added are selected so that the connecting arrows do not overlap. That is, the pair of the second pixel 202-2 and the third pixel to which the pixel signals are added so that the positions of the first conversion pixel 203-1, the second conversion pixel 203-2, and the third conversion pixel 203-3 do not overlap. The pair 202-3 is selected.

より具体的には、第2画素202−2は、(n+3、n+5)、(n+7、n+9)、(n+11、n+13)の行位置の第2画素202−2がグルーピングされる。これに対して、第3画素202−3は、(n+1、n+3)、(n+5、n+7)、(n+9、n+11)の列位置の第3画素202−3がグルーピングされる。   More specifically, in the second pixel 202-2, the second pixels 202-2 in the row positions of (n + 3, n + 5), (n + 7, n + 9), and (n + 11, n + 13) are grouped. On the other hand, the third pixel 202-3 is grouped by the third pixel 202-3 at the column positions (n + 1, n + 3), (n + 5, n + 7), (n + 9, n + 11).

図11は、第2変換画素203−2および第3変換画素203−3の配列例を示す図である。図10に説明した変換処理により、第2変換画素203−2および第3変換画素203−3は図11のように配列される。具体的には、m+3、m+7、m+11列においては、n+4、n+8、n+12の行位置に第2変換画素203−2が配置される。また、m+1、m+5、m+9行においては、n+2、n+6、n+10の行位置に第3変換画素203−3が配置される。   FIG. 11 is a diagram illustrating an arrangement example of the second conversion pixel 203-2 and the third conversion pixel 203-3. The second conversion pixel 203-2 and the third conversion pixel 203-3 are arranged as shown in FIG. 11 by the conversion process described in FIG. Specifically, in the m + 3, m + 7, and m + 11 columns, the second conversion pixel 203-2 is arranged at the row positions of n + 4, n + 8, and n + 12. In the (m + 1), (m + 5), and (m + 9) rows, the third conversion pixels 203-3 are arranged at the (n + 2, n + 6, n + 10) row positions.

図12は、第1変換画素203−1、第2変換画素203−2および第3変換画素203−3の配列例を示す図である。図12に示す配列は、図9および図11に示した各変換画素203の配列を重ねた配列である。図8から図11において説明した処理により、信号処理部210は、図12に示すような、ベイヤー配列の画像データを取得することができる。   FIG. 12 is a diagram illustrating an arrangement example of the first conversion pixel 203-1, the second conversion pixel 203-2, and the third conversion pixel 203-3. The array illustrated in FIG. 12 is an array in which the arrays of the conversion pixels 203 illustrated in FIGS. 9 and 11 are overlapped. 8 to 11, the signal processing unit 210 can acquire Bayer array image data as shown in FIG.

以上説明した撮像素子100によれば、像面位相差検出用の画素を、行方向および列方向において連続して配置できるので、像面位相差の検出精度を向上させることができる。そして、隣接する画素202の画素信号を加算するという簡単な演算で、ベイヤー配列の画像データを取得することができる。   According to the imaging device 100 described above, the image plane phase difference detection pixels can be continuously arranged in the row direction and the column direction, so that the detection accuracy of the image plane phase difference can be improved. Then, Bayer array image data can be acquired by a simple calculation of adding pixel signals of adjacent pixels 202.

図13Aおよび図13Bは、マイクロレンズ101の構造例を示す図である。図13Aは、マイクロレンズ101の斜視図である。ただし、曲線のグリッド線は曲面を示しており、直線のグリッド線は平面を示している。図13Bは、マイクロレンズ101の平面形状を示す図である。図13A、図13Bに示すように、マイクロレンズ101は、球面レンズの4辺を切り落としたような形状を有する。これにより、直径の大きい球面レンズを用いることができ、マイクロレンズ101の実質開口を上げることができる。また、マイクロレンズ101の4辺の位置を、画素202の4辺の位置と一致させることで、マイクロレンズ101を効率よく敷き詰めることができる。   13A and 13B are diagrams illustrating a structure example of the microlens 101. FIG. FIG. 13A is a perspective view of the microlens 101. However, a curved grid line indicates a curved surface, and a straight grid line indicates a plane. FIG. 13B is a diagram illustrating a planar shape of the microlens 101. As shown in FIGS. 13A and 13B, the microlens 101 has a shape obtained by cutting off four sides of a spherical lens. Thereby, a spherical lens with a large diameter can be used, and the substantial opening of the microlens 101 can be raised. Further, by matching the positions of the four sides of the microlens 101 with the positions of the four sides of the pixel 202, the microlens 101 can be efficiently spread.

図14は、受光部200の他の構成例を示す図である。本例において、それぞれの各受光領域214はフォトダイオードである。本例の受光部200においては、4つのフォトダイオードに対して、リセットトランジスタR、ソースフォロワトランジスタSFおよび選択トランジスタSが共通に設けられる。例えば、領域240に含まれる4つのフォトダイオードに対して、リセットトランジスタR等が共通に設けられる。   FIG. 14 is a diagram illustrating another configuration example of the light receiving unit 200. In this example, each light receiving region 214 is a photodiode. In the light receiving unit 200 of this example, the reset transistor R, the source follower transistor SF, and the selection transistor S are provided in common for the four photodiodes. For example, a reset transistor R and the like are provided in common for four photodiodes included in the region 240.

また、それぞれのフォトダイオードに対して転送トランジスタTXが設けられる。また、当該4つのフォトダイオードは、それぞれ異なる画素202に含まれる。例えば、リセットトランジスタR等を共有する4つのフォトダイオードは、2つの第1画素202−1および2つの第2画素202−2に含まれる。   Further, a transfer transistor TX is provided for each photodiode. The four photodiodes are included in different pixels 202, respectively. For example, four photodiodes sharing the reset transistor R and the like are included in two first pixels 202-1 and two second pixels 202-2.

なお、転送トランジスタTXは、フォトダイオードが蓄積した電荷を、電荷検出部に転送するか否かを切り替える。電荷検出部は、例えば配線と基準電位間に接続された容量である(図示しない)。当該電荷検出部も、4つのフォトダイオードに共有される。   The transfer transistor TX switches whether to transfer the charge accumulated in the photodiode to the charge detection unit. The charge detection unit is, for example, a capacitor connected between the wiring and the reference potential (not shown). The charge detection unit is also shared by the four photodiodes.

リセットトランジスタRは、電荷検出部に転送された電荷をリセットするか否かを切り替える。ソースフォロワトランジスタSFは、電荷検出部に蓄積された電荷に応じた出力信号を出力する。選択トランジスタSは、出力信号を読み出し線224に出力するか否かを切り替える。   The reset transistor R switches whether to reset the charge transferred to the charge detection unit. The source follower transistor SF outputs an output signal corresponding to the charge accumulated in the charge detection unit. The selection transistor S switches whether to output an output signal to the readout line 224.

図15は、図14に示した例における、転送トランジスタTXのおよび電荷検出部の配置例を示す図である。本例では、画素202と、トランジスタとは異なる層に設けられる。このため、画素202と、トランジスタを重ねて配置することができる。上述したように、4つのフォトダイオードPDにより、電荷検出部およびリセットトランジスタR等が共有される。それぞれのフォトダイオードPDには、転送トランジスタTXが設けられる。図15においては、転送トランジスタTXのゲート電極を斜線部で示している。   FIG. 15 is a diagram illustrating an arrangement example of the transfer transistor TX and the charge detection unit in the example illustrated in FIG. In this example, the pixel 202 and the transistor are provided in different layers. Therefore, the pixel 202 and the transistor can be stacked. As described above, the charge detection unit, the reset transistor R, and the like are shared by the four photodiodes PD. Each photodiode PD is provided with a transfer transistor TX. In FIG. 15, the gate electrode of the transfer transistor TX is indicated by a hatched portion.

4つのフォトダイオードは、2つの第1画素202−1、および、2つの第2画素202−2または第3画素202−3に含まれる。第1画素202−1と、第2画素202−2および第3画素202−3とは、画素が分割される方向が異なるので、4つの転送トランジスタTXで囲まれる領域が生じる。当該領域が電荷検出部として機能する。なお、図15においては、リセットトランジスタR等を省略しているが、図14に示したように、リセットトランジスタR等も、4つのフォトダイオードにより共有される。   The four photodiodes are included in two first pixels 202-1 and two second pixels 202-2 or third pixels 202-3. Since the first pixel 202-1 is different from the second pixel 202-2 and the third pixel 202-3 in the direction in which the pixels are divided, a region surrounded by the four transfer transistors TX is generated. This region functions as a charge detection unit. In FIG. 15, the reset transistor R and the like are omitted, but the reset transistor R and the like are also shared by four photodiodes as shown in FIG.

図16は、撮像素子100の断面の一例を示す図である。本例では、裏面照射型の撮像素子100を示すが、撮像素子100は裏面照射型に限定されない。また、図16においては、図6に示した拡大光学素子114および分離光学素子117を省略する。本例の撮像素子100は、入射光に対応した信号を出力する撮像チップ113と、撮像チップ113からの信号を処理する信号処理チップ111と、信号処理チップ111が処理した画像データを記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111およびメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。   FIG. 16 is a diagram illustrating an example of a cross section of the image sensor 100. In this example, the back-illuminated image sensor 100 is shown, but the image sensor 100 is not limited to the back-illuminated image sensor. Further, in FIG. 16, the magnifying optical element 114 and the separating optical element 117 shown in FIG. 6 are omitted. The imaging device 100 of this example includes an imaging chip 113 that outputs a signal corresponding to incident light, a signal processing chip 111 that processes a signal from the imaging chip 113, and a memory that stores image data processed by the signal processing chip 111. Chip 112. The imaging chip 113, the signal processing chip 111, and the memory chip 112 are stacked, and are electrically connected to each other by a conductive bump 109 such as Cu.

なお、図示するように、入射光は主に白抜き矢印で示す方向へ入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。撮像チップ113は、受光部200に対応する。PD(フォトダイオード)層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のPD部104、および、PD部104に対応して設けられたトランジスタ105を有する。一つの画素202に、一つのPD部104が設けられる。つまり、PD部104は、第1受光領域214aおよび第2受光領域214bを有する。   As shown in the figure, incident light is incident mainly in the direction indicated by the white arrow. In the present embodiment, in the imaging chip 113, the surface on the side where incident light is incident is referred to as a back surface. An example of the imaging chip 113 is a back-illuminated MOS image sensor. The imaging chip 113 corresponds to the light receiving unit 200. The PD (photodiode) layer 106 is disposed on the back side of the wiring layer 108. The PD layer 106 includes a plurality of PD sections 104 that are two-dimensionally arranged and accumulate charges corresponding to incident light, and transistors 105 that are provided corresponding to the PD sections 104. One PD unit 104 is provided for one pixel 202. That is, the PD unit 104 has a first light receiving region 214a and a second light receiving region 214b.

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD部104のそれぞれに対応して特定の配列を有している。カラーフィルタ102、PD部104および複数のトランジスタ105の組が一つの画素を形成する。複数のトランジスタ105のオンオフを制御することで、各受光領域214の読み出しタイミング、受光開始タイミング(リセットタイミング)等を制御する。   A color filter 102 is provided on the incident side of incident light in the PD layer 106 via a passivation film 103. The color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PD units 104. A set of the color filter 102, the PD unit 104, and the plurality of transistors 105 forms one pixel. By controlling on / off of the plurality of transistors 105, the reading timing of each light receiving region 214, the light receiving start timing (reset timing), and the like are controlled.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD部104へ向けて入射光を集光する。   On the incident light incident side of the color filter 102, a microlens 101 is provided corresponding to each pixel. The microlens 101 condenses incident light toward the corresponding PD unit 104.

配線層108は、PD層106からの信号を信号処理チップ111に伝送する配線107を有する。配線107は、例えば図5に示した読み出し線224に対応する。また、配線層108には、図5および図14に示した各トランジスタのゲート電極が形成されてよい。また、図5および図14に示した各トランジスタは、信号処理チップ111に形成されてもよい。この場合、配線107は、PD層106と、各トランジスタとを接続する配線に対応する。配線107は多層であってもよく、また、受動素子および能動素子が設けられてもよい。本例の信号処理チップ111は、信号処理部210を含む。   The wiring layer 108 includes a wiring 107 that transmits a signal from the PD layer 106 to the signal processing chip 111. The wiring 107 corresponds to, for example, the readout line 224 illustrated in FIG. In the wiring layer 108, gate electrodes of the transistors illustrated in FIGS. 5 and 14 may be formed. Further, the transistors shown in FIGS. 5 and 14 may be formed in the signal processing chip 111. In this case, the wiring 107 corresponds to a wiring that connects the PD layer 106 and each transistor. The wiring 107 may be multilayer, and a passive element and an active element may be provided. The signal processing chip 111 in this example includes a signal processing unit 210.

配線層108の表面には複数のバンプ109が配される。当該複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされて、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   A plurality of bumps 109 are disposed on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the opposing surfaces of the signal processing chip 111, and the imaging chip 113 and the signal processing chip 111 are pressed and aligned. The bumps 109 are joined and electrically connected.

同様に、信号処理チップ111およびメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされて、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   Similarly, a plurality of bumps 109 are disposed on the mutually facing surfaces of the signal processing chip 111 and the memory chip 112. The bumps 109 are aligned with each other, and the signal processing chip 111 and the memory chip 112 are pressurized, so that the aligned bumps 109 are joined and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、後述する一つの単位ブロックに対して一つ程度設ければよい。したがって、バンプ109の大きさは、PD部104のピッチよりも大きくてもよい。また、画素が配列された撮像領域以外の周辺領域において、撮像領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。   The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be employed. Further, about one bump 109 may be provided for one unit block described later. Therefore, the size of the bump 109 may be larger than the pitch of the PD unit 104. Further, a bump larger than the bump 109 corresponding to the imaging region may be provided in a peripheral region other than the imaging region where the pixels are arranged.

信号処理チップ111は、表裏面にそれぞれ設けられた回路を互いに接続するTSV(シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられることが好ましい。また、TSV110は、撮像チップ113の周辺領域、メモリチップ112にも設けられてよい。   The signal processing chip 111 has a TSV (silicon through electrode) 110 that connects circuits provided on the front and back surfaces to each other. The TSV 110 is preferably provided in the peripheral area. The TSV 110 may also be provided in the peripheral area of the imaging chip 113 and the memory chip 112.

図17は、一つの実施形態に係る撮像装置500の構成例を示すブロック図である。撮像装置500は、撮影光学系としての撮影レンズ520を備え、撮影レンズ520は、光軸OAに沿って入射する被写体光束を撮像素子100へ導く。撮影レンズ520は、撮像装置500に対して着脱できる交換式レンズであっても構わない。撮像装置500は、撮像素子100、システム制御部501、駆動部502、測光部503、ワークメモリ504、記録部505、表示部506および駆動部514を主に備える。   FIG. 17 is a block diagram illustrating a configuration example of an imaging apparatus 500 according to an embodiment. The imaging apparatus 500 includes a photographic lens 520 as a photographic optical system, and the photographic lens 520 guides a subject luminous flux incident along the optical axis OA to the imaging element 100. The photographing lens 520 may be an interchangeable lens that can be attached to and detached from the imaging apparatus 500. The imaging apparatus 500 mainly includes an imaging device 100, a system control unit 501, a drive unit 502, a photometry unit 503, a work memory 504, a recording unit 505, a display unit 506, and a drive unit 514.

撮影レンズ520は、複数の光学レンズ群から構成され、シーンからの被写体光束をその焦点面近傍に結像させる。なお、図17では瞳近傍に配置された仮想的な1枚のレンズで当該撮影レンズ520を代表して表している。   The photographing lens 520 is composed of a plurality of optical lens groups, and forms an image of a subject light flux from the scene in the vicinity of its focal plane. In FIG. 17, the photographic lens 520 is representatively represented by a single virtual lens disposed in the vicinity of the pupil.

駆動部514は撮影レンズ520を駆動する。より具体的には駆動部514は撮影レンズ520の光学レンズ群を移動させて合焦位置を変更し、また、撮影レンズ520内の虹彩絞りを駆動して撮像素子100へ入射する被写体光束の光量を制御する。   The driving unit 514 drives the taking lens 520. More specifically, the drive unit 514 moves the optical lens group of the photographic lens 520 to change the focus position, and also drives the iris diaphragm in the photographic lens 520 to input the light amount of the subject luminous flux incident on the image sensor 100. To control.

駆動部502は、システム制御部501からの指示に従って撮像素子100のタイミング制御、領域制御等の電荷蓄積制御を実行する制御回路である。駆動部502は、撮像素子100の受光部200および信号処理部210を、図1から図16に関連して説明したように動作させる。また、操作部508はレリーズボタン等により撮像者からの指示を受け付ける。   The drive unit 502 is a control circuit that executes charge accumulation control such as timing control and area control of the image sensor 100 in accordance with instructions from the system control unit 501. The driving unit 502 operates the light receiving unit 200 and the signal processing unit 210 of the image sensor 100 as described with reference to FIGS. Further, the operation unit 508 receives an instruction from the photographer through a release button or the like.

撮像素子100は、図1から図16に関連して説明した撮像素子100と同一である。撮像素子100は、画素信号をシステム制御部501の画像処理部511へ引き渡す。画像処理部511は、ワークメモリ504をワークスペースとして種々の画像処理を施し、画像データを生成する。例えば、JPEGファイル形式の画像データを生成する場合は、ベイヤー配列で得られた信号からカラー映像信号を生成した後に圧縮処理を実行する。画像処理部511は、信号処理部210を有してよい。この場合、撮像素子100は、信号処理部210を有さずともよい。生成された画像データは、記録部505に記録されるとともに、表示信号に変換されて予め設定された時間の間、表示部506に表示される。   The image sensor 100 is the same as the image sensor 100 described with reference to FIGS. The image sensor 100 delivers the pixel signal to the image processing unit 511 of the system control unit 501. The image processing unit 511 performs various image processing using the work memory 504 as a work space, and generates image data. For example, when generating image data in JPEG file format, a compression process is executed after generating a color video signal from a signal obtained by the Bayer array. The image processing unit 511 may include a signal processing unit 210. In this case, the image sensor 100 may not have the signal processing unit 210. The generated image data is recorded in the recording unit 505, converted into a display signal, and displayed on the display unit 506 for a preset time.

測光部503は、画像データを生成する一連の撮影シーケンスに先立ち、シーンの輝度分布を検出する。測光部503は、例えば100万画素程度のAEセンサを含む。システム制御部501の演算部512は、測光部503の出力を受けてシーンの領域ごとの輝度を算出する。演算部512は、算出した輝度分布に従ってシャッタ速度、絞り値、ISO感度を決定する。測光部503は撮像素子100で兼用してもよい。なお、演算部512は、撮像装置500を動作させるための各種演算も実行する。駆動部502は、一部または全部が撮像素子100の信号処理チップ111に搭載されてよい。システム制御部501の一部が撮像素子100の信号処理チップ111に搭載されてもよい。   The photometric unit 503 detects the luminance distribution of the scene prior to a series of shooting sequences for generating image data. The photometry unit 503 includes, for example, an AE sensor having about 1 million pixels. The calculation unit 512 of the system control unit 501 receives the output of the photometry unit 503 and calculates the luminance for each area of the scene. The calculation unit 512 determines the shutter speed, aperture value, and ISO sensitivity according to the calculated luminance distribution. The light metering unit 503 may be shared by the image sensor 100. Note that the arithmetic unit 512 also executes various arithmetic operations for operating the imaging device 500. A part or all of the drive unit 502 may be mounted on the signal processing chip 111 of the image sensor 100. A part of the system control unit 501 may be mounted on the signal processing chip 111 of the image sensor 100.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

100 撮像素子、101 マイクロレンズ、102 カラーフィルタ、103 パッシベーション膜、104 PD部、105 トランジスタ、106 PD層、107 配線、108 配線層、109 バンプ、110 TSV、111 信号処理チップ、112 メモリチップ、113 撮像チップ、114 拡大光学素子、115 画素分離部、116 領域分離部、117 分離光学素子、118 遮光マスク、200 受光部、202 画素、203 変換画素、210 信号処理部、214 受光領域、214a 第1受光領域、214b 第2受光領域、222−1、222−2 リセット線、224 読み出し線、260 補正部、270 ルックアップテーブル、500 撮像装置、501 システム制御部、502 駆動部、503 測光部、504 ワークメモリ、505 記録部、506 表示部、508 操作部、511 画像処理部、512 演算部、514 駆動部、520 撮影レンズ   100 Image sensor, 101 Micro lens, 102 Color filter, 103 Passivation film, 104 PD part, 105 Transistor, 106 PD layer, 107 Wiring, 108 Wiring layer, 109 Bump, 110 TSV, 111 Signal processing chip, 112 Memory chip, 113 Imaging chip, 114 magnifying optical element, 115 pixel separating unit, 116 region separating unit, 117 separating optical element, 118 light shielding mask, 200 light receiving unit, 202 pixels, 203 conversion pixel, 210 signal processing unit, 214 light receiving region, 214a first Light receiving area, 214b Second light receiving area, 222-1, 222-2 reset line, 224 readout line, 260 correction section, 270 lookup table, 500 imaging device, 501 system control section, 502 drive section, 503 photometry section 504 a work memory, 505 a recording unit, 506 display unit, 508 operation unit, 511 image processing unit, 512 operation unit, 514 drive, 520 a photographing lens

Claims (14)

第1方向および第2方向に沿って配列され、それぞれ分離された2つの受光領域を有する複数の画素と、
前記複数の画素のうち一部の画素に対して設けられ、対応する画素に入射する光の前記受光領域における照射領域を拡大させる拡大光学素子と
を備える撮像素子。
A plurality of pixels having two light receiving regions arranged along the first direction and the second direction and separated from each other;
An imaging device comprising: a magnifying optical element that is provided for a part of the plurality of pixels and that enlarges an irradiation region in the light receiving region of light incident on the corresponding pixel.
前記拡大光学素子が設けられていない画素の前記2つの受光領域のそれぞれの出力信号に基づいて、前記撮像素子の焦点状態を検出する焦点検出部を更に備える
請求項1に記載の撮像素子。
The imaging device according to claim 1, further comprising a focus detection unit that detects a focus state of the imaging device based on output signals of the two light receiving regions of a pixel not provided with the magnifying optical element.
前記拡大光学素子が設けられたそれぞれの画素について、前記2つの受光領域のうち、第1受光領域が蓄積した電荷をリセットするリセットタイミングに対して、第2受光領域のリセットタイミングを遅らせて、且つ、前記第1受光領域および前記第2受光領域が蓄積した電荷量に応じた出力信号を同時に読み出し、前記第1受光領域の前記出力信号の値から、前記第2受光領域の前記出力信号の値を減算して当該画素の画素信号を生成する、グローバルシャッタ処理部を更に備える
請求項1または2に記載の撮像素子。
For each pixel provided with the magnifying optical element, the reset timing of the second light receiving region is delayed with respect to the reset timing for resetting the charge accumulated in the first light receiving region of the two light receiving regions, and And simultaneously reading out an output signal corresponding to the amount of charge accumulated in the first light receiving region and the second light receiving region, and from the value of the output signal in the first light receiving region, the value of the output signal in the second light receiving region The image pickup device according to claim 1, further comprising a global shutter processing unit that subtracts and generates a pixel signal of the pixel.
前記拡大光学素子が設けられたそれぞれの画素について、前記2つの受光領域のそれぞれが蓄積した電荷量に応じた出力信号を同時に、且つ、受光領域毎に独立して読み出す読出部を更に備える
請求項1または2に記載の撮像素子。
The apparatus further comprises a reading unit that simultaneously reads out an output signal corresponding to the amount of charge accumulated in each of the two light receiving regions and independently for each light receiving region for each pixel provided with the magnifying optical element. The image sensor according to 1 or 2.
前記拡大光学素子が設けられていない画素に対して設けられ、入射する光を前記2つの受光領域のそれぞれに分離させる分離光学素子を更に備える
請求項1から4のいずれか一項に記載の撮像素子。
The imaging according to any one of claims 1 to 4, further comprising a separation optical element that is provided for a pixel not provided with the magnification optical element and separates incident light into each of the two light receiving regions. element.
それぞれの画素に対して設けられたカラーフィルタを更に備え、
前記拡大光学素子は、前記画素と、前記カラーフィルタとの間に設けられる
請求項1から5のいずれか一項に記載の撮像素子。
A color filter provided for each pixel;
The imaging device according to claim 1, wherein the magnifying optical element is provided between the pixel and the color filter.
前記複数の画素は、
前記第1方向および前記第2方向に沿って配列され、第1の色に対応する複数の第1画素と、
近接する4つの第1画素に囲まれるそれぞれの領域に設けられ、前記第1の色とは異なる色に対応する複数の他の画素と
を含む請求項1から6のいずれか一項に記載の撮像素子。
The plurality of pixels are:
A plurality of first pixels arranged along the first direction and the second direction and corresponding to a first color;
A plurality of other pixels provided in respective regions surrounded by four adjacent first pixels and corresponding to a color different from the first color, according to any one of claims 1 to 6. Image sensor.
前記複数の他の画素は、
前記第2方向に沿って配列され、第2の色に対応する複数の第2画素と、
前記第2方向に沿って配列され、第3の色に対応する複数の第3画素と
を含み、
第2画素の列および第3画素の列は、前記第1方向において交互に配置され、
前記第1方向において隣接する2つの前記第1画素の出力信号を加算して前記第1の色に対応する画素信号を生成し、前記第2方向において隣接する2つの前記第2画素の出力信号を加算して前記第2の色に対応する画素信号を生成し、前記第2方向において隣接する2つの前記第3画素の出力信号を加算して前記第3の色に対応する画素信号を生成する配列変換部を更に備える
請求項7に記載の撮像素子。
The plurality of other pixels are:
A plurality of second pixels arranged along the second direction and corresponding to a second color;
A plurality of third pixels arranged along the second direction and corresponding to a third color;
The second pixel columns and the third pixel columns are alternately arranged in the first direction,
The output signals of the two first pixels adjacent in the first direction are added to generate a pixel signal corresponding to the first color, and the output signals of the two second pixels adjacent in the second direction Is added to generate a pixel signal corresponding to the second color, and the output signals of two third pixels adjacent in the second direction are added to generate a pixel signal corresponding to the third color. The imaging device according to claim 7, further comprising an array conversion unit that performs the processing.
前記第1画素は、前記第1方向に並んで配列される第1受光領域および第2受光領域を有し、
前記第2画素および前記第3画素は、前記第2方向に並んで配列される第1受光領域および第2受光領域を有する
請求項8に記載の撮像素子。
The first pixel has a first light receiving region and a second light receiving region arranged side by side in the first direction,
The imaging device according to claim 8, wherein the second pixel and the third pixel have a first light receiving region and a second light receiving region arranged side by side in the second direction.
前記配列変換部は、それぞれの画素について、
当該画素の前記第1受光領域の出力信号と、前記第2受光領域の出力信号とを加算した第1画素信号を生成し、
当該画素の前記第1受光領域の出力信号と、当該画素の前記第1受光領域に隣接する画素の前記第2受光領域の出力信号とを加算した第2画素信号を生成し、
当該画素の前記第2受光領域の出力信号と、当該画素の前記第2受光領域に隣接する画素の前記第1受光領域の出力信号とを加算した第3画素信号を生成する
請求項9に記載の撮像素子。
The array conversion unit, for each pixel,
Generating a first pixel signal obtained by adding the output signal of the first light receiving region of the pixel and the output signal of the second light receiving region;
Generating a second pixel signal obtained by adding the output signal of the first light receiving region of the pixel and the output signal of the second light receiving region of the pixel adjacent to the first light receiving region of the pixel;
The third pixel signal is generated by adding the output signal of the second light receiving area of the pixel and the output signal of the first light receiving area of a pixel adjacent to the second light receiving area of the pixel. Image sensor.
それぞれの画素の平面形状が四角形であり、
前記画素の各辺が前記第1方向および前記第2方向に対して45度傾いている
請求項1から10のいずれか一項に記載の撮像素子。
The planar shape of each pixel is a rectangle,
The image sensor according to any one of claims 1 to 10, wherein each side of the pixel is inclined 45 degrees with respect to the first direction and the second direction.
前記撮像素子に入射する光が通過したレンズの特性を示すレンズデータに基づいて、前記2つの受光領域のそれぞれが出力する出力信号の値を補正する補正部を更に備える
請求項1から11のいずれか一項に記載の撮像素子。
12. The apparatus according to claim 1, further comprising: a correction unit that corrects a value of an output signal output from each of the two light receiving regions based on lens data indicating characteristics of a lens through which light incident on the image sensor has passed. The imaging device according to claim 1.
それぞれの画素が形成される撮像チップと、
前記撮像チップと積層され、それぞれの画素の出力信号を処理する信号処理チップと
を有する請求項1から12のいずれか一項に記載の撮像素子。
An imaging chip in which each pixel is formed;
The image pickup device according to claim 1, further comprising: a signal processing chip that is stacked with the image pickup chip and processes an output signal of each pixel.
請求項1から13のいずれか一項に記載の撮像素子を備える撮像装置。   An imaging device comprising the imaging device according to any one of claims 1 to 13.
JP2013199590A 2013-09-26 2013-09-26 Imaging device and imaging apparatus Active JP6368999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013199590A JP6368999B2 (en) 2013-09-26 2013-09-26 Imaging device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013199590A JP6368999B2 (en) 2013-09-26 2013-09-26 Imaging device and imaging apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018132668A Division JP2018201207A (en) 2018-07-12 2018-07-12 Image pickup device and image pickup apparatus

Publications (2)

Publication Number Publication Date
JP2015065624A true JP2015065624A (en) 2015-04-09
JP6368999B2 JP6368999B2 (en) 2018-08-08

Family

ID=52833137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013199590A Active JP6368999B2 (en) 2013-09-26 2013-09-26 Imaging device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6368999B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016203974A1 (en) * 2015-06-15 2016-12-22 ソニー株式会社 Image sensor and electronic device
JP2017183786A (en) * 2016-03-28 2017-10-05 ルネサスエレクトロニクス株式会社 Imaging apparatus, camera system, and imaging method
CN113489904A (en) * 2016-07-13 2021-10-08 索尼公司 Imaging apparatus, imaging device, and image processing apparatus
CN115706176A (en) * 2021-08-09 2023-02-17 北京一径科技有限公司 Photodetector, device, and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078208A (en) * 1999-09-08 2001-03-23 Fuji Photo Film Co Ltd Solid-state image pickup device and signal read method
JP2006049361A (en) * 2004-07-30 2006-02-16 Sony Corp Semiconductor module and mos solid-state imaging device
JP2006246337A (en) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd Solid-state imaging device and signal reading method thereof
JP2007065330A (en) * 2005-08-31 2007-03-15 Canon Inc Camera
JP2012113027A (en) * 2010-11-22 2012-06-14 Nikon Corp Imaging element and imaging device
JP2013150314A (en) * 2011-12-22 2013-08-01 Canon Inc Solid-state imaging device and imaging apparatus
JP2013153050A (en) * 2012-01-25 2013-08-08 Canon Inc Solid state image sensor, distance detector including solid state image sensor, and camera
JP2013186201A (en) * 2012-03-06 2013-09-19 Canon Inc Imaging apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078208A (en) * 1999-09-08 2001-03-23 Fuji Photo Film Co Ltd Solid-state image pickup device and signal read method
JP2006049361A (en) * 2004-07-30 2006-02-16 Sony Corp Semiconductor module and mos solid-state imaging device
JP2006246337A (en) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd Solid-state imaging device and signal reading method thereof
JP2007065330A (en) * 2005-08-31 2007-03-15 Canon Inc Camera
JP2012113027A (en) * 2010-11-22 2012-06-14 Nikon Corp Imaging element and imaging device
JP2013150314A (en) * 2011-12-22 2013-08-01 Canon Inc Solid-state imaging device and imaging apparatus
JP2013153050A (en) * 2012-01-25 2013-08-08 Canon Inc Solid state image sensor, distance detector including solid state image sensor, and camera
JP2013186201A (en) * 2012-03-06 2013-09-19 Canon Inc Imaging apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016203974A1 (en) * 2015-06-15 2016-12-22 ソニー株式会社 Image sensor and electronic device
US10594970B2 (en) 2015-06-15 2020-03-17 Sony Corporation Image sensor and electronic device
JP2017183786A (en) * 2016-03-28 2017-10-05 ルネサスエレクトロニクス株式会社 Imaging apparatus, camera system, and imaging method
CN113489904A (en) * 2016-07-13 2021-10-08 索尼公司 Imaging apparatus, imaging device, and image processing apparatus
CN113489904B (en) * 2016-07-13 2023-07-21 索尼公司 Imaging apparatus, imaging device, and image processing apparatus
CN115706176A (en) * 2021-08-09 2023-02-17 北京一径科技有限公司 Photodetector, device, and storage medium
CN115706176B (en) * 2021-08-09 2023-12-12 北京一径科技有限公司 Photodetector, device, and storage medium

Also Published As

Publication number Publication date
JP6368999B2 (en) 2018-08-08

Similar Documents

Publication Publication Date Title
JP7359166B2 (en) Image sensor and electronic equipment
JP7435648B2 (en) Image sensor and imaging device
JP5211590B2 (en) Image sensor and focus detection apparatus
JP6368999B2 (en) Imaging device and imaging apparatus
JP2017152658A (en) Imaging device and imaging apparatus
JP6136103B2 (en) Imaging device, imaging device, and readout method.
JP2022189971A (en) Image pick-up device
JP6648666B2 (en) Image sensor and focus adjustment device
JP2015041838A (en) Imaging element and imaging device
JP2018201207A (en) Image pickup device and image pickup apparatus
JP2017108281A (en) Imaging device and imaging apparatus
JP6597769B2 (en) Imaging device and imaging apparatus
JP2014230242A (en) Imaging device and imaging apparatus
JP2018046563A (en) Imaging element
JP6268782B2 (en) Imaging device and imaging apparatus
JP6825665B2 (en) Image sensor and image sensor
JP7170100B2 (en) Imaging element and imaging device
JP2003032538A (en) Imaging apparatus
JP2023104965A (en) Imaging device and imaging apparatus
JP6221327B2 (en) Image sensor and camera
JP2017163588A (en) Imaging device, imaging element, and reading method
JP2015023380A (en) Imaging device and imaging apparatus
JP2014200055A (en) Image-capturing element and image-capturing device
JP2017077008A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180625

R150 Certificate of patent or registration of utility model

Ref document number: 6368999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250