JP7330687B2 - Imaging element and imaging device - Google Patents

Imaging element and imaging device Download PDF

Info

Publication number
JP7330687B2
JP7330687B2 JP2018216464A JP2018216464A JP7330687B2 JP 7330687 B2 JP7330687 B2 JP 7330687B2 JP 2018216464 A JP2018216464 A JP 2018216464A JP 2018216464 A JP2018216464 A JP 2018216464A JP 7330687 B2 JP7330687 B2 JP 7330687B2
Authority
JP
Japan
Prior art keywords
imaging
pixel
photoelectric conversion
light shielding
microlens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018216464A
Other languages
Japanese (ja)
Other versions
JP2020088029A (en
Inventor
康平 岡本
勇希 吉村
浩一 福田
駿一 若嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018216464A priority Critical patent/JP7330687B2/en
Publication of JP2020088029A publication Critical patent/JP2020088029A/en
Priority to JP2023130838A priority patent/JP2023159224A/en
Application granted granted Critical
Publication of JP7330687B2 publication Critical patent/JP7330687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特に、瞳分割により位相差検出を行うための撮像素子および撮像装置に関する。 The present invention particularly relates to an imaging element and an imaging apparatus for performing phase difference detection by pupil division.

デジタルカメラやデジタルビデオカメラなど、撮像画素が2次元配列された撮像素子に被写体からの光を結像してシーンを撮影する撮像装置において、近年では、高画素化により画素サイズが縮小され、画素における光検出感度の向上が重要となっている。特に、結像光学系の瞳分割により位相差検出を行う撮像面位相差方式によって焦点検出を行う撮像装置も多く、画素に入射された光を光電変換部へ高感度に導くことが重要である。そこで、光検出感度の高い撮像素子を得るために様々な提案がなされている。 In imaging devices such as digital cameras and digital video cameras, which shoot scenes by focusing light from a subject on an imaging element with two-dimensional array of imaging pixels, in recent years, the pixel size has been reduced due to the increase in the number of pixels. It is important to improve the photodetection sensitivity in In particular, there are many imaging devices that perform focus detection by means of an imaging surface phase difference method, in which phase difference detection is performed by dividing the pupil of the imaging optical system. . Therefore, various proposals have been made to obtain an imaging device with high photodetection sensitivity.

特許文献1には、画素間での光の漏れによる感度低下や画素間の混色を防止したり、位相差情報が失われないようにしたりするために、各画素を囲うように光導波路に遮光壁を導入する画素構成が提案されている。特許文献2には、光電変換部表面付近から絶縁膜上端へ光導波路が形成された構成が開示されており、画素に入射された光が、画素内部の配線による散乱、吸収を受けて損失となることを回避しているとしている。 In Japanese Unexamined Patent Application Publication No. 2004-100000, light is shielded in an optical waveguide so as to surround each pixel in order to prevent sensitivity deterioration and color mixing between pixels due to leakage of light between pixels, and to prevent loss of phase difference information. Pixel configurations that introduce walls have been proposed. Patent Document 2 discloses a configuration in which an optical waveguide is formed from the vicinity of the surface of the photoelectric conversion portion to the upper end of the insulating film. It is said that it is avoiding becoming.

さらに、高画素化により画素サイズが縮小されることに伴い、波長の長い光ほど狭い受光領域に効率よく光を導入することが難しくなってきている。このような現状に対応する手段として、特許文献3には、各色に対応する画素の光導波路の底面における無反射膜の屈折率を調整し、色間の受光感度のばらつきを抑制する構成が提案されている。 Furthermore, as the pixel size is reduced due to the increase in the number of pixels, it is becoming more difficult to efficiently introduce light into a narrow light receiving region as the wavelength of the light is longer. As a means for dealing with such a situation, Patent Document 3 proposes a configuration in which the refractive index of the non-reflective film on the bottom surface of the optical waveguide of the pixel corresponding to each color is adjusted to suppress variations in light receiving sensitivity between colors. It is

特開2015-167219号公報JP 2015-167219 A 特開2015-162562号公報JP 2015-162562 A 特開2015-69992号公報JP 2015-69992 A

しかしながら、画素の周辺部もしくは隣接画素から光が漏れることもあり、その影響により画素内の電磁場分布が乱れたり、画素サイズの縮小化に伴って受光効率が色によって変化したりする場合がある。このような場合には撮像面位相差方式における焦点検出精度が低下してしまう。 However, light may leak from the periphery of the pixel or from adjacent pixels, which may disturb the electromagnetic field distribution within the pixel or change the light receiving efficiency depending on the color as the pixel size is reduced. In such a case, the focus detection accuracy in the imaging plane phase difference method is lowered.

本発明は前述の問題点に鑑み、光検出感度の高い撮像素子、およびそれを用いた撮像装置を提供することを目的としている。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an imaging device with high photodetection sensitivity and an imaging apparatus using the same.

本発明に係る撮像素子は、複数の撮像画素が2次元状に配列された撮像素子であって、前記複数の撮像画素はそれぞれ、電気的に分割された複数の光電変換部と、マイクロレンズと、前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きく、かつ前記遮光壁の前記光電変換部側の面における角部の面積が、前記マイクロレンズのギャップの面積よりも小さいことを特徴とする。 An image pickup device according to the present invention is an image pickup device in which a plurality of image pickup pixels are arranged two-dimensionally, and each of the plurality of image pickup pixels includes a plurality of electrically divided photoelectric conversion units and a microlens. and a light shielding wall surrounding the imaging pixel between the photoelectric conversion unit and the microlens, wherein the width of the surface of the light shielding wall on the microlens side is the width of the surface of the light shielding wall on the photoelectric conversion unit side. The width of the light shielding wall is larger than the width of the light shielding wall, and the area of the corner portion of the surface of the light shielding wall on the photoelectric conversion unit side is smaller than the area of the gap of the microlens.

本発明によれば、撮像面位相差方式による焦点検出精度を高くする、光検出感度の高い撮像素子、およびそれを用いた撮像装置を提供することができる。 According to the present invention, it is possible to provide an imaging device with high photodetection sensitivity and an imaging device using the same, which enhances focus detection accuracy by the imaging plane phase difference method.

撮像素子およびその一部である2行2列の基本画素群を表す模式図である。FIG. 2 is a schematic diagram showing an image sensor and a basic pixel group of 2 rows and 2 columns, which is a part thereof. 第1の実施形態における撮像画素の断面を表す模式図である。4 is a schematic diagram showing a cross section of an imaging pixel in the first embodiment; FIG. 画素間遮光壁の詳細な形状を説明するための図である。FIG. 10 is a diagram for explaining a detailed shape of an inter-pixel light shielding wall; 画素間遮光壁の他の例を説明するための図である。FIG. 11 is a diagram for explaining another example of the inter-pixel light shielding wall; トップマイクロレンズのギャップを説明するための図である。FIG. 4 is a diagram for explaining a gap of a top microlens; 撮像素子と瞳分割との対応関係を示した概略図である。FIG. 3 is a schematic diagram showing a correspondence relationship between an image sensor and pupil division; 視差画像間の像ずれ量とデフォーカス量との関係の概略を説明するための図である。FIG. 4 is a diagram for explaining an outline of a relationship between an image shift amount between parallax images and a defocus amount; 撮像装置の内部構成例を示すブロック図である。2 is a block diagram showing an internal configuration example of an imaging device; FIG. 光導波路に淵部の領域を有する撮像画素の断面を表す模式図である。FIG. 4 is a schematic diagram showing a cross section of an imaging pixel having an edge region in an optical waveguide; 中央位置から離れた像面位置における、光導波路に淵部の領域を有する撮像画素の断面を表す模式図である。FIG. 4 is a schematic diagram showing a cross section of an imaging pixel having an edge region in an optical waveguide at an image plane position away from the central position; 第2の実施形態における撮像画素の断面を表す模式図である。It is a schematic diagram showing the cross section of the imaging pixel in 2nd Embodiment. 遮光部の有無での画素に入射する光の伝搬経路を説明するための図である。FIG. 4 is a diagram for explaining a propagation path of light incident on a pixel with or without a light shielding portion; 第3の実施形態における撮像画素の断面を表す模式図である。It is a schematic diagram showing the cross section of the imaging pixel in 3rd Embodiment. 撮像装置の内部構成例を示すブロック図である。2 is a block diagram showing an internal configuration example of an imaging device; FIG. RGB画素の基本画素群を表す模式図である。FIG. 3 is a schematic diagram showing a basic pixel group of RGB pixels; 撮像画素の断面および光の伝搬経路を説明するための図である。FIG. 4 is a diagram for explaining a cross section of an imaging pixel and a light propagation path; 画素構造と瞳分割との対応関係の概略を説明するための図である。FIG. 4 is a diagram for explaining an outline of a correspondence relationship between a pixel structure and pupil division; 光のビームウェスト半径とを説明するための図である。FIG. 4 is a diagram for explaining a beam waist radius of light; R画素,G画素,B画素の間でのクロストークが発生する方向を説明するための図である。FIG. 4 is a diagram for explaining directions in which crosstalk occurs among R, G, and B pixels;

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。本実施形態では、有効画素領域の水平方向サイズが22.32mm、垂直方向サイズが14.88mm、水平方向の有効画素数が6000、垂直方向の有効画素数が4000とした例について説明する。
(First embodiment)
A first embodiment of the present invention will be described below with reference to the drawings. In this embodiment, an example in which the horizontal size of the effective pixel area is 22.32 mm, the vertical size is 14.88 mm, the number of effective pixels in the horizontal direction is 6000, and the number of effective pixels in the vertical direction is 4000 will be described.

図1(a)は、撮像素子の撮像面上に配列された複数の撮像画素の一部として2行2列の基本画素群101を表す模式図である。基本画素群101は、赤色相当の波長帯域に分光感度を有する撮像画素102、青色相当の波長帯域に分光感度を有する撮像画素103、および緑色相当の波長帯域に分光感度を有する二つの撮像画素104、105により構成されているものとする。なお、以下の説明では、複数の撮像画素が配列された撮像面をx-y面に平行とし、これに垂直な方向をz方向とする。 FIG. 1A is a schematic diagram showing a basic pixel group 101 of 2 rows and 2 columns as part of a plurality of imaging pixels arranged on an imaging surface of an imaging element. The basic pixel group 101 includes an imaging pixel 102 having spectral sensitivity in a wavelength band corresponding to red, an imaging pixel 103 having spectral sensitivity in a wavelength band corresponding to blue, and two imaging pixels 104 having spectral sensitivity in a wavelength band corresponding to green. , 105. In the following description, the imaging plane on which a plurality of imaging pixels are arranged is parallel to the xy plane, and the direction perpendicular thereto is the z direction.

図1(b)は、撮像素子106を撮像面上方から見た模式図であり、図1(b)に示すように、基本画素群101が撮像面上に2次元状に配列されている。ここで、基本画素群101を構成する撮像画素102~105の基本的な構成は特定の波長領域を有する色の光を透過するカラーフィルターを除いて同一とする。したがって、以下、撮像画素の構成を説明する際に、代表して撮像画素102に着目して説明する。 FIG. 1B is a schematic diagram of the imaging element 106 viewed from above the imaging surface. As shown in FIG. 1B, the basic pixel group 101 is arranged two-dimensionally on the imaging surface. Here, the basic configuration of the imaging pixels 102 to 105 forming the basic pixel group 101 is the same except for color filters that transmit light of a specific wavelength region. Therefore, when describing the configuration of the image pickup pixel, the image pickup pixel 102 will be described as a representative.

図2は、本実施形態において、図1(a)中の撮像画素102におけるzx面に平行な断面を表す模式図である。n型のシリコン基板201には、その表面側からイオン注入により形成された光電変換部202が設けられている。光電変換部202は中央分離領域211により副光電変換部202a、202bに電気的に分離され、それぞれに対応する画素領域が副画素となっている。イオン注入は図2中の-z方向から行われ、シリコン基板201の裏面(図2中、+z側)を薄膜化した後、裏面側にマイクロレンズなどの光学構造が配置される。 FIG. 2 is a schematic diagram showing a cross section parallel to the zx plane in the imaging pixel 102 in FIG. 1A in this embodiment. An n-type silicon substrate 201 is provided with a photoelectric conversion section 202 formed by ion implantation from the surface side. The photoelectric conversion unit 202 is electrically separated into sub-photoelectric conversion units 202a and 202b by a central separation region 211, and pixel regions corresponding to each are sub-pixels. Ions are implanted from the -z direction in FIG. 2, and after thinning the back surface of the silicon substrate 201 (+z side in FIG. 2), optical structures such as microlenses are arranged on the back surface side.

また、シリコン基板201には、その裏面側に酸化シリコン(SiOx)からなる絶縁部204が形成され、その上方に層内マイクロレンズ(インナーレンズ)205、カラーフィルター207、トップマイクロレンズ209が形成されている。画素間遮光壁203、210は画素間の遮光を行うための遮光壁であり、各画素を囲むように配置されている。画素間遮光壁203はz方向において壁の幅が一定となっているのに対し、画素間遮光壁210は上方ほど壁の幅が大きくなるように形成されている。つまり、画素間遮光壁のトップマイクロレンズ側の面(最上面)の幅が光電変換部側の面(最下面)の幅よりも大きい構成となっている。この構成により、弊害をもたらす漏れ光や迷光を上方で排除できるため、入射角度の厳しい場合であっても入射光をインナーレンズ205で光電変換部202まで効率よく導くことができる。 An insulating portion 204 made of silicon oxide (SiO x ) is formed on the back side of the silicon substrate 201 , and an intralayer microlens (inner lens) 205 , a color filter 207 and a top microlens 209 are formed thereabove. It is Inter-pixel light shielding walls 203 and 210 are light shielding walls for shielding light between pixels, and are arranged so as to surround each pixel. The inter-pixel light shielding wall 203 has a constant wall width in the z direction, whereas the inter-pixel light shielding wall 210 is formed so that the wall width increases toward the top. That is, the width of the surface (uppermost surface) of the inter-pixel light shielding wall on the top microlens side is larger than the width of the surface (lowermost surface) on the photoelectric conversion unit side. With this configuration, leaked light and stray light that cause adverse effects can be eliminated from above, so that the incident light can be efficiently guided to the photoelectric conversion unit 202 by the inner lens 205 even when the incident angle is severe.

次に、図3を参照しながら画素間遮光壁210の詳細な形状について説明する。図3(a)は図2のA-A'におけるx-y面に平行な断面を表す模式図であり、図3(b)は図2のB-B'におけるx-y面に平行な断面を表す模式図である。図3(a)および図3(b)において、点線301が隣接画素との境界を示しており、画素間遮光壁210の断面形状を示している。 Next, the detailed shape of the inter-pixel light shielding wall 210 will be described with reference to FIG. FIG. 3(a) is a schematic diagram showing a cross section parallel to the xy plane taken along line AA' in FIG. 2, and FIG. It is a schematic diagram showing a cross section. In FIGS. 3A and 3B, dotted lines 301 indicate boundaries between adjacent pixels, and indicate cross-sectional shapes of inter-pixel light shielding walls 210 .

図3(c)は、図3(a)の円形の点線で囲まれた領域302を拡大した模式図であり、画素間遮光壁210の角部303を表している。図3(c)に示す画素間遮光壁210の角部において、辺をなす部分の幅304、および画素対角方向(本実施形態では図中-x=yの直線に平行な方向)における角部の幅305を示す。この時、画素間遮光壁210の最上面における角部の面積は、画素間遮光壁210の最下面における角部の面積よりも大きい。このような構成とすることにより、画素の対角方向の画素間隣接部における迷光を遮光することができる。つまり、本実施形態においては、画素間遮光壁210の最上面における角部の画素対角方向の幅が、画素間遮光壁210の最下面における角部の画素対角方向の幅よりも大きくなるように構成されている。 FIG. 3C is an enlarged schematic diagram of a region 302 surrounded by a circular dotted line in FIG. In the corner of the inter-pixel light shielding wall 210 shown in FIG. 3C, the width 304 of the part forming the side and the angle in the pixel diagonal direction (in this embodiment, the direction parallel to the straight line −x=y in the figure) The width 305 of the part is shown. At this time, the corner area of the top surface of the inter-pixel light shielding wall 210 is larger than the corner area of the bottom surface of the inter-pixel light shielding wall 210 . With such a configuration, it is possible to block stray light in the inter-pixel adjacent portions in the diagonal direction of the pixels. That is, in the present embodiment, the width in the pixel diagonal direction of the corner of the uppermost surface of the interpixel light shielding wall 210 is larger than the width of the corner of the lowermost surface of the interpixel light shielding wall 210 in the pixel diagonal direction. is configured as

また、画素間遮光壁210の形状は、その角部に特徴を有するものであればよく、図3に示した例に限定されるものではない。例えば、図4(a)に示すような断面形状であってもよい。この場合、角部における画素対角方向の幅401の大きさが辺をなす部分の幅402の2倍以上となっている。また、図4(b)に示すような断面形状であってもよい。この例も同様の特徴をもつ画素間遮光壁210の形状例であるが、辺をなす部分が幅一定の辺ではなく、徐々に変化している。この場合は幅404を、辺をなす部分の幅として考えることが可能である。 Moreover, the shape of the inter-pixel light shielding wall 210 is not limited to the example shown in FIG. 3 as long as it has a characteristic corner. For example, it may have a cross-sectional shape as shown in FIG. In this case, the width 401 in the pixel diagonal direction at the corner is at least twice the width 402 at the side. Moreover, the cross-sectional shape as shown in FIG.4(b) may be sufficient. This example is also an example of the shape of the inter-pixel light shielding wall 210 having the same characteristics, but the portion forming the side is not a side with a constant width, but gradually changes. In this case, the width 404 can be considered as the width of the portion forming the side.

さらに本実施形態においては、画素間遮光壁の角部での画素対角方向における断面形状についても、図2に示す形状に限定されるものではない。例えば、図4(c)に示す例は、画素間遮光壁210の上部から下部へ向かって面積または幅が単調減少する形状であり、図2と同様であるが、このような形状に限定されない。例えば、図4(d)に示すように、画素間遮光壁210の上部においてのみ幅または面積が大きくなっている形状であってもよく、図4(e)に示すように、上部から下部へ向かって幅または面積が非線形に減少する形状であってもよい。特に、図4(c)または図4(e)に示す形状の場合、上下方向において断面形状に段差がないため、作製プロセスが簡素化され、作製精度を向上させたりコストを低減したりすることができる。 Furthermore, in the present embodiment, the cross-sectional shape in the pixel diagonal direction at the corner of the inter-pixel light shielding wall is not limited to the shape shown in FIG. For example, the example shown in FIG. 4C has a shape in which the area or width monotonically decreases from the top to the bottom of the inter-pixel light shielding wall 210, which is similar to FIG. 2, but is not limited to such a shape. . For example, as shown in FIG. 4(d), the width or area may be increased only at the upper portion of the inter-pixel light shielding wall 210. As shown in FIG. It may have a shape in which the width or area decreases non-linearly. In particular, in the case of the shape shown in FIG. 4(c) or FIG. 4(e), since there is no step in the cross-sectional shape in the vertical direction, the manufacturing process is simplified, the manufacturing accuracy is improved, and the cost is reduced. can be done.

また、本実施形態においては、画素間遮光壁210の最上面における角部の画素対角方向の幅または面積が、トップマイクロレンズ209のギャップの幅または面積よりも大きくなるように構成してもよい。このような構成であっても、画素へ入射する迷光を抑制することが可能である。さらに、画素間遮光壁210の最下面における角部の画素対角方向の幅または面積が、トップマイクロレンズ209のギャップの幅または面積よりも小さくなるように構成してもよい。このようにすることにより、画素へ入射する迷光の抑制効果をより向上させることが可能である。 Further, in the present embodiment, the width or area in the pixel diagonal direction of the corner of the top surface of the inter-pixel light shielding wall 210 may be larger than the width or area of the gap of the top microlens 209 . good. Even with such a configuration, it is possible to suppress stray light entering the pixels. Further, the width or area in the pixel diagonal direction of the corner of the interpixel light shielding wall 210 on the lowermost surface may be smaller than the width or area of the gap of the top microlens 209 . By doing so, it is possible to further improve the effect of suppressing stray light entering the pixel.

図5(a)は、トップマイクロレンズ209および画素間遮光壁210のみを模式的に示す斜視図である。多くの撮像画素においてトップマイクロレンズの画素対角方向の角部では、平坦またはこれに近い領域が存在し、この領域をトップマイクロレンズ501のギャップ502と称する。 FIG. 5A is a perspective view schematically showing only the top microlens 209 and the inter-pixel light shielding wall 210. FIG. In many imaging pixels, there is a flat or nearly flat area at the corners of the top microlens in the pixel diagonal direction, and this area is called a gap 502 of the top microlens 501 .

図5(b)は、隣接画素の一部を含めて+z方向から見た模式図である。図5(b)において、トップマイクロレンズ501の画素対角方向における角部にギャップ502が存在し、画素対角方向におけるギャップの幅503を示している。図5(c)は、画素対角方向におけるトップマイクロレンズ501のギャップ502の幅503と、画素間遮光壁210の上部における幅504および下部における幅505との関係を表す図である。本実施形態においては、これら幅の関係は面積の関係としても特徴づけられる。ただし、図5(c)における幅503、504、505の大小関係はこれらに限定されるものではない。 FIG. 5(b) is a schematic view including some of the adjacent pixels as seen from the +z direction. In FIG. 5B, there is a gap 502 at the corner of the top microlens 501 in the pixel diagonal direction, and the width 503 of the gap in the pixel diagonal direction is shown. FIG. 5C is a diagram showing the relationship between the width 503 of the gap 502 of the top microlens 501 in the diagonal direction of the pixel and the width 504 at the top and the width 505 at the bottom of the inter-pixel light shielding wall 210 . In this embodiment, these width relationships are also characterized as area relationships. However, the size relationship of the widths 503, 504, 505 in FIG. 5(c) is not limited to these.

次に、瞳分割位相差方式の焦点検出方法について説明する。図6は、本実施形態の撮像素子と瞳分割との対応関係を示した概略図である。
図6において、線604は被写体の位置(面)を示し、位置605にある撮像光学系を通して被写体像を撮像素子表面位置606に形成する。また、位置609は撮像素子をなす撮像画素のインナーレンズの裏側位置を表す。撮像素子の画素毎に、x方向に2分割された副光電変換部602と副光電変換部603は、それぞれ、瞳部分領域607と瞳部分領域608を通過する光束を受光する。
Next, a pupil division phase difference method focus detection method will be described. FIG. 6 is a schematic diagram showing the correspondence relationship between the imaging element and pupil division of this embodiment.
In FIG. 6, a line 604 indicates the position (plane) of the subject, and an image of the subject is formed at a position 606 on the surface of the image sensor through the imaging optical system at a position 605 . Further, a position 609 represents the rear side position of the inner lens of the image pickup pixel forming the image sensor. A secondary photoelectric conversion unit 602 and a secondary photoelectric conversion unit 603, which are divided in the x direction for each pixel of the image sensor, receive light beams passing through a pupil partial region 607 and a pupil partial region 608, respectively.

画素毎に、副光電変換部602および副光電変換部603の信号を選び出すことで、結像光学系の瞳部分領域607と瞳部分領域608の中の特定の瞳部分領域に対応した視差画像を得ることができる。具体的には、画素毎に、副光電変換部602に対応する信号を選び出すことで、結像光学系の瞳部分領域607に対応した有効画素数の解像度の視差画像を得ることができる。また、副光電変換部603に対応する信号を選び出すことで、結像光学系の瞳部分領域608に対応した有効画素数の解像度の視差画像を得ることができる。 By selecting the signals of the sub-photoelectric conversion unit 602 and the sub-photoelectric conversion unit 603 for each pixel, a parallax image corresponding to a specific pupil partial area in the pupil partial areas 607 and 608 of the imaging optical system is generated. Obtainable. Specifically, by selecting a signal corresponding to the sub-photoelectric conversion unit 602 for each pixel, a parallax image having a resolution corresponding to the number of effective pixels corresponding to the pupil partial region 607 of the imaging optical system can be obtained. Further, by selecting the signal corresponding to the sub-photoelectric conversion unit 603, a parallax image having a resolution corresponding to the number of effective pixels corresponding to the pupil partial area 608 of the imaging optical system can be obtained.

また、画素毎に、副光電変換部602と副光電変換部603の信号を全て加算することで、有効画素数の解像度の撮像画像を生成することができる。なお、本実施形態では、図6に示すように撮像素子の中央から遠い撮像画素ほどそのトップマイクロレンズの位置が撮像画素の中央側へ偏芯している。これは、撮像素子の中央から遠い部分では結像光学系からの主光線の方向がより傾くため、この傾きに対応するためである。 Further, by adding all the signals of the secondary photoelectric conversion units 602 and 603 for each pixel, it is possible to generate a captured image with a resolution corresponding to the number of effective pixels. In this embodiment, as shown in FIG. 6, the position of the top microlens of an imaging pixel farther from the center of the imaging element is decentered toward the center of the imaging pixel. This is because the direction of the principal ray from the imaging optical system is more inclined in a portion far from the center of the image pickup device, and this is to accommodate this inclination.

次に、視差画像の像ずれ量とデフォーカス量との関係について説明する。図7は、視差画像間の像ずれ量とデフォーカス量との関係の概略を説明するための図である。撮像素子表面位置606に本実施形態の撮像素子(不図示)が配置され、図6と同様に、結像光学系の射出瞳が、瞳部分領域607と瞳部分領域608とに2分割されるものとする。 Next, the relationship between the image shift amount of the parallax image and the defocus amount will be described. FIG. 7 is a diagram for explaining the outline of the relationship between the amount of image shift between parallax images and the amount of defocus. An image pickup device (not shown) of this embodiment is arranged at an image pickup device surface position 606, and the exit pupil of the imaging optical system is divided into a pupil partial region 607 and a pupil partial region 608, as in FIG. shall be

デフォーカス量dは、被写体の結像位置から撮像素子表面位置(撮像面)606までの距離を表し、その大きさを|d|とする。ここで、デフォーカス量dに関し、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)とし、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義する。被写体の結像位置が撮像面にある合焦状態はd=0である。図7で、被写体701は合焦状態(d=0)の例を示しており、被写体702は前ピン状態(d<0)の例を示している。また、前ピン状態(d<0)と後ピン状態(d>0)とを合わせて、デフォーカス状態(|d|>0)とする。 The defocus amount d represents the distance from the imaging position of the subject to the surface position of the imaging element (imaging plane) 606, and its magnitude is |d|. Here, with respect to the defocus amount d, a negative sign (d<0) indicates a front focus state in which the imaging position of the subject is on the side of the subject from the imaging plane, and the imaging position of the subject is on the opposite side of the imaging plane to the subject. We define the back pin state as positive sign (d>0). The in-focus state in which the imaging position of the object is on the imaging plane is d=0. In FIG. 7, an object 701 shows an example of an in-focus state (d=0), and an object 702 shows an example of a front focus state (d<0). Also, the front focus state (d<0) and the rear focus state (d>0) are combined to be a defocus state (|d|>0).

前ピン状態(d<0)では、被写体702からの光束のうち、瞳部分領域607(608)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅P1(P2)に広がり、撮像面606でぼやけた像となる。ぼやけた像は、副光電変換部602と副光電変換部603により受光され、視差画像が生成される。よって、副光電変換部602と副光電変換部603の信号から生成される視差画像には、重心位置G1(G2)に、被写体702が幅P1(P2)にぼやけた被写体像として記録される。被写体像のボケ幅P1(P2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。同様に、視差画像間の被写体像の像ずれ量p(=G1-G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。後ピン状態(d>0)でも、視差画像間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。合焦状態(d=0)では、視差画像間の被写体像の重心位置が一致(p=0)し、像ずれは生じない。 In the front focus state (d<0), of the light beams from the subject 702, the light beams that have passed through the partial pupil region 607 (608) are condensed once and then spread out around the barycentric position G1 (G2) of the light beams. It spreads to P1 (P2) and becomes a blurred image on the imaging plane 606 . The blurred image is received by the secondary photoelectric conversion unit 602 and the secondary photoelectric conversion unit 603 to generate a parallax image. Therefore, in the parallax image generated from the signals of the secondary photoelectric conversion units 602 and 603, the object 702 is recorded as a blurred object image with width P1 (P2) at the center of gravity position G1 (G2). The blur width P1 (P2) of the subject image increases approximately in proportion to the increase in the magnitude |d| of the defocus amount d. Similarly, the magnitude |p| of the image shift amount p (=G1−G2) of the subject image between the parallax images is also roughly proportional to the increase in the magnitude |d| of the defocus amount d. increasing. Even in the rear focus state (d>0), the direction of image shift of the object image between the parallax images is opposite to that in the front focus state, but the same is true. In the in-focus state (d=0), the positions of the centers of gravity of the object images between the parallax images match (p=0), and no image shift occurs.

したがって、副光電変換部602と副光電変換部603の信号を用いて得られる二つ(複数)の視差画像において、視差画像のデフォーカス量の大きさが増加するのに伴い、複数の視差画像間の像ずれ量の大きさが増加する。本実施形態の撮像素子の光電変換部からの信号を用いて視差画像間の像ずれ量を相関演算により算出することで、瞳分割位相差検出方式の焦点検出信号を用いた焦点検出を行うことができる。 Therefore, in the two (plural) parallax images obtained using the signals of the secondary photoelectric conversion unit 602 and the secondary photoelectric conversion unit 603, as the defocus amount of the parallax images increases, the number of parallax images increases. The magnitude of the image shift amount between the two increases. Focus detection using a focus detection signal of a split-pupil phase difference detection method is performed by calculating an image shift amount between parallax images by correlation calculation using a signal from the photoelectric conversion unit of the image sensor of the present embodiment. can be done.

また、図2に示した例では、光電変換部202とトップマイクロレンズ209との間に信号伝送用の配線層を有さない裏面照射型の撮像画素であった。表面照射型の撮像画素においては、配線層で散乱、吸収されるような迷光が配線層において排除されづらい。このため、裏面照射型の撮像画素に本実施形態を適用することが好ましく、迷光の抑制効果を向上させることができる。このような構成にすることで、瞳分割による位相差方式の焦点検出精度がより高い撮像素子を実現することが可能となる。 In addition, in the example shown in FIG. 2, the imaging pixel is a back-illuminated imaging pixel that does not have a wiring layer for signal transmission between the photoelectric conversion unit 202 and the top microlens 209 . In front-illuminated imaging pixels, stray light that is scattered and absorbed in the wiring layer is difficult to eliminate in the wiring layer. For this reason, it is preferable to apply the present embodiment to a back-illuminated imaging pixel, and the effect of suppressing stray light can be improved. By adopting such a configuration, it is possible to realize an imaging device with higher accuracy in focus detection of the phase difference method by pupil division.

次に、前述した撮像素子を適用した撮像装置の具体的な構成例について説明する。図8は、本実施形態に係る撮像装置であるデジタルカメラの機能構成例を示すブロック図であり、撮像素子106を有するものである。なお、本実施形態では、撮像装置の一例としてデジタルカメラについて説明するが、前述の撮像素子を有する撮像装置として、携帯電話、監視カメラ、移動体カメラ、医療用カメラ等であってもよい。本実施形態の撮像装置では、撮像素子106の光電変換部からの信号を瞳分割位相差方式の焦点調節に用いると同時に、撮像信号としても用いる。 Next, a specific configuration example of an image pickup apparatus to which the above-described image pickup device is applied will be described. FIG. 8 is a block diagram showing a functional configuration example of a digital camera, which is an imaging apparatus according to this embodiment, and has an imaging device 106 . In this embodiment, a digital camera will be described as an example of an imaging device, but a mobile phone, a surveillance camera, a mobile camera, a medical camera, or the like may be used as an imaging device having the above-described imaging device. In the image pickup apparatus of this embodiment, the signal from the photoelectric conversion unit of the image pickup device 106 is used for focus adjustment of the pupil division phase difference method, and at the same time, it is also used as an image pickup signal.

本実施形態のデジタルカメラはレンズ交換式一眼レフカメラであり、レンズユニット800とカメラ本体820とを有する。レンズユニット800は図中央の点線で示されるマウントMを介して、カメラ本体820に装着される。 The digital camera of this embodiment is a lens-interchangeable single-lens reflex camera, and has a lens unit 800 and a camera body 820 . The lens unit 800 is attached to the camera body 820 via a mount M indicated by a dotted line in the center of the drawing.

レンズユニット800は、光学系(第1レンズ群801、絞り802、第2レンズ群803、フォーカスレンズ群(以下、単に「フォーカスレンズ」という)804)、及び駆動/制御系を有する。このようにレンズユニット800は、フォーカスレンズ804を含み、被写体の光学像を形成する撮影レンズに相当する。 The lens unit 800 has an optical system (first lens group 801, diaphragm 802, second lens group 803, focus lens group (hereinafter simply referred to as "focus lens") 804) and a drive/control system. As described above, the lens unit 800 includes the focus lens 804 and corresponds to a photographing lens that forms an optical image of a subject.

第1レンズ群801はレンズユニット800の先端に配置され、光軸方向OAに移動可能に保持される。絞り802は、撮影時の光量を調節する機能のほか、静止画撮影時には露出時間を制御するメカニカルシャッタとしても機能する。ただし、本実施形態の撮像素子にグローバルシャッター機構が設けられているため、必ずしも絞りを用いたメカニカルシャッタを使用する必要はない。 The first lens group 801 is arranged at the tip of the lens unit 800 and held movably in the optical axis direction OA. The diaphragm 802 functions not only to adjust the amount of light during shooting, but also as a mechanical shutter that controls the exposure time during still image shooting. However, since the image sensor of this embodiment is provided with a global shutter mechanism, it is not always necessary to use a mechanical shutter using an aperture.

絞り802及び第2レンズ群803は一体で光軸方向OAに移動可能であり、第1レンズ群801と連動して移動することによりズーム機能を実現する。フォーカスレンズ804も光軸方向OAに移動可能であり、位置に応じてレンズユニット800が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ804の光軸方向OAにおける位置を制御することにより、レンズユニット800の合焦距離を調節する焦点調節を行う。 The diaphragm 802 and the second lens group 803 are integrally movable in the optical axis direction OA, and move together with the first lens group 801 to achieve a zoom function. The focus lens 804 is also movable in the optical axis direction OA, and the subject distance (focusing distance) at which the lens unit 800 focuses changes depending on the position. By controlling the position of the focus lens 804 in the optical axis direction OA, focus adjustment for adjusting the focal length of the lens unit 800 is performed.

駆動/制御系は、ズームアクチュエータ811、絞りアクチュエータ812、フォーカスアクチュエータ813、ズーム駆動回路814、絞り絞り駆動回路815、およびフォーカス駆動回路816を有する。さらに、レンズMPU(MPU:マイクロプロセッサ)817、およびレンズメモリ818を有する。 The drive/control system has a zoom actuator 811 , an aperture actuator 812 , a focus actuator 813 , a zoom drive circuit 814 , an aperture drive circuit 815 and a focus drive circuit 816 . Furthermore, it has a lens MPU (MPU: microprocessor) 817 and a lens memory 818 .

ズーム駆動回路814は、ズームアクチュエータ811を用いて第1レンズ群801や第3レンズ群803を光軸方向OAに駆動し、レンズユニット800の光学系の画角を制御する。絞り駆動回路815は、絞りアクチュエータ812を用いて絞り802を駆動し、絞り802の開口径や開閉動作を制御する。フォーカス駆動回路816はフォーカスアクチュエータ813を用いてフォーカスレンズ804を光軸方向OAに駆動し、レンズユニット800の光学系の合焦距離を変化させる。また、フォーカス駆動回路816は、フォーカスアクチュエータ813を用いてフォーカスレンズ804の現在位置を検出する。 A zoom drive circuit 814 drives the first lens group 801 and the third lens group 803 in the optical axis direction OA using a zoom actuator 811 to control the angle of view of the optical system of the lens unit 800 . A diaphragm driving circuit 815 drives the diaphragm 802 using the diaphragm actuator 812 and controls the aperture diameter and opening/closing operation of the diaphragm 802 . A focus drive circuit 816 uses a focus actuator 813 to drive the focus lens 804 in the optical axis direction OA to change the focal length of the optical system of the lens unit 800 . Also, the focus drive circuit 816 detects the current position of the focus lens 804 using the focus actuator 813 .

レンズMPU817は、レンズユニット800に係る全ての演算、制御を行い、ズーム駆動回路814、絞り駆動回路815、フォーカス駆動回路816を制御する。また、レンズMPU817は、マウントMを通じてカメラMPU825と接続され、コマンドやデータを通信する。例えばレンズMPU817はフォーカスレンズ804の位置を検出し、カメラMPU825からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ804の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。またレンズMPU817は、カメラMPU825からの要求に応じて、ズーム駆動回路814、絞り駆動回路815、フォーカス駆動回路816を制御する。レンズメモリ818は自動焦点検出に必要な光学情報が予め記憶されている。カメラMPU825は例えば内蔵する不揮発性メモリやレンズメモリ818に記憶されているプログラムを実行することで、レンズユニット800の動作を制御する。 A lens MPU 817 performs all calculations and controls related to the lens unit 800 and controls a zoom drive circuit 814 , an aperture drive circuit 815 and a focus drive circuit 816 . Also, the lens MPU 817 is connected to the camera MPU 825 through the mount M to communicate commands and data. For example, the lens MPU 817 detects the position of the focus lens 804 and notifies lens position information in response to a request from the camera MPU 825 . This lens position information includes the position of the focus lens 804 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the optical system is not moved, and the optical axis of the lens frame that limits the luminous flux of the exit pupil. It contains information such as position and diameter in direction OA. The lens MPU 817 also controls a zoom drive circuit 814 , an aperture drive circuit 815 and a focus drive circuit 816 in response to requests from the camera MPU 825 . A lens memory 818 preliminarily stores optical information necessary for automatic focus detection. The camera MPU 825 controls operations of the lens unit 800 by executing programs stored in, for example, an internal non-volatile memory or lens memory 818 .

カメラ本体820は、光学系(光学ローパスフィルタ821および撮像素子106)と、駆動/制御系とを有する。レンズユニット800の第1レンズ群801、絞り802、第2レンズ群803、フォーカスレンズ804と、カメラ本体820の光学ローパスフィルタ821は撮像光学系を構成する。 Camera body 820 has an optical system (optical low-pass filter 821 and imaging element 106) and a drive/control system. The first lens group 801, diaphragm 802, second lens group 803, and focus lens 804 of the lens unit 800 and the optical low-pass filter 821 of the camera body 820 constitute an imaging optical system.

光学ローパスフィルタ821は、撮影画像の偽色やモアレを軽減する。撮像素子106は、本実施形態で説明した撮像素子であり、マイクロレンズ、上部透明電極、瞳分割のための下部透明電極、有機光電変換膜、光導波路、Si光電変換部、および周辺回路で基本的に構成される。また、前述したように、撮像素子106は横方向(水平方向)に6000画素、縦方向(垂直方向)に4000画素が配置されている。本実施形態の撮像素子106は、光電変換部において瞳分割機能を有し、光電変換部からの信号に基づく画像データを用いた位相差AF(オートフォーカス)が可能である。画像処理回路824は、撮像素子106の光電変換部202から得られる画像データから位相差AF用のデータおよび動画像を生成する。さらに、画像処理回路824は、光電変換部202から得られる画像データから静止画像、表示、記録画像データを生成する。 The optical low-pass filter 821 reduces false colors and moiré in the captured image. The imaging device 106 is the imaging device described in this embodiment, and is basically composed of a microlens, an upper transparent electrode, a lower transparent electrode for pupil division, an organic photoelectric conversion film, an optical waveguide, a Si photoelectric conversion unit, and peripheral circuits. configured As described above, the image sensor 106 has 6000 pixels in the horizontal direction and 4000 pixels in the vertical direction. The image sensor 106 of this embodiment has a pupil division function in the photoelectric conversion unit, and is capable of phase difference AF (autofocus) using image data based on a signal from the photoelectric conversion unit. The image processing circuit 824 generates phase difference AF data and moving images from image data obtained from the photoelectric conversion unit 202 of the image sensor 106 . Furthermore, the image processing circuit 824 generates a still image, display, and recording image data from the image data obtained from the photoelectric conversion unit 202 .

駆動/制御系は、撮像素子駆動回路823、画像処理回路824、カメラMPU825、表示部826、操作スイッチ群827、メモリ828、および撮像面位相差検出部829を有する。なお、本実施形態の撮像装置においてはカメラMPU825に接続する不図示の通信部を備えるようにしてもよい。通信部はUSBやLAN等々の有線通信に限られるものではなく、無線LAN等の無線通信も含む。本実施形態の撮像装置は当該通信部経由で外部の外部装置から制御信号を取得可能であり、取得した制御信号に基づいて画像データ等を配信することも可能である。 The drive/control system has an image sensor drive circuit 823 , an image processing circuit 824 , a camera MPU 825 , a display section 826 , an operation switch group 827 , a memory 828 and an imaging plane phase difference detection section 829 . Note that the imaging apparatus of this embodiment may include a communication unit (not shown) connected to the camera MPU 825 . The communication unit is not limited to wired communication such as USB and LAN, and includes wireless communication such as wireless LAN. The imaging apparatus of this embodiment can acquire a control signal from an external device via the communication unit, and can distribute image data and the like based on the acquired control signal.

撮像素子駆動回路823は、撮像素子106の動作を制御するとともに、取得した動画像および静止画像信号をA/D変換してカメラMPU825に送信する。画像処理回路824は、撮像素子106が取得した各画像データに対し、例えばγ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行う。また、画像処理回路824は位相差AF用の信号(焦点検出用データ)も生成する。 The imaging device drive circuit 823 controls the operation of the imaging device 106 , A/D-converts the acquired moving image and still image signals, and transmits them to the camera MPU 825 . The image processing circuit 824 performs general image processing such as gamma conversion, white balance adjustment processing, color interpolation processing, compression encoding processing, etc. performed by a digital camera on each image data acquired by the image sensor 106 . The image processing circuit 824 also generates a phase difference AF signal (focus detection data).

カメラMPU825は、カメラ本体820に係る全ての演算、制御を行い、撮像素子駆動回路823、画像処理回路824、表示部826、操作スイッチ群827、メモリ828、撮像面位相差検出部829を制御する。カメラMPU825はマウントMを介してレンズMPU817と接続され、レンズMPU817とコマンドやデータを通信する。カメラMPU825はレンズMPU817に対し、レンズ位置の取得要求や、所定の駆動量での絞り、フォーカスレンズ、ズーム駆動要求や、レンズユニット800に固有の光学情報の取得要求などを要求する。カメラMPU825には、カメラ動作を制御するプログラムを格納したROM825a、変数を記憶するRAM825b、および諸パラメータを記憶するEEPROM825cが内蔵されている。 The camera MPU 825 performs all calculations and controls related to the camera main body 820, and controls the image sensor drive circuit 823, image processing circuit 824, display unit 826, operation switch group 827, memory 828, and imaging plane phase difference detection unit 829. . The camera MPU 825 is connected to the lens MPU 817 via the mount M and communicates commands and data with the lens MPU 817 . The camera MPU 825 requests the lens MPU 817 to acquire the lens position, to drive the aperture, focus lens, and zoom with a predetermined drive amount, and to acquire optical information specific to the lens unit 800 . The camera MPU 825 incorporates a ROM 825a storing programs for controlling camera operations, a RAM 825b storing variables, and an EEPROM 825c storing various parameters.

表示部826はLCD(Liquid Crystal Display)などから構成され、カメラの撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、焦点検出時の合焦状態の画像などを表示する。操作スイッチ群827は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。メモリ828は、着脱可能なフラッシュメモリであり、撮影済みの画像データを記録する。 A display unit 826 is composed of an LCD (Liquid Crystal Display) or the like, and displays information regarding the photographing mode of the camera, a preview image before photographing, a confirmation image after photographing, an in-focus image at the time of focus detection, and the like. The operation switch group 827 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. A memory 828 is a detachable flash memory, and records captured image data.

撮像面位相差検出部829は、画像処理回路824により得られる光電変換部202からの焦点検出用データを用いて位相差検出方式で焦点検出処理を行う。具体的には、画像処理回路824が、撮影光学系の一対の瞳領域を通過する光束で形成される光電変換部202からの一対の像データを焦点検出用データとして生成し、撮像面位相差検出部829はこの一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施形態の撮像面位相差検出部829は、専用のAFセンサを用いず、撮像素子106の出力に基づく位相差AF(撮像面位相差AF)を行う。 The imaging plane phase difference detection unit 829 uses focus detection data from the photoelectric conversion unit 202 obtained by the image processing circuit 824 to perform focus detection processing by a phase difference detection method. Specifically, the image processing circuit 824 generates a pair of image data from the photoelectric conversion unit 202 formed by a light flux passing through a pair of pupil regions of the imaging optical system as focus detection data, and calculates the imaging plane phase difference. The detection unit 829 detects the amount of defocus based on the amount of deviation between the pair of image data. Thus, the imaging plane phase difference detection unit 829 of the present embodiment performs phase difference AF (imaging plane phase difference AF) based on the output of the imaging element 106 without using a dedicated AF sensor.

以上のように、前述した構造の撮像画素を有する撮像素子をデジタルカメラ等の撮像装置に適用することによって、焦点検出精度の高い撮像装置を提供することができる。 As described above, by applying the image pickup element having the image pickup pixels having the structure described above to an image pickup apparatus such as a digital camera, it is possible to provide an image pickup apparatus with high focus detection accuracy.

(第2の実施形態)
以下、本発明の第2の実施形態について、図面を参照しながら説明する。以下、第1の実施形態と異なる点についてのみ説明する。撮像素子の基本的な構成は図1と同様であるが、撮像画素の構成は第1の実施形態と異なるため、以下に説明する。
(Second embodiment)
A second embodiment of the present invention will be described below with reference to the drawings. Only points different from the first embodiment will be described below. The basic configuration of the imaging element is the same as that of FIG. 1, but the configuration of the imaging pixels is different from that of the first embodiment, and will be described below.

図9は、図1(a)中の撮像画素102におけるzx面に平行な断面を表す模式図である。n型のシリコン基板901には、その表面側からイオン注入により形成された光電変換部902が設けられている。光電変換部902は中央分離領域911により副光電変換部902a、902bに電気的に分離され、それぞれに対応する画素領域が副画素となっている。 FIG. 9 is a schematic diagram showing a cross section parallel to the zx plane in the imaging pixel 102 in FIG. 1(a). An n-type silicon substrate 901 is provided with a photoelectric conversion section 902 formed by ion implantation from the surface side. The photoelectric conversion unit 902 is electrically separated into sub-photoelectric conversion units 902a and 902b by a central separation region 911, and the pixel regions corresponding to each are sub-pixels.

また、シリコン基板901には、その表面側に酸化シリコン(SiOx)からなる絶縁部904、複数の配線905からなる配線層、および絶縁部904を貫くように窒化シリコン(SiNx)からなる光導波路903が形成されている。ここで、淵部の領域910は、光導波路903における、シリコン基板901側とは反対側(つまり、マイクロレンズ909側)の淵部の領域を表している。光導波路903上方には、パシベーション膜906を介してカラーフィルター907が形成されており、さらにその上方にマイクロレンズ909が配置されている。 In addition, the silicon substrate 901 includes an insulating portion 904 made of silicon oxide (SiO x ) on the surface side, a wiring layer made of a plurality of wirings 905 , and a light guide made of silicon nitride (SiN x ) penetrating through the insulating portion 904 . A wave path 903 is formed. Here, the edge region 910 represents the edge region of the optical waveguide 903 on the side opposite to the silicon substrate 901 side (that is, on the microlens 909 side). A color filter 907 is formed above the optical waveguide 903 via a passivation film 906, and a microlens 909 is arranged above it.

撮像画素102の外部から入射される光は、マイクロレンズ909により集光されながら光導波路903へ導入される。そして、光導波路903内部において、側面における全反射(一部部分反射の場合もあり)により閉じ込められた状態で光が伝搬し、光電変換部902まで到達する。この時、光導波路903に光が閉じ込められているため、絶縁部904への光の漏れや、配線905での散乱、吸収などによる光の損失を回避することができる。 Light incident from the outside of the imaging pixel 102 is introduced into the optical waveguide 903 while being condensed by the microlens 909 . Inside the optical waveguide 903 , the light propagates while being confined by total reflection (or partial reflection) on the side surface, and reaches the photoelectric conversion section 902 . At this time, since light is confined in the optical waveguide 903, it is possible to avoid light loss due to leakage of light to the insulating portion 904, scattering and absorption in the wiring 905, and the like.

通常、撮像素子においては、その撮像面中央から同心円状に遠ざかるほど各画素上のマイクロレンズは、中央へシフトされている。例えば、画面中央からx方向へおよそ+10ミリメートルの像面上位置におけるマイクロレンズは、x方向に特定の量シフトされている。図10には、撮像面中央から遠い位置にある、マイクロレンズ1001がシフトされた撮像画素の例を示している。 Generally, in an imaging device, the microlens on each pixel is shifted toward the center as the distance from the center of the imaging surface increases concentrically. For example, a microlens at an image plane position approximately +10 millimeters in the x-direction from screen center is shifted a certain amount in the x-direction. FIG. 10 shows an example of an imaging pixel in which the microlens 1001 is shifted far from the center of the imaging plane.

しかしながら、このように中央位置から離れた像面位置における画素では、図10中の矢印1002で示されるような光線は光導波路903の淵部の領域910に衝突してしまい、光導波路903へ光が直接入射されない。光導波路へ直接入射される光は、マイクロレンズによる集光分布を基本的に保ちながら、光電変換部に導入される。これに対し、淵部の領域910に衝突してしまう光は、それ自身が損失に寄与してしまうだけでなく、むしろ光導波路の側面外側から光導波路内部に入射されることになり、光導波路内部の電磁場の分布を乱す原因となってしまう。光電変換部が分割された瞳分割による位相差方式の焦点検出においては、この電磁場分布の乱れが、焦点検出精度の低下に影響してしまう。 However, in a pixel at an image plane position distant from the central position, a light ray indicated by an arrow 1002 in FIG. is not directly incident. The light that is directly incident on the optical waveguide is introduced into the photoelectric conversion section while basically maintaining the light collection distribution by the microlenses. On the other hand, the light that collides with the edge region 910 not only contributes to the loss itself, but rather enters the optical waveguide from the outside of the side surface of the optical waveguide. It becomes a cause of disturbing the distribution of the internal electromagnetic field. In phase-difference focus detection based on pupil division in which the photoelectric conversion unit is divided, this disturbance in the electromagnetic field distribution affects focus detection accuracy.

そこで本実施形態においては、図11で示すように、図10の撮像画素102の光導波路903における淵部の領域910よりもマイクロレンズ909側に、厚さ30nm程度のタングステン(W)からなる遮光部1101を設けている。なお、遮光部1101の材料は、入射される光を吸収、散乱、または反射することによって遮る特性を有する材料であれば、タングステンに限定されない。これにより、図10中の矢印1002で示す方向から入射された光が遮光部1101で反射、吸収され、有効に散乱されることによって、光導波路903内部の電磁場分布の攪乱を回避、抑制することが可能となる。つまり、瞳分割による位相差方式の焦点検出精度の低下を抑制することができる。光導波路903の淵部の領域910と遮光部1101との距離1102は、画素において扱う光の波長帯域の中心波長またはピーク波長よりも小さいことが好ましい。このことにより、淵部の領域910と遮光部1101との間を抜けて隣接画素へ漏れ出る光を抑制することができる。 Therefore, in the present embodiment, as shown in FIG. 11, a light shielding film made of tungsten (W) having a thickness of about 30 nm is placed closer to the microlens 909 than the edge region 910 of the optical waveguide 903 of the imaging pixel 102 of FIG. A portion 1101 is provided. Note that the material of the light shielding portion 1101 is not limited to tungsten as long as it is a material that has a property of blocking incident light by absorbing, scattering, or reflecting it. As a result, light incident from the direction indicated by arrow 1002 in FIG. 10 is reflected, absorbed, and effectively scattered by the light shielding portion 1101, thereby avoiding or suppressing the disturbance of the electromagnetic field distribution inside the optical waveguide 903. becomes possible. That is, it is possible to suppress deterioration in the focus detection accuracy of the phase difference method due to pupil division. A distance 1102 between the edge region 910 of the optical waveguide 903 and the light shielding portion 1101 is preferably smaller than the center wavelength or peak wavelength of the wavelength band of light handled in the pixel. As a result, it is possible to suppress the light leaking to the adjacent pixels through the space between the edge region 910 and the light shielding portion 1101 .

図12(a)および図12(b)は、中央位置から離れた像面上位置での光導波路を有する画素の断面を示す図であり、濃淡はポインティングベクトルの大きさの分布を表わしている。この分布は、マイクロレンズ上方からz-x面内でz軸と3度の角度をもって像面中央に傾いた方向から波長550nmの平面波を入射させたときの定常状態を示すものである。図12(a)および図12(b)ともに、ポインティングベクトルの強度を表す白黒の濃淡のスケールは同等である。図12(a)の撮像画素の光電変換部は、電気的に副光電変換部1204a、1204bに分割されている。同様に、図12(b)の撮像画素の光電変換部は、電気的に副光電変換部1205a、1205bに分割されている。 FIGS. 12(a) and 12(b) are cross-sections of a pixel having an optical waveguide at a position on the image plane away from the central position, and the shading represents the Poynting vector magnitude distribution. . This distribution shows a steady state when a plane wave with a wavelength of 550 nm is incident from above the microlens in the zx plane at an angle of 3 degrees with respect to the z-axis toward the center of the image plane. In both FIGS. 12(a) and 12(b), the gray scale of black and white representing the strength of the Poynting vector is the same. The photoelectric conversion unit of the imaging pixel in FIG. 12A is electrically divided into secondary photoelectric conversion units 1204a and 1204b. Similarly, the photoelectric conversion unit of the imaging pixel in FIG. 12B is electrically divided into secondary photoelectric conversion units 1205a and 1205b.

図12(a)の光導波路の淵部の領域の近くには遮光部が設けられておらず、図12(b)の光導波路の淵部の領域近傍には、タングステンからなる厚さ30nmの遮光部1203が設けられている。図12(a)に示す例では、淵部の領域で入射された光が散乱され、さらに光導波路の側面から内部へ入る光により、光導波路の内部の電磁場分布が攪乱される。その結果、主に副光電変換部1204bに入射されるべき光の多くが、領域1201に示すように、反対側の副光電変換部1204aに入射していることがわかる。 No light shielding part is provided near the edge region of the optical waveguide in FIG. A light shielding portion 1203 is provided. In the example shown in FIG. 12(a), the incident light is scattered in the region of the edge, and the light entering from the side surface of the optical waveguide disturbs the electromagnetic field distribution inside the optical waveguide. As a result, as shown in the region 1201, most of the light that should be incident mainly on the secondary photoelectric conversion unit 1204b is incident on the secondary photoelectric conversion unit 1204a on the opposite side.

これに対し、図12(b)に示す例では、光導波路の内部において電磁場分布の大きな攪乱は見られず、領域1202からわかるとおり、多くの光が本来入るべき副光電変換部1205bに入射していることがわかる。図12(b)のように遮光部を設けた構成とすることにより、瞳分割性能の低下を抑制し、焦点検出精度を向上させることが可能である。なお、瞳分割の位相差方式での焦点検出方法は、第1の実施形態で説明した内容と同様である。 On the other hand, in the example shown in FIG. 12(b), no significant disturbance of the electromagnetic field distribution is observed inside the optical waveguide, and as can be seen from the region 1202, a large amount of light is incident on the secondary photoelectric conversion portion 1205b, which is supposed to enter. It can be seen that By adopting a configuration in which a light shielding portion is provided as shown in FIG. 12B, it is possible to suppress deterioration in pupil division performance and improve focus detection accuracy. Note that the focus detection method in the phase difference method of pupil division is the same as that described in the first embodiment.

以上のように本実施形態によれば、光導波路903の淵部の領域910よりもマイクロレンズ909側の位置に、遮光部1101を設けるようにしたので、焦点検出精度を向上させることができる。なお、本実施形態に係る撮像素子をデジタルカメラなどの撮像装置に適用すれば、焦点検出精度の高い撮像装置を提供することができる。撮像装置の詳細については第1の実施形態と同様である。 As described above, according to the present embodiment, since the light blocking portion 1101 is provided at a position closer to the microlens 909 than the edge region 910 of the optical waveguide 903, focus detection accuracy can be improved. By applying the image pickup device according to the present embodiment to an image pickup apparatus such as a digital camera, it is possible to provide an image pickup apparatus with high focus detection accuracy. Details of the imaging device are the same as in the first embodiment.

(第3の実施形態)
以下、本発明の第3の実施形態について、図面を参照しながら説明する。以下、第2の実施形態と異なる点についてのみ説明する。撮像素子の基本的な構成は図1と同様であるが、撮像画素の構成は第2の実施形態と異なるため、以下に説明する。
(Third embodiment)
A third embodiment of the present invention will be described below with reference to the drawings. Only points different from the second embodiment will be described below. The basic configuration of the imaging device is the same as that of FIG. 1, but the configuration of the imaging pixels is different from that of the second embodiment, and will be described below.

図13は、本実施形態において、図1(a)中の撮像画素102におけるzx面に平行な断面を表す模式図である。以下、図9との相違点についてのみ説明する。シリコン基板901には、その表面上側に酸化シリコン(SiOx)からなる絶縁部1301、複数の配線905からなる配線層、および絶縁部1301に埋め込まれるように窒化シリコン(SiNx)からなる光導波路1302が形成されている。本実施形態においては、光導波路1302において、シリコン基板901側とは反対側に淵部の領域は存在しない。そのため、光導波路1302の上方には、光導波路1302側部の絶縁部1301が連続して配置されていることになる。 FIG. 13 is a schematic diagram showing a cross section parallel to the zx plane in the imaging pixel 102 in FIG. 1A in this embodiment. Only differences from FIG. 9 will be described below. The silicon substrate 901 has an insulating portion 1301 made of silicon oxide (SiO x ) on the upper surface thereof, a wiring layer made of a plurality of wirings 905 , and an optical waveguide made of silicon nitride (SiN x ) embedded in the insulating portion 1301 . 1302 is formed. In this embodiment, the edge region does not exist on the side opposite to the silicon substrate 901 side in the optical waveguide 1302 . Therefore, the insulating portion 1301 on the side of the optical waveguide 1302 is arranged continuously above the optical waveguide 1302 .

このように本実施形態の画素構成では、絶縁部1301に光導波路1302が埋め込まれ、図9に示すような淵部の領域910が存在しない。そのため、淵部での散乱、反射などの悪影響を考慮する必要がなく、焦点検出精度の低下を回避することができる。 As described above, in the pixel configuration of this embodiment, the optical waveguide 1302 is embedded in the insulating portion 1301, and the edge region 910 as shown in FIG. 9 does not exist. Therefore, there is no need to consider adverse effects such as scattering and reflection at the edges, and a decrease in focus detection accuracy can be avoided.

(第4の実施形態)
以下、本発明の第4の実施形態について、図面を参照しながら説明する。図15は、本実施形態における撮像素子の撮像画素および焦点検出画素の配列の概略を説明するための図である。図15において、2次元CMOSセンサー(撮像素子)の画素(撮像画素)配列を4列×4行の範囲で示し、さらに焦点検出画素の配列を8列×4行の範囲で示す。
(Fourth embodiment)
A fourth embodiment of the present invention will be described below with reference to the drawings. FIG. 15 is a diagram for explaining an outline of the arrangement of imaging pixels and focus detection pixels of the imaging element in this embodiment. In FIG. 15, the pixel (imaging pixel) array of a two-dimensional CMOS sensor (imaging device) is shown in a range of 4 columns×4 rows, and the array of focus detection pixels is shown in a range of 8 columns×4 rows.

図15の左上の位置に2列×2行の画素群1500を示す。画素群1500においては、R(赤)の分光感度を有する撮像画素1500Rが左上に、G(緑)の分光感度を有する撮像画素1500Gが右上と左下に、B(青)の分光感度を有する撮像画素1500Bが右下に配置されている。さらに各画素は、2列×1行に配列された第1焦点検出画素(副画素)1501と第2焦点検出画素(副画素)1502とにより構成されている。 A pixel group 1500 of 2 columns×2 rows is shown in the upper left position of FIG. In the pixel group 1500, an imaging pixel 1500R having R (red) spectral sensitivity is located at the upper left, imaging pixels 1500G having G (green) spectral sensitivity are located at the upper right and lower left, and imaging pixels having B (blue) spectral sensitivity are located. Pixel 1500B is located at the bottom right. Further, each pixel is composed of a first focus detection pixel (sub-pixel) 1501 and a second focus detection pixel (sub-pixel) 1502 arranged in 2 columns×1 row.

なお、撮像素子の撮像面上には、画素群1500が多数配列されているが、説明を簡略化するために、図15では、4列×4行の撮像画素(8列×4行の焦点検出画素)が配列されている様子を示すものとする。これら多数の配列により、撮像画像および焦点検出信号の取得を可能としている。本実施形態では、画素の周期Pが1.0μm、画素数Nが横5575列×縦3725行=約2075万画素、焦点検出画素の列方向周期PAFが0.5μm、焦点検出画素数NAFが横11150列×縦3725行=約4153万画素の撮像素子として説明を行う。 Note that although a large number of pixel groups 1500 are arranged on the imaging surface of the imaging device, in order to simplify the explanation, FIG. detection pixels) are arranged. A large number of these arrays enable acquisition of captured images and focus detection signals. In this embodiment, the pixel period P is 1.0 μm, the number of pixels N is 5575 horizontal columns×3725 vertical rows=approximately 20.75 million pixels, the column direction period P AF of the focus detection pixels is 0.5 μm, and the number of focus detection pixels N Description will be made assuming that the AF is an imaging device with 11,150 horizontal columns×3,725 vertical rows=approximately 41,530,000 pixels.

図15に示した撮像素子の1つの撮像画素1500Gを、撮像素子の受光面側(+z側)から見た平面図を図16(a)に示し、図16(a)のa-a断面を-y側から見た断面図を図16(b)に示す。なお、図16に示す例では、G(緑)の分光感度を有する撮像画素1500Gを例としているが、R(赤)の分光感度を有する撮像画素1500R、およびB(青)の分光感度を有する撮像画素1500Bにおいても同様の構成であるものとする。 FIG. 16A shows a plan view of one imaging pixel 1500G of the imaging element shown in FIG. A cross-sectional view seen from the -y side is shown in FIG. In the example shown in FIG. 16, the imaging pixel 1500G having a spectral sensitivity of G (green) is taken as an example, but the imaging pixel 1500R having a spectral sensitivity of R (red) and the spectral sensitivity of B (blue) are used. It is assumed that the imaging pixel 1500B also has a similar configuration.

図16(b)に示すように、本実施形態に係る撮像画素は、シリコン基板表面付近において、副光電変換部1601a、1601bから構成される光電変換部1601を備える。また、本実施形態に係る撮像画素は、結像光学系から入射される光を集光して撮像画素に導入するためのトップマイクロレンズ1605を備える。トップマイクロレンズ1605と光電変換部1601との間には、酸化シリコン(SiOx)からなる絶縁部1600、複数の配線1613からなる配線層、および効率よく光を光電変換部1601に導くための光導波路1610が設けられている。画素の設計によっては、インナーレンズ1606を設けてもよい。この画素構造により、撮像画素に入射される光は、トップマイクロレンズ1605により集光され、カラーフィルター(不図示)で分光されて光導波路1610を伝搬する。 As shown in FIG. 16B, the imaging pixel according to this embodiment includes a photoelectric conversion unit 1601 including secondary photoelectric conversion units 1601a and 1601b near the surface of the silicon substrate. In addition, the imaging pixel according to this embodiment includes a top microlens 1605 for condensing light incident from the imaging optical system and introducing the light into the imaging pixel. Between the top microlens 1605 and the photoelectric conversion section 1601, an insulating section 1600 made of silicon oxide (SiO x ), a wiring layer made up of a plurality of wirings 1613, and a light guide for efficiently guiding light to the photoelectric conversion section 1601 are provided. A wave path 1610 is provided. An inner lens 1606 may be provided depending on the pixel design. With this pixel structure, light incident on the image pickup pixel is collected by the top microlens 1605 , dispersed by a color filter (not shown), and propagated through the optical waveguide 1610 .

また、図16(c)~図16(e)は、画素に入射する光がどのように画素内を伝搬するかを説明するための図である。図16(c)~図16(e)では、特定の角度で入射する平面波の伝搬の様子をFDTD法(Finite Difference Time Domain Method:時間領域差分法)により計算した結果を示している。ここで、トップマイクロレンズ1605の焦点位置1607も併せて示す。なお、焦点位置1607から位置1608aまでの範囲、および焦点位置1607から位置1608bまでの範囲は、それぞれ、トップマイクロレンズ1605の片側焦点深度の範囲を示している。 16(c) to 16(e) are diagrams for explaining how the light incident on the pixel propagates within the pixel. FIGS. 16(c) to 16(e) show the results of calculation by the FDTD method (Finite Difference Time Domain Method) of the propagation state of a plane wave incident at a specific angle. Here, the focal position 1607 of the top microlens 1605 is also shown. A range from the focal position 1607 to the position 1608a and a range from the focal position 1607 to the position 1608b respectively indicate the one-side focal depth range of the top microlens 1605. FIG.

図16(d)に示すように、光が光軸(z方向に平行)に対して0°で入射した場合は、2つの副光電変換部1601a、1601bで受光される受光量がほぼ同じになる。これに対して、図16(c)に示すように、光が光軸に対して-15°で入射した場合は、副光電変換部1601bで受光される受光量がより多くなる。一方、図3(e)に示すように、光が光軸に対して15°で入射した場合は、副光電変換部1601aで受光される受光量がより多くなる。副光電変換部1601a、1601bでは、受光量に応じて電子とホールが対生成し、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子の外部へ排出される。 As shown in FIG. 16D, when light is incident at an angle of 0° to the optical axis (parallel to the z-direction), the amounts of light received by the two secondary photoelectric conversion units 1601a and 1601b are almost the same. Become. On the other hand, as shown in FIG. 16(c), when the light is incident at −15° with respect to the optical axis, the amount of light received by the secondary photoelectric conversion unit 1601b increases. On the other hand, as shown in FIG. 3E, when light is incident at an angle of 15° to the optical axis, the amount of light received by the sub-photoelectric converter 1601a increases. In the secondary photoelectric conversion units 1601a and 1601b, pairs of electrons and holes are generated according to the amount of light received, and after separation in the depletion layer, negatively charged electrons are accumulated in the n-type layer (not shown). On the other hand, holes are discharged to the outside of the imaging device through the p-type layer connected to a constant voltage source (not shown).

図17は、図16に示した画素構造と瞳分割との対応関係の概略を説明するための図である。図17の下部には、図16(a)に示した画素構造のa-a断面を+y側から見た断面を示し、図17の上部に結像光学系の射出瞳面を示す。なお、図17では、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図16に対して反転させている。 FIG. 17 is a diagram for explaining the outline of the correspondence relationship between the pixel structure and pupil division shown in FIG. The lower part of FIG. 17 shows a cross section of the pixel structure shown in FIG. 16(a) taken along line aa from the +y side, and the upper part of FIG. 17 shows the exit pupil plane of the imaging optical system. In FIG. 17, the x-axis and y-axis of the sectional view are reversed with respect to FIG. 16 in order to correspond to the coordinate axes of the exit pupil plane.

図17において、第1瞳部分領域1701は、重心が-X方向に偏心している副光電変換部1601aの受光面と、トップマイクロレンズ1605によって概ね共役関係になっており、第1焦点検出画素1501が受光可能な瞳領域を表している。第1瞳部分領域1701は、瞳面上で+X側に重心が偏心している。 In FIG. 17, the first pupil partial region 1701 and the light-receiving surface of the sub-photoelectric conversion unit 1601a whose center of gravity is decentered in the -X direction are in a substantially conjugate relationship due to the top microlens 1605. represents the pupil region where light can be received. The center of gravity of the first pupil partial region 1701 is decentered on the +X side on the pupil plane.

一方、第2瞳部分領域1702は、重心が+X方向に偏心している光電変換部1601bの受光面と、トップマイクロレンズ1605によって概ね共役関係になっており、第2焦点検出画素1502で受光可能な瞳領域を表している。第2瞳部分領域1702は、瞳面上で-X側に重心が偏心している。また、図17において、瞳領域1700は、2つの副光電変換部1601a、1601bを全て合わせた際の撮像画素1500G全体で受光可能な瞳領域である。なお、瞳分割による位相差方式での焦点検出方法は、第1の実施形態で説明した方法と同様である。 On the other hand, the second pupil partial region 1702 has a substantially conjugate relationship with the light receiving surface of the photoelectric conversion unit 1601b whose center of gravity is decentered in the +X direction by the top microlens 1605, and can be received by the second focus detection pixel 1502. It represents the pupil area. The center of gravity of the second pupil partial region 1702 is decentered on the -X side on the pupil plane. Also, in FIG. 17, a pupil region 1700 is a pupil region where light can be received by the entire imaging pixel 1500G when the two sub-photoelectric conversion units 1601a and 1601b are combined. Note that the focus detection method by the phase difference method by pupil division is the same as the method described in the first embodiment.

第1瞳部分領域1701と第2瞳部分領域1702との異なる瞳部分領域を通過した光束は、撮像画素の各画素に、それぞれ、異なる角度で入射し、2分割された第1焦点検出画素1501と第2焦点検出画素1502とで受光される。本実施形態の撮像画素は、第1焦点検出画素1501で結像光学系の第1瞳部分領域1701を通過する光束を受光し、第2焦点検出画素1502で第2瞳部分領域1702を通過する光束を受光する。つまり、本実施形態に係る撮像素子は、第1瞳部分領域1701から第2瞳部分領域1702全てを合わせた瞳領域1700を通過する光束を受光する撮像画素が複数配列されている。 The luminous flux that has passed through different pupil partial areas of the first pupil partial area 1701 and the second pupil partial area 1702 is incident on each pixel of the imaging pixel at a different angle, and the first focus detection pixel 1501 divided into two and the second focus detection pixel 1502 . In the imaging pixel of this embodiment, the first focus detection pixel 1501 receives a light flux passing through the first pupil partial area 1701 of the imaging optical system, and the second focus detection pixel 1502 receives the light flux passing through the second pupil partial area 1702. Receiving light flux. In other words, in the image sensor according to this embodiment, a plurality of imaging pixels are arranged to receive light beams passing through a pupil region 1700 including all of the first partial pupil region 1701 to the second partial pupil region 1702 .

なお、必要に応じて、撮像画素、第1焦点検出画素、および第2焦点検出画素をそれぞれ個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素と第2焦点検出画素とを部分的に配置する構成としても良い。本実施形態では、撮像素子の各撮像画素の第1焦点検出画素1501を第1焦点信号として生成し、撮像素子の各撮像画素の第2焦点検出画素1502を第2焦点信号として生成し、焦点検出を行う。また、撮像画素の各画素で、第1焦点検出画素1501、第2焦点検出画素1502を加算することで、有効画素数の解像度の撮像信号(撮像画像)を生成する。 Note that, if necessary, the imaging pixels, the first focus detection pixels, and the second focus detection pixels may be configured individually, and the first focus detection pixels and the second focus detection pixels may be included in part of the imaging pixel array. may be partially arranged. In this embodiment, the first focus detection pixel 1501 of each image pickup pixel of the image sensor is generated as the first focus signal, the second focus detection pixel 1502 of each image sensor of the image sensor is generated as the second focus signal, and the focus signal is generated. detect. Also, by adding the first focus detection pixel 1501 and the second focus detection pixel 1502 in each pixel of the imaging pixels, an imaging signal (captured image) having a resolution corresponding to the number of effective pixels is generated.

次に、RGBの各画素における屈折率について説明する。図18は、撮像画素に配置されたトップマイクロレンズ1605とトップマイクロレンズ1605により集光された光のビームウェスト半径とを説明するための図である。図18において、光束1801はトップマイクロレンズ1605から導光された光束である。ここで、トップマイクロレンズ1605の絞り込み角をα、トップマイクロレンズ1605の焦点距離をf、トップマイクロレンズ1605の直径をD、トップマイクロレンズ1605と光電変換部1601との間の有効屈折率をn'、光の波長をλとする。この場合、波長λの光をトップマイクロレンズ1605で集光したときのビームウェスト半径(光の最小スポット半径)wは、Rayleighの分解能(回折限界時)の式を用いて以下の式(1)で定義される。
w=1.22×fλ/n'D ・・・(1)
Next, the refractive index of each pixel of RGB will be described. FIG. 18 is a diagram for explaining the top microlens 1605 arranged in the imaging pixel and the beam waist radius of the light condensed by the top microlens 1605 . In FIG. 18, a luminous flux 1801 is a luminous flux guided from the top microlens 1605 . where α is the aperture angle of the top microlens 1605, f is the focal length of the top microlens 1605, D is the diameter of the top microlens 1605, and n is the effective refractive index between the top microlens 1605 and the photoelectric conversion unit 1601. ', and let the wavelength of light be λ. In this case, the beam waist radius (minimum spot radius of light) w when the light of wavelength λ is condensed by the top microlens 1605 is expressed by the following formula (1) using Rayleigh's formula for resolution (at the diffraction limit): defined by
w=1.22×fλ/n′D (1)

実際の画素構造ではいくつものレイヤーが積層されているため、トップマイクロレンズと光電変換部との間の屈折率は固定値に定まっていない。ところが、本実施形態のように光導波路の割合が大きい撮像画素では、トップマイクロレンズと光電変換部との間の屈折率を有効屈折率n'として考えた場合、光導波路の屈折率nの影響が大きい。そのため、式(1)中の有効屈折率n'は、光導波路内の屈折率nに大きく依存する。よって、式(1)より原理的に、トップマイクロレンズ1605で集光される光の最小スポット半径wは波長λに比例し、屈折率nに反比例することが分かる。 Since a number of layers are stacked in an actual pixel structure, the refractive index between the top microlens and the photoelectric conversion section is not set to a fixed value. However, in an imaging pixel having a large proportion of the optical waveguide as in this embodiment, when the refractive index between the top microlens and the photoelectric conversion portion is considered as the effective refractive index n′, the influence of the refractive index n of the optical waveguide is is large. Therefore, the effective refractive index n' in Equation (1) largely depends on the refractive index n in the optical waveguide. Therefore, it can be seen from equation (1) that the minimum spot radius w of the light condensed by the top microlens 1605 is in principle proportional to the wavelength λ and inversely proportional to the refractive index n.

本実施形態の撮像素子では、撮像画素のサイズが1.0μmで、これを瞳分割した際の副画素のサイズは単純に0.5μmである。図15で示すような画素群の撮像素子は、R(赤)、G(緑)、B(青)の波長帯域に対応する光を受光する画素により構成されているため、各色に対応した画素内を伝搬する光の波長は異なる。つまり、赤色、緑色、青色の順で波長が短くなっている。 In the image pickup device of this embodiment, the size of the image pickup pixel is 1.0 μm, and the size of the sub-pixel when pupil division is performed is simply 0.5 μm. Since the imaging element of the pixel group as shown in FIG. 15 is composed of pixels that receive light corresponding to the wavelength bands of R (red), G (green), and B (blue), pixels corresponding to each color The wavelengths of light propagating within are different. That is, the wavelength becomes shorter in the order of red, green, and blue.

光導波路内部の屈折率が同一である場合、式(1)より波長λが短いほど光の最小スポット半径wは小さくなり、波長λが長いほど光の最小スポット半径wが大きくなる。例えば、光導波路内部の屈折率nがSiO2の屈折率(およそ1.46)である場合、赤色の撮像画素では、分割された副光電変換部に光を導入することは困難である。2つの副光電変換部に対応するように光導波路が分割された構成としてもよいが、この場合でも分割された光導波路に光を導入することが困難であり、長い波長の光ほど受光されなくなる。 When the refractive index inside the optical waveguide is the same, the shorter the wavelength λ, the smaller the minimum spot radius w of light, and the longer the wavelength λ, the larger the minimum spot radius w of light, according to equation (1). For example, when the refractive index n inside the optical waveguide is the refractive index of SiO 2 (approximately 1.46), it is difficult for red imaging pixels to introduce light into the divided sub-photoelectric conversion portions. The optical waveguide may be divided so as to correspond to the two sub-photoelectric conversion portions, but even in this case, it is difficult to introduce light into the divided optical waveguides, and the longer the wavelength of the light, the less light is received. .

この状況を解決するために、本実施形態の撮像素子における撮像画素では、Rの画素における光導波路内部の屈折率が最も高くなるように構成されている。R、G、Bの画素の光導波路内部の屈折率をそれぞれnR、nG、nBとした場合、nR>nG>nBの関係となるように構成されている。このことにより、波長が長い光でも狭い副光電変換部、または光導波路に光を導入することができる。 In order to solve this situation, the imaging pixels in the imaging element of the present embodiment are configured so that the refractive index inside the optical waveguide is the highest in the R pixels. When the refractive indices inside the optical waveguides of the R, G, and B pixels are nR, nG, and nB, respectively, the relationship is such that nR>nG>nB. As a result, even light with a long wavelength can be introduced into the narrow auxiliary photoelectric conversion section or optical waveguide.

また、R画素の瞳分割性能が低下するのを回避する方法の1つとして、撮像素子全体の光導波路の屈折率nを十分に大きくする方法が考えられる。しかしながら、この方法では小画素化に伴い、画素間の分離性能は低下する一方であり、画素間でのクロストークが増大するといった課題が発生する。したがって、光導波路内部の屈折率をnR>nG>nBの関係を満たすように構成することで、光学的な画素間でのクロストークを低減することができる。 Also, as one method of avoiding the deterioration of the pupil division performance of the R pixel, a method of sufficiently increasing the refractive index n of the optical waveguide of the entire image sensor is conceivable. However, in this method, as pixels are made smaller, separation performance between pixels is degraded, and a problem arises in that crosstalk between pixels increases. Therefore, by configuring the refractive index inside the optical waveguide so as to satisfy the relationship nR>nG>nB, optical crosstalk between pixels can be reduced.

図19は、R画素,G画素,B画素の間でのクロストークが発生する方向を説明するための図である。図19(a)は、R画素,G画素,B画素の光導波路内の屈折率が全て同じ屈折率nである場合を示している。また、図19(b)は、R画素の屈折率をnR、G画素の屈折率をnG、R画素の屈折率をnRとした場合に、屈折率の大きさがnR>nG>nBの関係である場合を示している。 FIG. 19 is a diagram for explaining directions in which crosstalk occurs among R, G, and B pixels. FIG. 19A shows a case where the refractive indices in the optical waveguides of R, G and B pixels are all the same refractive index n. Further, FIG. 19B shows a relationship of nR>nG>nB where nR is the refractive index of the R pixel, nG is the refractive index of the G pixel, and nR is the refractive index of the R pixel. It shows the case where .

R,G,Bの波長の長さに応じて光導波路の屈折率の大きさを変更すると、さらに、画素間でのクロストークの発生源となる不必要な光束が光導波路に導光しづらくなる。図19(b)のR画素とG画素を用いて具体的に説明する。 If the refractive index of the optical waveguide is changed according to the length of the wavelengths of R, G, and B, it becomes difficult to guide unnecessary light beams that cause crosstalk between pixels into the optical waveguide. Become. A specific description will be given using the R pixel and the G pixel in FIG. 19(b).

光導波路の屈折率が同じ場合は、R画素に入射した光における光束の最小スポット半径は、G画素に入射した光における光束の最小スポット半径よりも大きい。そのため、R画素の屈折率nRおよびG画素の屈折率nGを適切に設定することで、R画素に入射した光束がG画素にクロストークしにくくすることができる。このように、G画素からR画素へのクロストークは軽減できないが、R画素からG画素へのクロストークは軽減することはできる。G画素とB画素との間でも同様であり、さらにB画素の屈折率nBを適切に設定することで、G画素からB画素へのクロストークを軽減することができる。 If the optical waveguides have the same refractive index, the minimum spot radius of the light flux incident on the R pixel is larger than the minimum spot radius of the light flux incident on the G pixel. Therefore, by appropriately setting the refractive index nR of the R pixel and the refractive index nG of the G pixel, it is possible to prevent the luminous flux incident on the R pixel from crosstalking with the G pixel. Thus, crosstalk from G pixels to R pixels cannot be reduced, but crosstalk from R pixels to G pixels can be reduced. The same is true between the G pixel and the B pixel, and crosstalk from the G pixel to the B pixel can be reduced by appropriately setting the refractive index nB of the B pixel.

以上のように本実施形態によれば、波長の長いR画素の瞳分割性能の低下を回避しつつ、画素間でのクロストークを抑制することができる。なお、本実施形態においてはG画素を1種類の画素として説明したが、R画素と水平方向に隣接するG画素をGr画素、B画素と水平方向に隣接するG画素をGb画素として区別してもよい。隣接画素からの光学的な漏れを考慮すると、Gr画素とGb画素とで分光感度が異なる場合がある。そこでGr画素とGb画素とでさらに光導波路の屈折率が異なるようにしてもよい。 As described above, according to the present embodiment, it is possible to suppress crosstalk between pixels while avoiding deterioration in pupil division performance of R pixels having a long wavelength. In the present embodiment, G pixels are described as one type of pixel. However, G pixels horizontally adjacent to R pixels may be distinguished as Gr pixels, and G pixels horizontally adjacent to B pixels may be distinguished as Gb pixels. good. Considering optical leakage from adjacent pixels, Gr pixels and Gb pixels may have different spectral sensitivities. Therefore, the refractive index of the optical waveguide may be made different between the Gr pixel and the Gb pixel.

また、最低限、赤色の撮像画素の最小スポット半径を小さくすれば、狭い副光電変換部または光導波路に光を導入することができる。したがって、赤色の撮像画素の光導波路の屈折率のみを他色よりも大きくし、緑色及び青色の撮像画素の光導波路の屈折率は同じであってもよい。 Also, if the minimum spot radius of the red image pickup pixel is reduced, light can be introduced into the narrow sub-photoelectric conversion section or optical waveguide. Therefore, the refractive index of the optical waveguide of the imaging pixel for red may be made larger than that of the other colors, and the refractive indexes of the optical waveguides of the imaging pixels of green and blue may be the same.

次に、本実施形態に係る撮像素子を用いた撮像装置の例について、図14を参照しながら説明する。図14は、本実施形態に係る撮像装置であるデジタルカメラの機能構成例を示すブロック図であり、前述した撮像素子を有するものである。なお、本実施形態では、撮像装置の一例としてデジタルカメラについて説明するが、前述の撮像素子を有する撮像装置として、携帯電話、監視カメラ、移動体カメラ、医療用カメラ等であってもよい。本実施形態の撮像装置では、撮像素子の光電変換部からの信号を瞳分割位相差方式の焦点調節に用いると同時に、撮像信号としても用いる。 Next, an example of an imaging device using the imaging device according to this embodiment will be described with reference to FIG. FIG. 14 is a block diagram showing a functional configuration example of a digital camera, which is an image pickup apparatus according to this embodiment, and has the above-described image pickup device. In this embodiment, a digital camera will be described as an example of an imaging device, but a mobile phone, a surveillance camera, a mobile camera, a medical camera, or the like may be used as an imaging device having the above-described imaging device. In the image pickup apparatus of this embodiment, the signal from the photoelectric conversion unit of the image pickup device is used for the focus adjustment of the pupil division phase difference method, and at the same time, it is also used as the image pickup signal.

図14において、結像光学系の先端に配置された第1レンズ群1401は、光軸方向に進退可能に保持される。絞り兼用シャッタ1402は、その開口径を調節することで撮影時の光量調節を行い、さらに静止画撮影時には露光秒時調節用シャッタとしての機能も備える。そして、絞り兼用シャッタ1402及び第2レンズ群1403は一体となって光軸方向に進退し、第1レンズ群1401の進退動作との連動により、変倍作用(ズーム機能)をなす。 In FIG. 14, the first lens group 1401 arranged at the tip of the imaging optical system is held so as to be able to move back and forth along the optical axis. The diaphragm/shutter 1402 adjusts the aperture diameter to adjust the amount of light during photography, and also functions as a shutter for adjusting the exposure time during still image photography. The aperture/shutter 1402 and the second lens group 1403 move forward and backward together in the optical axis direction.

第3レンズ群1405は、光軸方向の進退により、焦点調節を行う。光学的ローパスフィルタ1406は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子1407は2次元CMOSフォトセンサーと周辺回路からなり、結像光学系の結像面に配置される。なお、本実施形態では、前述したように色によって屈折率が異なる撮像画素を有する撮像素子が用いられる。 The third lens group 1405 adjusts the focus by advancing and retreating in the optical axis direction. An optical low-pass filter 1406 is an optical element for reducing false colors and moiré in a captured image. The imaging element 1407 is composed of a two-dimensional CMOS photosensor and peripheral circuits, and is arranged on the imaging plane of the imaging optical system. In addition, in this embodiment, as described above, an image pickup element having image pickup pixels having different refractive indices depending on colors is used.

ズームアクチュエータ1411は、不図示のカム筒を回動することで、第1レンズ群1401~第3レンズ群1405を光軸方向に進退駆動し、変倍操作を行う。絞りシャッタアクチュエータ1412は、絞り兼用シャッタ1402の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ1414は、第3レンズ群1405を光軸方向に進退駆動して焦点調節を行う。 A zoom actuator 1411 rotates a cam cylinder (not shown) to move the first lens group 1401 to the third lens group 1405 back and forth in the optical axis direction, thereby performing a zooming operation. A diaphragm/shutter actuator 1412 controls the aperture diameter of the diaphragm/shutter 1402 to adjust the amount of photographing light, and controls the exposure time during still image photographing. A focus actuator 1414 moves the third lens group 1405 back and forth along the optical axis to adjust the focus.

照明装置1415は、例えば撮影時の被写体照明用電子フラッシュであり、キセノン管を用いた閃光照明装置が好適だが、連続発光するLEDを備えた照明装置を用いても良い。AF補助光部1416は、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいは低コントラスト被写体に対する焦点検出能力を向上させる。 The illumination device 1415 is, for example, an electronic flash for illuminating an object during photographing, and is preferably a flash illumination device using a xenon tube, but may be an illumination device equipped with an LED that continuously emits light. The AF auxiliary light unit 1416 projects an image of a mask having a predetermined aperture pattern onto the field of view via a projection lens to improve focus detection capability for dark or low-contrast subjects.

制御部1421は、撮像装置本体の種々の制御を司るCPUを備え、さらに演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を備える。制御部1421は、ROMに記憶された所定のプログラムに基づいて、撮像装置が有する各種回路を駆動し、AF、撮影、画像処、と記録処理等の一連の動作を実行する。 The control unit 1421 includes a CPU that controls various aspects of the imaging apparatus main body, and further includes a calculation unit, ROM, RAM, A/D converter, D/A converter, communication interface circuit, and the like. The control unit 1421 drives various circuits of the imaging apparatus based on a predetermined program stored in the ROM, and executes a series of operations such as AF, photography, image processing, and recording processing.

電子フラッシュ制御回路1422は、撮影動作に同期して照明装置1415を点灯制御する。補助光駆動回路1423は、焦点検出動作に同期してAF補助光部1416を点灯制御する。撮像画素駆動回路1424は、撮像素子1407の撮像動作を制御するとともに、取得した画像信号をA/D変換して制御部1421に送信する。画像処理回路1425は、撮像素子1407が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行う。 The electronic flash control circuit 1422 controls lighting of the illumination device 1415 in synchronization with the shooting operation. The auxiliary light driving circuit 1423 controls lighting of the AF auxiliary light unit 1416 in synchronization with the focus detection operation. The imaging pixel drive circuit 1424 controls the imaging operation of the imaging device 1407 , A/D-converts the obtained image signal, and transmits the converted signal to the control unit 1421 . An image processing circuit 1425 performs processing such as gamma conversion, color interpolation, and JPEG compression of the image acquired by the image sensor 1407 .

フォーカス駆動回路1426は、焦点検出結果に基づいてフォーカスアクチュエータ1414を駆動制御し、第3レンズ群1405を光軸方向に進退駆動して焦点調節を行う。絞りシャッタ駆動回路1428は、絞りシャッタアクチュエータ1412を駆動制御して絞り兼用シャッタ1402の開口を制御する。ズーム駆動回路1429は、撮影者のズーム操作に応じてズームアクチュエータ1411を駆動する。 A focus drive circuit 1426 drives and controls a focus actuator 1414 based on the result of focus detection, and drives the third lens group 1405 forward and backward in the optical axis direction for focus adjustment. An aperture shutter drive circuit 1428 drives and controls an aperture shutter actuator 1412 to control the opening of the aperture/shutter 1402 . A zoom driving circuit 1429 drives a zoom actuator 1411 according to the zoom operation of the photographer.

表示部1431はLCD等の表示装置で、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。操作スイッチ群1432は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。フラッシュメモリ1433は着脱可能なメモリであり、撮影済み画像を記録する。 A display unit 1431 is a display device such as an LCD, and displays information about the shooting mode of the camera, a preview image before shooting, a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. An operation switch group 1432 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. A flash memory 1433 is a detachable memory and records captured images.

以上説明したように本実施形態の撮像素子を用いて図14に示す撮像装置に適用することで、撮像画素が小さい場合でも効率よく光を光導波路および光電変換部へ導入することが可能となる。 As described above, by using the imaging device of this embodiment and applying it to the imaging device shown in FIG. 14, even if the imaging pixels are small, light can be efficiently introduced into the optical waveguide and the photoelectric conversion unit. .

202 光電変換部
209 トップマイクロレンズ
210 画素間遮光壁
202 photoelectric conversion unit 209 top microlens 210 light shielding wall between pixels

Claims (8)

複数の撮像画素が2次元状に配列された撮像素子であって、
前記複数の撮像画素はそれぞれ、
電気的に分割された複数の光電変換部と、
マイクロレンズと、
前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、
前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きく、かつ
前記遮光壁の前記光電変換部側の面における角部の面積が、前記マイクロレンズのギャップの面積よりも小さいことを特徴とする撮像素子。
An imaging element in which a plurality of imaging pixels are arranged two-dimensionally,
Each of the plurality of imaging pixels is
a plurality of electrically divided photoelectric conversion units;
microlens and
A light shielding wall surrounding the imaging pixel is provided between the photoelectric conversion unit and the microlens,
The width of the surface of the light shielding wall on the microlens side is larger than the width of the surface of the light shielding wall on the photoelectric conversion unit side, and
An imaging device according to claim 1, wherein an area of a corner portion of a surface of the light shielding wall on the photoelectric conversion unit side is smaller than an area of a gap of the microlens.
前記遮光壁の前記マイクロレンズ側の面における角部の面積が、前記マイクロレンズのギャップの面積よりも大きいことを特徴とする請求項1に記載の撮像素子。 2. The imaging device according to claim 1, wherein the area of the corner portion of the surface of the light shielding wall on the microlens side is larger than the area of the gap of the microlens. 前記遮光壁の前記マイクロレンズ側の面における角部の画素対角方向の幅が、前記遮光壁の前記光電変換部側の面における角部の画素対角方向の幅よりも大きいことを特徴とする請求項1又は2に記載の撮像素子。 A width of a corner portion of the light shielding wall in a pixel diagonal direction on the surface of the light shielding wall facing the microlens is larger than a width of the corner portion of the surface of the light shielding wall facing the photoelectric conversion unit in a pixel diagonal direction. The imaging device according to claim 1 or 2 . 複数の撮像画素が2次元状に配列された撮像素子であって、
前記複数の撮像画素はそれぞれ、
電気的に分割された複数の光電変換部と、
マイクロレンズと、
前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、
前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きく、かつ
前記遮光壁の前記光電変換部側の面における角部の画素対角方向の幅が、前記マイクロレンズのギャップの画素対角方向の幅よりも小さいことを特徴とする撮像素子。
An imaging element in which a plurality of imaging pixels are arranged two-dimensionally,
Each of the plurality of imaging pixels is
a plurality of electrically divided photoelectric conversion units;
microlens and
A light shielding wall surrounding the imaging pixel is provided between the photoelectric conversion unit and the microlens,
The width of the surface of the light shielding wall on the microlens side is larger than the width of the surface of the light shielding wall on the photoelectric conversion unit side, and
An imaging device according to claim 1, wherein a width of a corner portion of the light shielding wall on the photoelectric conversion unit side in a pixel diagonal direction is smaller than a width of a gap of the microlens in the pixel diagonal direction.
前記遮光壁の辺となる部分の幅に対して、前記遮光壁の角部の画素対角方向における幅が2倍以上であることを特徴とする請求項1~の何れか1項に記載の撮像素子。 5. The light shielding wall according to any one of claims 1 to 4 , wherein the width of the corner portion of the light shielding wall in the pixel diagonal direction is at least twice as large as the width of the side portion of the light shielding wall. image sensor. 前記複数の撮像画素が、それぞれ前記光電変換部と前記マイクロレンズとの間に信号伝送用の配線層を有さない構成であることを特徴とする請求項1~の何れか1項に記載の撮像素子。 6. The structure according to any one of claims 1 to 5 , wherein each of the plurality of image pickup pixels has a structure in which there is no wiring layer for signal transmission between the photoelectric conversion unit and the microlens. image sensor. 撮像素子を有する撮像装置であって、An imaging device having an imaging element,
前記撮像素子は、The imaging element is
複数の撮像画素が2次元状に配列された撮像素子であって、An imaging element in which a plurality of imaging pixels are arranged two-dimensionally,
前記複数の撮像画素はそれぞれ、Each of the plurality of imaging pixels is
電気的に分割された複数の光電変換部と、a plurality of electrically divided photoelectric conversion units;
マイクロレンズと、microlens and
前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、A light shielding wall surrounding the imaging pixel is provided between the photoelectric conversion unit and the microlens,
前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きく、かつThe width of the surface of the light shielding wall on the microlens side is larger than the width of the surface of the light shielding wall on the photoelectric conversion unit side, and
前記遮光壁の前記光電変換部側の面における角部の面積が、前記マイクロレンズのギャップの面積よりも小さいことを特徴とする撮像装置。An imaging device according to claim 1, wherein an area of a corner portion of a surface of the light shielding wall on the photoelectric conversion unit side is smaller than an area of a gap of the microlens.
撮像素子を有する撮像装置であって、An imaging device having an imaging element,
前記撮像素子は、The imaging element is
複数の撮像画素が2次元状に配列された撮像素子であって、An imaging element in which a plurality of imaging pixels are arranged two-dimensionally,
前記複数の撮像画素はそれぞれ、Each of the plurality of imaging pixels is
電気的に分割された複数の光電変換部と、a plurality of electrically divided photoelectric conversion units;
マイクロレンズと、microlens and
前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、A light shielding wall surrounding the imaging pixel is provided between the photoelectric conversion unit and the microlens,
前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きく、かつThe width of the surface of the light shielding wall on the microlens side is larger than the width of the surface of the light shielding wall on the photoelectric conversion unit side, and
前記遮光壁の前記光電変換部側の面における角部の画素対角方向の幅が、前記マイクロレンズのギャップの画素対角方向の幅よりも小さいことを特徴とする撮像装置。The imaging device according to claim 1, wherein a width of a corner portion of the light shielding wall on the photoelectric conversion unit side in a pixel diagonal direction is smaller than a width of the gap of the microlens in the pixel diagonal direction.
JP2018216464A 2018-11-19 2018-11-19 Imaging element and imaging device Active JP7330687B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018216464A JP7330687B2 (en) 2018-11-19 2018-11-19 Imaging element and imaging device
JP2023130838A JP2023159224A (en) 2018-11-19 2023-08-10 Imaging element and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216464A JP7330687B2 (en) 2018-11-19 2018-11-19 Imaging element and imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023130838A Division JP2023159224A (en) 2018-11-19 2023-08-10 Imaging element and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2020088029A JP2020088029A (en) 2020-06-04
JP7330687B2 true JP7330687B2 (en) 2023-08-22

Family

ID=70908819

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018216464A Active JP7330687B2 (en) 2018-11-19 2018-11-19 Imaging element and imaging device
JP2023130838A Pending JP2023159224A (en) 2018-11-19 2023-08-10 Imaging element and imaging apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023130838A Pending JP2023159224A (en) 2018-11-19 2023-08-10 Imaging element and imaging apparatus

Country Status (1)

Country Link
JP (2) JP7330687B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021261107A1 (en) * 2020-06-25 2021-12-30 ソニーセミコンダクタソリューションズ株式会社 Imaging device and electronic apparatus
JP2022106151A (en) * 2021-01-06 2022-07-19 ソニーセミコンダクタソリューションズ株式会社 Photodetection device
CN116963556B (en) * 2023-09-19 2023-12-08 山西高科华杰光电科技有限公司 Display panel, display assembly and manufacturing method of display panel

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082566A (en) 2013-10-22 2015-04-27 キヤノン株式会社 Solid-state imaging device, method of manufacturing the same, and camera
WO2016114154A1 (en) 2015-01-13 2016-07-21 ソニー株式会社 Solid-state imaging element, method for manufacturing same, and electronic device
JP2017054991A (en) 2015-09-10 2017-03-16 キヤノン株式会社 Imaging device and imaging apparatus using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082566A (en) 2013-10-22 2015-04-27 キヤノン株式会社 Solid-state imaging device, method of manufacturing the same, and camera
WO2016114154A1 (en) 2015-01-13 2016-07-21 ソニー株式会社 Solid-state imaging element, method for manufacturing same, and electronic device
JP2017054991A (en) 2015-09-10 2017-03-16 キヤノン株式会社 Imaging device and imaging apparatus using the same

Also Published As

Publication number Publication date
JP2020088029A (en) 2020-06-04
JP2023159224A (en) 2023-10-31

Similar Documents

Publication Publication Date Title
JP5404693B2 (en) IMAGING ELEMENT, IMAGING DEVICE HAVING THE SAME, AND CAMERA SYSTEM
KR101240080B1 (en) Focus detection device and imaging apparatus having the same
US9625675B2 (en) Image sensor and image capturing apparatus
JP2011176715A (en) Back-illuminated image sensor and imaging apparatus
USRE48548E1 (en) Image sensor and imaging device
JP2023159224A (en) Imaging element and imaging apparatus
US9412777B2 (en) Image sensor and image capturing apparatus for satisfactory pupil division by a focus detection pixel in which a light guide is formed
JP7071055B2 (en) Image sensor and image sensor
KR20160098045A (en) Solid-state image sensor and image pickup apparatus including the same
WO2012066846A1 (en) Solid-state image sensor and imaging device
WO2018061978A1 (en) Imaging element and focus adjustment device
JP5800573B2 (en) Imaging apparatus, camera system, and focus detection method
JP6895724B2 (en) Image sensor and image sensor
WO2018061941A1 (en) Imaging element and imaging device
WO2018061729A1 (en) Imaging device and focus adjustment device
JPWO2018181590A1 (en) Imaging device and imaging device
JP5836629B2 (en) IMAGING ELEMENT, IMAGING APPARATUS HAVING THE SAME, AND CAMERA SYSTEM
WO2018061940A1 (en) Imaging element and focus adjustment device
WO2018061728A1 (en) Imaging element and focus adjustment device
JP7286452B2 (en) Imaging element and imaging device
JP7383876B2 (en) Imaging element and imaging device
JP6748529B2 (en) Imaging device and imaging device
JP2017005509A (en) Solid-state image pickup element, imaging device and ranging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230809

R151 Written notification of patent or utility model registration

Ref document number: 7330687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151