WO2017119317A1 - 固体撮像素子および製造方法、並びに電子機器 - Google Patents

固体撮像素子および製造方法、並びに電子機器 Download PDF

Info

Publication number
WO2017119317A1
WO2017119317A1 PCT/JP2016/088378 JP2016088378W WO2017119317A1 WO 2017119317 A1 WO2017119317 A1 WO 2017119317A1 JP 2016088378 W JP2016088378 W JP 2016088378W WO 2017119317 A1 WO2017119317 A1 WO 2017119317A1
Authority
WO
WIPO (PCT)
Prior art keywords
solid
state imaging
imaging device
semiconductor substrate
layer
Prior art date
Application number
PCT/JP2016/088378
Other languages
English (en)
French (fr)
Inventor
杉崎 太郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2017119317A1 publication Critical patent/WO2017119317A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device

Definitions

  • the present disclosure relates to a solid-state imaging device, a manufacturing method, and an electronic device, and in particular, a solid-state imaging device and a manufacturing method capable of improving performance of a solid-state imaging device configured by stacking a plurality of sensor layers,
  • the present invention relates to electronic equipment.
  • the applicant of the present application has proposed an imaging device that is configured by laminating two sensor layers that photoelectrically convert different wavelength range components of incident light, and can easily obtain various photoelectric conversion outputs. (For example, refer to Patent Document 1).
  • a stacked image sensor configured by stacking a plurality of sensor layers as described above
  • light passes through the upper sensor layer
  • metal wiring or the like existing in the upper sensor layer May be reflected or diffracted, or light with a high incidence angle may spread greatly.
  • the photodiode arranged in the lower sensor layer cannot receive a desired amount of light, and it is difficult to obtain sufficient performance in the lower sensor layer.
  • the present disclosure has been made in view of such a situation, and is intended to improve the performance of a solid-state imaging device configured by stacking a plurality of sensor layers.
  • the solid-state imaging device forms a first sensor layer stacked on an upper layer on a light incident side, and an upper photoelectric conversion unit is provided for each of a plurality of pixels arranged in a plane.
  • a first semiconductor substrate provided and a second sensor layer stacked on a lower layer side with respect to the first sensor layer are configured, and at least one lower photoelectric conversion unit is provided for at least one of the pixels.
  • Insulation provided between the first semiconductor substrate and the second semiconductor substrate in a stacked structure in which the second semiconductor substrate is provided, and the first sensor layer and the second sensor layer are stacked at least.
  • a waveguide made of a material having a refractive index higher than the refractive index of the insulating film and provided so as to penetrate the insulating film toward the lower photoelectric conversion portion of the second semiconductor substrate.
  • the manufacturing method of the solid-state imaging device includes a first sensor layer stacked on an upper layer on a light incident side, and an upper photoelectric sensor for each of a plurality of pixels arranged in a plane.
  • a first semiconductor substrate provided with a conversion unit and a second sensor layer stacked on a lower layer side with respect to the first sensor layer are configured, and one or more lower photoelectric elements are provided for at least one of the pixels.
  • An insulating film is provided between the second semiconductor substrate on which the conversion unit is provided, and a laminated structure in which at least the first sensor layer and the second sensor layer are stacked is formed, and the refractive index of the insulating film is higher than that of the insulating film.
  • An electronic device includes a first sensor layer stacked on an upper layer on which light is incident, and an upper photoelectric conversion unit is provided for each of a plurality of pixels arranged in a plane. And a second sensor layer stacked on the lower layer side with respect to the first sensor layer, and at least one lower photoelectric conversion unit is provided for each of the pixels.
  • Insulating film provided between the first semiconductor substrate and the second semiconductor substrate in a stacked structure in which at least the first semiconductor layer and the first sensor layer and the second sensor layer are stacked
  • a waveguide that is made of a material having a refractive index higher than that of the insulating film and is provided so as to penetrate the insulating film toward the lower photoelectric conversion portion of the second semiconductor substrate.
  • a solid-state imaging device is provided.
  • a first sensor layer that is stacked on an upper layer on which light is incident is configured, and an upper photoelectric conversion unit is provided for each of a plurality of pixels arranged in a plane.
  • stacked on the lower layer side with respect to 1st sensor layer are comprised, and 2 or more lower photoelectric conversion parts are provided for every at least 1 pixel
  • An insulating film is provided between the semiconductor substrate and a stacked structure in which at least the first sensor layer and the second sensor layer are stacked. And it is comprised with the material of refractive index higher than the refractive index of an insulating film, and a waveguide is provided so that it may penetrate an insulating film toward the lower photoelectric conversion part of a 2nd semiconductor substrate.
  • FIG. 1 is a diagram illustrating a cross-sectional configuration example of a first embodiment of a solid-state imaging device to which the present technology is applied.
  • the solid-state imaging device 11 is configured by laminating an upper sensor layer 12 and a lower sensor layer 13. Further, in the solid-state imaging device 11, the upper layer pixel 14 in which the photodiode 31 is provided in the upper sensor layer 12 and the lower layer pixel 15 in which the photodiode 41 is provided in the lower sensor layer 13 are arranged in a planar shape.
  • the pixel signal output from the upper layer pixel 14 of the upper sensor layer 12 is used to construct a normal image captured by the solid-state image sensor 11.
  • the pixel signal output from the lower layer pixel 15 of the lower sensor layer 13 is used for an image having a lower resolution than a normal image, an infrared image, focus control, and the like.
  • the upper sensor layer 12 is configured by laminating a wiring layer 22 on the front surface side of the semiconductor substrate 21 and laminating a filter layer 23 and an on-chip lens layer 24 on the back surface side of the upper sensor layer 12.
  • the lower sensor layer 13 is configured by laminating an insulating layer 26 on a semiconductor substrate 25. Then, the wiring layer 22 of the upper sensor layer 12 and the insulating layer 26 of the lower sensor layer 13 are mechanically and electrically joined to each other at a joint surface illustrated by a broken line.
  • the semiconductor substrate 21 is, for example, a wafer obtained by thinly slicing single crystal silicon, and a photodiode 31 that photoelectrically converts light is formed for each upper layer pixel 14.
  • the semiconductor substrate 21 has an opening at a position where the lower layer pixel 15 is provided, and extends through the semiconductor substrate 21 toward the semiconductor substrate 25 in an insulating film embedded in the opening.
  • An existing waveguide 42 is arranged.
  • the wiring layer 22 has a configuration in which a wiring 34 formed of a plurality of layers and a metal light-shielding film 35 having a light-shielding property are formed in an interlayer insulating film.
  • the wiring 34 connects, for example, a plurality of transistors (not shown) that drive the upper layer pixel 14 and the photodiode 31.
  • the light shielding film 35 is formed so that an opening 36 is formed at a place where the lower layer pixel 15 is provided and light is shielded from other places.
  • a waveguide 42 is provided so as to penetrate the opening 36 of the light shielding film 35. Accordingly, the light shielding film 35 is configured to shield the light irradiated to the upper layer pixel 14 and to allow only the light irradiated to the lower layer pixel 15 to reach the lower sensor layer 13.
  • a color filter 32 corresponding to the color received by each of the lower layer pixel 15 and the upper layer pixel 14 is arranged for each of the lower layer pixel 15 and the upper layer pixel 14.
  • red (R), green (Gr, Gb), and blue (B) color filters 32 are arranged in a so-called Bayer array.
  • microlenses 33 that collect light received by the lower layer pixel 15 and the upper layer pixel 14 are arranged for each of the lower layer pixel 15 and the upper layer pixel 14.
  • the semiconductor substrate 25 is, for example, a wafer obtained by thinly slicing single crystal silicon, and a photodiode 41 that photoelectrically converts light is formed for each lower layer pixel 15.
  • a photodiode 41 that photoelectrically converts light is formed for each lower layer pixel 15.
  • FIG. 1 only one photodiode 41 arranged corresponding to one lower layer pixel 15 is shown, but as shown in FIG. 16 described later, it corresponds to each of a plurality of lower layer pixels 15.
  • a plurality of photodiodes 41 are arranged.
  • the insulating layer 26 is laminated on the front surface or the back surface of the semiconductor substrate 25 in order to bond the upper sensor layer 12 to the wiring layer 22.
  • a waveguide 42 that guides light incident on the lower layer pixel 15 to the photodiode 41 of the semiconductor substrate 25 is formed for each lower layer pixel 15.
  • the waveguide 42 has an upper surface (a surface facing the upper side in FIG. 1) that is flat with the back surface of the semiconductor substrate 21, and penetrates the semiconductor substrate 21, the wiring layer 22, and the insulating layer 26.
  • the lower surface (the surface facing the lower side in FIG. 1) is formed so as to reach the semiconductor substrate 25.
  • the waveguide 42 is at least from the upper side of the lower surface of the semiconductor substrate 21 (the surface facing the lower side of FIG. 1), and the upper surface of the semiconductor substrate 25 on which the photodiode 41 is formed (the surface facing the upper side of FIG. 1). Is formed.
  • the waveguide 42 may be formed up to the vicinity of the upper surface of the semiconductor substrate 25. For example, as long as the light emitted from the waveguide 42 is formed up to a nearby distance to the extent that the light does not leak from the photodiode 41. Good. That is, the lower surface serving as an exit from which light exits from the waveguide 42 and the upper surface of the photodiode 41 are set to be less than an interval at which light does not leak.
  • the waveguide 42 is made of a material having a refractive index higher than that of the interlayer insulating film constituting the wiring layer 22 and the insulating layer 26.
  • a silicon oxide film (refractive index: about 1.46), a low dielectric film (so-called low-k film), or the like is adopted as an interlayer insulating film constituting the wiring layer 22 and the insulating layer 26.
  • a silicon nitride film (refractive index: about 2.0), an aluminum oxide film (refractive index: about 1.77), or the like can be adopted for the waveguide 42, and is not limited to these materials.
  • a material having a higher refractive index than the insulating film may be used.
  • the refractive index ratio between the waveguide 42 and the interlayer insulating film constituting the wiring layer 22 and the insulating layer 26 increases, the effect of confining light in the waveguide 42 increases.
  • a material having such a refractive index for the waveguide 42 light can be delivered to the photodiode 41 more reliably.
  • the photodiode 41 can be configured to be irradiated with a desired amount of light, and the performance of the lower sensor layer 13 can be improved. be able to.
  • FIG. 2 is a diagram showing a cross-sectional configuration example of the second embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11 shown in FIG. 1, and detailed description thereof is omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper layer pixel 14 is the same as the upper layer pixel 14 of the solid-state imaging device 11 in FIG. It has a structure.
  • the lower layer pixel 15A has a different structure from the lower layer pixel 15 of the solid-state imaging device 11 in FIG.
  • the lower layer pixel 15A of the solid-state imaging device 11A is configured by dividing the photodiode 41 and the waveguide 42 into the same number.
  • the lower layer pixel 15A four photodiodes 41-1 to 41-4 are formed on the semiconductor substrate 25, and four waveguides 42A-1 are provided so as to correspond to the photodiodes 41-1 to 41-4, respectively.
  • Thru 42A-4 are arranged.
  • the waveguides 42A-1 to 42A-4 are formed, for example, at least from the upper side of the lower surface of the semiconductor substrate 21 to the upper surface of the semiconductor substrate 25 on which the photodiode 41 is formed, like the waveguide 42 of FIG. Yes.
  • the photodiodes 41-1 to 41-4 and the waveguides 42A-1 to 42A-4 are illustrated in a configuration divided so as to be aligned in a row when the solid-state imaging device 11A is viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is also divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42A are arranged 4 ⁇ 4 when the solid-state imaging device 11A is viewed in plan view. It becomes.
  • the eight photodiodes 41 and the eight waveguides 42A are arranged in 4 ⁇ 2 when the solid-state imaging device 11A is seen in a plan view. It becomes composition.
  • the number of photodiodes 41 and waveguides 42 in one lower pixel 15 may be set as appropriate according to the characteristics of the lower sensor layer 13.
  • the solid-state imaging device 11A can guide light directly below even when the incident angle of light is inclined with respect to the imaging surface. Thereby, the solid-state imaging device 11A can acquire phase difference information by dividing the photodiode 41 and the waveguide 42A.
  • FIG. 3 shows an example of output characteristics of the photodiodes 41-1 to 41-4 with respect to the incident angle of the irradiation light.
  • the horizontal axis indicates the incident angle of the irradiation light
  • the vertical axis indicates the output (for example, accumulated charge) of the photodiodes 41-1 to 41-4.
  • the photodiode 41-1 has an output characteristic that shows a peak when the irradiation light is incident at an incident angle of about ⁇ 32 degrees, and the photodiode 41-2 has about ⁇ 5. It has an output characteristic that shows a peak when irradiation light is incident at an incident angle of 50 degrees.
  • the photodiode 41-3 has an output characteristic that shows a peak when the irradiation light is incident at an incident angle of about 5 degrees
  • the photodiode 41-4 has an irradiation characteristic at an incident angle of about 32 degrees. It has an output characteristic that shows a peak when incident.
  • the solid-state imaging device 11 uses the lower layer pixel 15A for detecting the phase difference. can do.
  • focus control can be performed based on the phase difference detected by the lower sensor layer 13 when the upper sensor layer 12 captures a normal image.
  • FIG. 4 is a diagram showing a cross-sectional configuration example of the third embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11 shown in FIG. 1, and detailed description thereof is omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper pixel 14 is the same as the upper pixel 14 of the solid-state imaging device 11 in FIG. It has a structure.
  • the lower layer pixel 15B has a different structure from the lower layer pixel 15 of the solid-state imaging device 11 in FIG.
  • the lower layer pixel 15B of the solid-state imaging device 11B is configured by dividing the photodiode 41 and the waveguide 42 into different numbers.
  • the lower layer pixel 15B four photodiodes 41-1 to 41-4 are formed on the semiconductor substrate 25.
  • a waveguide 42B-1 is arranged corresponding to the photodiodes 41-1 and 41-2, and a waveguide 42B-2 is arranged corresponding to the photodiodes 41-3 and 41-4.
  • the lower layer pixel 15B of the solid-state imaging device 11B has a configuration in which two waveguides 42B-1 and 42B smaller than the number of the four photodiodes 41-1 to 41-4 are arranged. It has become.
  • the solid-state imaging device 11B can maintain the resolution as the image information while the phase difference information is reduced as compared with the solid-state imaging device 11A of FIG. Further, the number of the waveguides 42 is reduced as compared with the solid-state imaging device 11A of FIG. 2, and the ratio of the interlayer insulating film between the waveguides 42B is reduced.
  • the manufacturing process can be simplified as compared with the second solid-state imaging device 11A.
  • FIG. 5 is a diagram showing a cross-sectional configuration example of the fourth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11A shown in FIG. 2, and detailed descriptions thereof are omitted.
  • photodiodes 41-1 to 41-4 are formed on the semiconductor substrate 25 in the same manner as the solid-state imaging device 11A in FIG.
  • the four waveguides 42C-1 to 42C-4 disposed corresponding to the photodiodes 41-1 to 41-4 have a structure different from that of the solid-state imaging device 11A in FIG. ing.
  • the entrance that becomes the entrance where the light irradiated to the lower pixel 15C enters the waveguides 42C-1 to 42C-4 is spaced in the height direction (thickness direction of the solid-state imaging device 11C). D is provided.
  • the entrances of the waveguides 42C-2 and 42C-3 disposed on the inner side are spaced apart from the entrances of the waveguides 42C-1 and 42C-4 disposed on the outside. As arranged, the height of the waveguides 42C-2 and 42C-3 is made low.
  • the photodiode 41- The output characteristics 1 to 41-4 can be adjusted.
  • FIG. 6 shows an example of output characteristics of the photodiodes 41-1 to 41-4 with respect to the incident angle of the irradiation light in the lower layer pixel 15C.
  • the horizontal axis represents the incident angle of the irradiation light
  • the vertical axis represents the outputs of the photodiodes 41-1 to 41-4.
  • FIG. 6A shows that the entrances of the waveguides 42C-1 and 42C-4 and the entrances of the waveguides 42C-2 and 42C-3 are arranged at the same height, that is, the interval D is 0 ⁇ m.
  • the output characteristics of the solid-state imaging device 11C formed as described above that is, the same configuration as the solid-state imaging device 11A in FIG. 2) are shown.
  • the entrances of the waveguides 42C-2 and 42C-3 are lower than the entrances of the waveguides 42C-1 and 42C-4 so that the distance D is 0.5 ⁇ m in the height direction.
  • the output characteristics of the formed solid-state imaging device 11C are shown.
  • the distance D in the height direction of the entrances of the waveguides 42C-2 and 42C-3 is 1.0 ⁇ m higher than the entrances of the waveguides 42C-1 and 42C-4.
  • the output characteristic of the solid-state image sensor 11C formed low is shown.
  • the output of the waveguides 42C-2 and 42C-3 can be lowered by setting the interval D large. Therefore, by forming the waveguides 42C-2 and 42C-3 lower than the waveguides 42C-1 and 42C-4, their relative sensitivities can be adjusted appropriately.
  • the incident angle of the irradiation light can be changed by appropriately changing the height of the entrance of the waveguides 42C-1 to 42C-4.
  • the resolution to be measured can be adjusted.
  • the photodiodes 41-1 to 41-4 and the waveguides 42C-1 to 42C-4 are illustrated as being divided so as to be aligned in a row when the solid-state imaging device 11C is viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is also divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42C are arranged 4 ⁇ 4 when the solid-state imaging device 11C is viewed in plan view. It becomes. Further, for example, when the structure is divided into two in the depth direction, the eight photodiodes 41 and the eight waveguides 42C are arranged in 4 ⁇ 2 when the solid-state imaging device 11C is viewed in plan. It becomes composition.
  • the height of the entrance of the waveguide 42 ⁇ / b> C arranged on the outermost side is arranged at least above the lower surface of the semiconductor substrate 21, and the waveguide 42 ⁇ / b> C is formed to the vicinity of the upper surface of the semiconductor substrate 25. It only has to be done.
  • FIG. 7 is a diagram showing a cross-sectional configuration example of the fifth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11A shown in FIG. 2, and detailed descriptions thereof are omitted.
  • photodiodes 41-1 to 41-4 are formed on the semiconductor substrate 25 in the same manner as the solid-state imaging device 11A of FIG.
  • the four waveguides 42D-1 to 42D-4 disposed corresponding to the photodiodes 41-1 to 41-4 have a structure different from that of the solid-state imaging device 11A in FIG. ing.
  • the area of the entrance that becomes the entrance for the light irradiated to the lower layer pixel 15D to enter the waveguides 42D-1 to 42D-4 is adjusted.
  • the cross-sectional shapes of the waveguides 42D-2 and 42D-3 are formed so that A2 has a small area.
  • the diameters of the entrances of the waveguides 42D-2 and 42D-3 are the same as the entrances of the waveguides 42D-1 and 42D-4. Is set shorter. Further, when the entrances of the waveguides 42D-1 to 42D-4 are rectangular, the length of one side of the entrances of the waveguides 42D-2 and 42D-3 is the entrance of the waveguides 42D-1 and 42D-4. It is set shorter than the length of one side of the mouth.
  • the solid-state imaging device 11D has a photodiode.
  • the output characteristics 41-1 to 41-4 can be adjusted.
  • FIG. 8 shows an example of output characteristics of the photodiodes 41-1 to 41-4 with respect to the incident angle of the irradiation light in the lower layer pixel 15D.
  • the horizontal axis indicates the incident angle of the irradiation light
  • the vertical axis indicates the output of the photodiodes 41-1 to 41-4
  • the entrances of the waveguides 42D-1 to 42D-4 are rectangular.
  • FIG. 8A shows the output characteristics of the solid-state imaging device 11D in which the length of one side of the entrances of the waveguides 42D-2 and 42D-3 is set to 0.625 ⁇ m
  • FIG. 8B shows the output characteristics of the waveguide 42D-2.
  • C in FIG. 8 is an output characteristic of the solid-state imaging device 11D in which the length of one side of the entrances of the waveguides 42D-2 and 42D-3 is set to 0.425 ⁇ m.
  • the output of the waveguides 42D-2 and 42D-3 can be reduced by setting the area of the entrance of the waveguide 42D small. Therefore, by forming the area of the entrance of the waveguides 42D-2 and 42D-3 to be smaller than the area of the entrance of the waveguides 42D-1 and 42D-4, their relative sensitivities are adjusted appropriately. can do.
  • the angle of the incident light is measured by appropriately changing the area of the entrance of the waveguides 42C-1 to 42C-4.
  • the resolution to be adjusted can be adjusted.
  • the solid-state imaging device 11D is illustrated in a configuration in which the photodiodes 41-1 to 41-4 and the waveguides 42D-1 to 42D-4 are divided so as to be aligned in a row when viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42D are arranged 4 ⁇ 4 when the solid-state imaging device 11D is viewed in plan view. It becomes. Further, for example, when the structure is divided into two in the depth direction, the eight photodiodes 41 and the eight waveguides 42D are arranged in 4 ⁇ 2 when the solid-state imaging device 11D is seen in a plan view. It becomes composition.
  • the cross-sectional shape of the waveguide 42D a rectangle, a square, a true circle, an ellipse, or the like can be adopted. Further, in such a configuration, the height of the entrance of the waveguide 42 ⁇ / b> D arranged on the outermost side is arranged at least above the lower surface of the semiconductor substrate 21, and the waveguide 42 ⁇ / b> D is near the upper surface of the semiconductor substrate 25. It is only necessary to be formed.
  • FIG. 9 is a diagram showing a cross-sectional configuration example of the sixth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11A shown in FIG. 2, and detailed description thereof will be omitted.
  • photodiodes 41-1 to 41-4 are formed on the semiconductor substrate 25 in the same manner as the solid-state imaging device 11A of FIG.
  • the four waveguides 42E-1 to 42E-4 arranged corresponding to the photodiodes 41-1 to 41-4 have a structure different from that of the solid-state imaging device 11A of FIG. ing.
  • the entrances of the waveguides 42E-2 and 42E-3 are arranged at a distance D from the entrances of the waveguides 42E-1 and 42E-4, and the waveguides 42E-1 and 42E-1
  • the waveguides 42E-2 and 42E-3 are formed so that the area A2 of the entrance of the waveguides 42E-2 and 42E-3 is smaller than the area A1 of the entrance of the 42E-4.
  • the solid-state imaging device 11E has a configuration in which the solid-state imaging device 11C in FIG. 5 and the solid-state imaging device 11D in FIG. 7 are combined.
  • the solid-state imaging device 11E has a photodiode 41 in more detail than the solid-state imaging device 11C of FIG. 5 and the solid-state imaging device 11D of FIG.
  • the output characteristics of ⁇ 1 to 41-4 can be adjusted.
  • the configuration of the solid-state imaging device 11C in FIG. 5 has an output characteristic in which the peak intensity can be adjusted and the tail of the distribution is reduced.
  • the peak intensity can be adjusted in the same manner, but the output characteristic is that the distribution can be adjusted without changing much. Different.
  • the solid-state imaging device 11E can be adjusted to have new output characteristics that cannot be realized by the solid-state imaging device 11C of FIG. 5 and the solid-state imaging device 11D of FIG. .
  • the photodiodes 41-1 to 41-4 and the waveguides 42E-1 to 42E-4 are illustrated as being divided so as to be aligned in a line when the solid-state imaging device 11E is viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42E are arranged 4 ⁇ 4 when the solid-state imaging device 11E is viewed in plan view. It becomes. Further, for example, when the structure is divided into two in the depth direction, the eight photodiodes 41 and the eight waveguides 42E are arranged in 4 ⁇ 2 when the solid-state imaging device 11E is seen in a plan view. It becomes composition.
  • the height of the entrance of the waveguide 42E arranged on the outermost side is arranged at least above the lower surface of the semiconductor substrate 21, and the waveguide 42E is in the vicinity of the upper surface of the semiconductor substrate 25. It is only necessary to be formed.
  • the photodiode 41 of the semiconductor substrate 25 receives the light transmitted through the photodiode 31 of the semiconductor substrate 21 as described below.
  • the color filter 32 of the lower layer pixel 15 it is only necessary to transmit light having a wavelength longer than that of red, and a red or white color that can be used for a wavelength that transmits the semiconductor substrate 21 is employed.
  • the light received by the semiconductor substrate 25 becomes light that has not been absorbed by the semiconductor substrate 21 and basically changes from red to infrared light.
  • FIG. 10 is a diagram illustrating a cross-sectional configuration example of the seventh embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11 shown in FIG. 1, and detailed description thereof is omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper layer pixel 14 is the same as the upper layer pixel 14 of the solid-state imaging device 11 in FIG. It has a structure.
  • the lower layer pixel 15F has a different structure from the lower layer pixel 15 of the solid-state imaging device 11 in FIG.
  • the lower layer pixel 15F of the solid-state imaging device 11F is configured such that the photodiode 31 is formed at a position corresponding to the lower layer pixel 15F of the semiconductor substrate 21, and the photodiode 41 receives the light transmitted through the photodiode 31. Has been.
  • the waveguide 42F provided in the lower layer pixel 15F is provided so as to guide the light transmitted through the photodiode 31 to the photodiode 41, and the upper surface (the surface facing the upper side in FIG. 10) is at least from the upper surface of the wiring 34. From the upper side, the wiring layer 22 and the insulating layer 26 are formed so that the lower surface (the surface facing the lower side in FIG. 10) reaches the semiconductor substrate 25.
  • the waveguide 42F can be made of the same material as that of the waveguide 42 in FIG. 1, and as described above, the semiconductor substrate 25 has a degree that light emitted from the waveguide 42 does not leak from the photodiode 41. It suffices if it is formed up to the vicinity of the upper surface.
  • FIG. 11 is a diagram illustrating a cross-sectional configuration example of the eighth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11A shown in FIG. 2, and detailed descriptions thereof are omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper layer pixel 14 is the same as the upper layer pixel 14A of the solid-state imaging device 11A in FIG. It has a structure.
  • the lower layer pixel 15G has a different structure from the lower layer pixel 15A of the solid-state imaging device 11A in FIG.
  • the photodiode 31 is formed at a position corresponding to the lower layer pixel 15G of the semiconductor substrate 21, and light transmitted through the photodiode 31 is transmitted through the photodiodes 41-1 to 41-4. Is configured to receive light.
  • the four waveguides 42G correspond to the four photodiodes 41-1 to 41-4, respectively.
  • -1 to 42G-4 are arranged.
  • the waveguides 42G-1 to 42G-4 for example, have an upper surface penetrating from the upper surface of the wiring layer 22 through the wiring layer 22 and the insulating layer 26, and a lower surface of the waveguide 42G-1 to 42G-4 is a semiconductor substrate. 25 is formed.
  • the photodiodes 41-1 to 41-4 and the waveguides 42G-1 to 42AG-4 are illustrated in a configuration that is divided so as to be aligned in a row when the solid-state imaging device 11G is viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is also divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42G are arranged 4 ⁇ 4 when the solid-state imaging device 11G is viewed in plan view. It becomes.
  • the eight photodiodes 41 and the eight waveguides 42G are arranged in 4 ⁇ 2 when the solid-state imaging device 11A is seen in a plan view. It becomes composition.
  • the number of photodiodes 41 and waveguides 42 in one lower pixel 15 may be set as appropriate according to the characteristics of the lower sensor layer 13.
  • the phase difference information can be acquired by dividing the photodiode 41 and the waveguide 42G in the same manner as the solid-state imaging device 11A of FIG.
  • FIG. 12 is a diagram showing a cross-sectional configuration example of the ninth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11B shown in FIG. 3, and detailed descriptions thereof are omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper layer pixel 14 is the same as the upper layer pixel 14B of the solid-state imaging device 11B in FIG. It has a structure.
  • the lower layer pixel 15H has a different structure from the lower layer pixel 15B of the solid-state imaging device 11B in FIG.
  • the lower layer pixel 15H has two waveguides 42H-1 and 42H ⁇ with respect to the four photodiodes 41-1 to 41-4 formed on the semiconductor substrate 25, similarly to the lower layer pixel 15B of FIG. 2 is provided.
  • the lower pixel 15H is configured such that light transmitted through the photodiode 31 of the semiconductor substrate 21 is guided to the photodiodes 41-1 to 41-4 through the waveguides 42H-1 and 42H-2.
  • the waveguides 42H-1 and 42H-2 for example, the upper surface of the waveguides 42H-1 and 42H-2 penetrates the wiring layer 22 and the insulating layer 26 from the upper surface of the wiring layer 22, and the lower surface of the waveguides 42H-1 and 42H-2. It is formed so as to reach the semiconductor substrate 25.
  • FIG. 13 is a diagram illustrating a cross-sectional configuration example of the tenth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11C shown in FIG. 5, and detailed descriptions thereof are omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper layer pixel 14 is the same as the upper layer pixel 14C of the solid-state imaging device 11C in FIG. It has a structure.
  • the lower layer pixel 15J has a different structure from the lower layer pixel 15C of the solid-state imaging device 11C in FIG.
  • the lower layer pixel 15J is spaced apart from the entrances of the waveguides 42J-1 and 42J-4 disposed on the outer side by a distance D, and is disposed on the inner side of the waveguide 42J ⁇ .
  • the waveguides 42J-2 and 42J-3 are formed low in height so that the entrances 2 and 42J-3 are arranged.
  • the lower pixel 15J is configured such that light transmitted through the photodiode 31 of the semiconductor substrate 21 is guided to the photodiodes 41-1 to 41-4 through the waveguides 42J-1 to 42J-4, respectively. Yes.
  • the waveguides 42J-1 and 42J-4 are formed so that the upper surfaces thereof are the same height as the upper surface of the wiring layer 22, and the waveguides 42J-2 and 42J-3 have the upper surface formed of the wiring layer. It is formed from a height separated from the upper surface of 22 by a distance D.
  • the sensitivity of the waveguides 42J-2 and 42J-3 can be adjusted in the same manner as the solid-state imaging device 11C of FIG.
  • the photodiodes 41-1 to 41-4 and the waveguides 42J-1 to 42J-4 are illustrated in a configuration that is divided so as to be aligned in a line when the solid-state imaging device 11J is viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is also divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42J are arranged 4 ⁇ 4 when the solid-state imaging device 11J is viewed in plan view. It becomes. Further, for example, when the structure is divided into two in the depth direction, the eight photodiodes 41 and the eight waveguides 42j are arranged in 4 ⁇ 2 when the solid-state imaging device 11J is seen in a plan view. It becomes composition.
  • the height of the entrance of the waveguide 42J arranged on the outermost side is arranged at least above the lower surface of the semiconductor substrate 21, and the waveguide 42J is formed up to the vicinity of the upper surface of the semiconductor substrate 25. It only has to be done.
  • FIG. 14 is a diagram showing a cross-sectional configuration example of the eleventh embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those of the solid-state imaging device 11D shown in FIG. 7, and detailed descriptions thereof are omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper layer pixel 14 is the same as the upper layer pixel 14D of the solid-state imaging device 11D in FIG. It has a structure.
  • the lower layer pixel 15K has a different structure from the lower layer pixel 15D of the solid-state imaging device 11D in FIG.
  • the lower layer pixel 15K is, like the lower layer pixel 15D of FIG. 7, the waveguide 42K-2 disposed on the inner side than the area A1 of the entrances of the waveguides 42K-1 and 42K-4 disposed on the outer side. Further, the cross-sectional shapes of the waveguides 42K-2 and 42K-3 (the cross-sectional shape orthogonal to the height direction) are formed so that the area A2 of the entrance aperture of 42K-3 becomes a small area.
  • the lower pixel 15K is configured such that light transmitted through the photodiode 31 of the semiconductor substrate 21 is guided to the photodiodes 41-1 to 41-4 through the waveguides 42K-1 to 42K-4, respectively. Yes.
  • the waveguides 42K-1 to 42K-2 for example, the upper surface of the waveguides 42K-1 to 42K-2 penetrates the wiring layer 22 and the insulating layer 26 from the upper surface of the wiring layer 22, and the lower surface of the waveguides 42K-1 to 42K-2. It is formed so as to reach the semiconductor substrate 25.
  • the sensitivity of the waveguides 42K-2 and 42K-3 can be adjusted as in the solid-state imaging device 11D of FIG.
  • the solid-state imaging device 11K is illustrated in a configuration in which the photodiodes 41-1 to 41-4 and the waveguides 42K-1 to 42K-4 are divided so as to be aligned in a row when viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is also divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42K are arranged 4 ⁇ 4 when the solid-state imaging device 11K is viewed in plan view. It becomes. Further, for example, when the structure is divided into two in the depth direction, the eight photodiodes 41 and the eight waveguides 42K are arranged in 4 ⁇ 2 when the solid-state imaging device 11K is seen in a plan view. It becomes composition.
  • the cross-sectional shape of the waveguide 42K a rectangle, a square, a true circle, an ellipse, or the like can be adopted. Further, in such a configuration, the height of the entrance of the waveguide 42K disposed on the outermost side is disposed at least above the lower surface of the semiconductor substrate 21, and the waveguide 42K is in the vicinity of the upper surface of the semiconductor substrate 25. It is only necessary to be formed.
  • FIG. 15 is a diagram showing a cross-sectional configuration example of the twelfth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those of the solid-state imaging device 11E shown in FIG. 9, and detailed descriptions thereof are omitted.
  • the upper sensor layer 12 and the lower sensor layer 13 are stacked, and the upper layer pixel 14 is the same as the upper layer pixel 14E of the solid-state imaging device 11E in FIG. It has a structure.
  • the lower layer pixel 15L has a different structure from the lower layer pixel 15E of the solid-state imaging device 11E in FIG.
  • the entrances of the waveguides 42L-2 and 42L-3 are arranged at a distance D from the entrances of the waveguides 42L-1 and 42L-4.
  • the waveguides 42L-2 and 42L so that the area A2 of the entrances of the waveguides 42L-2 and 42L-3 is smaller than the area A1 of the entrances of the waveguides 42L-1 and 42L-4. -3 is formed.
  • the lower pixel 15L is configured such that light transmitted through the photodiode 31 of the semiconductor substrate 21 is guided to the photodiodes 41-1 to 41-4 through the waveguides 42L-1 to 42l-4, respectively.
  • the solid-state imaging device 11L has a configuration in which the solid-state imaging device 11J in FIG. 13 and the solid-state imaging device 11K in FIG. 14 are combined.
  • the solid-state imaging device 11L has a photodiode 41 in more detail than the solid-state imaging device 11J in FIG. 13 and the solid-state imaging device 11K in FIG.
  • the output characteristics of ⁇ 1 to 41-4 can be adjusted.
  • the configuration of the solid-state imaging device 11J in FIG. 13 has an output characteristic in which the peak intensity can be adjusted and the tail of the distribution is reduced.
  • the peak intensity can be adjusted in the same manner, but the output characteristic is that the distribution can be adjusted without much change. Different.
  • the solid-state imaging element 11L can be adjusted to have new output characteristics that cannot be realized by the solid-state imaging element 11J in FIG. 13 and the solid-state imaging element 11K in FIG. .
  • the solid-state imaging device 11L is illustrated in a configuration in which the photodiodes 41-1 to 41-4 and the waveguides 42L-1 to 42L-4 are divided so as to be aligned in a row when viewed in cross section. However, they may be divided in the depth direction of the drawing. For example, in the case of a configuration that is divided into four in the depth direction, a configuration in which 16 photodiodes 41 and 16 waveguides 42L are arranged 4 ⁇ 4 when the solid-state imaging device 11L is seen in a plan view. It becomes. Further, for example, when the structure is divided into two in the depth direction, the eight photodiodes 41 and the eight waveguides 42L are arranged in 4 ⁇ 2 when the solid-state imaging device 11L is seen in a plan view. It becomes composition.
  • the height of the entrance of the waveguide 42L arranged on the outermost side is arranged at least above the upper surface of the wiring 34, and the waveguide 42L is formed to the vicinity of the upper surface of the semiconductor substrate 25. Just do it.
  • FIG. 16 is a diagram illustrating a perspective configuration example of the thirteenth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11 shown in FIG. 1, and detailed descriptions thereof are omitted.
  • FIG. 1 the structure of one lower layer pixel 15 included in the solid-state image sensor 11 is described, whereas in the solid-state image sensor 11 ⁇ / b> M illustrated in FIG. 16, a structure including a plurality of lower layer pixels 15 is described.
  • each lower layer pixels 15M (R), a lower layer pixel 15M (Gr), a lower layer pixel 15M (B), and a lower layer pixel 15M (Gb) are arranged in the solid-state imaging device 11M.
  • the red color filter 32 (R), the green color filter 32 (Gr), the blue color filter 32 (B), and the green color filter 32 (Gb) are 2 ⁇ 2 units.
  • they are arranged in a so-called Bayer array.
  • the Bayer arrangement is also realized in the lower sensor layer 13. Can do.
  • the combination of the color filters 32 may be adopted as the combination of the color filters 32.
  • an array including white pixels, an array of complementary color filters, and the like are also possible.
  • a multi-color sensor can be realized.
  • FIG. 17 is a diagram illustrating a perspective configuration example of the fourteenth embodiment of the solid-state imaging device.
  • the same reference numerals are given to the same components as those in the solid-state imaging device 11A shown in FIG. 2, and detailed description thereof is omitted.
  • photodiodes 41-1 to 41-4 are formed on the semiconductor substrate 25 in the same manner as the solid-state imaging device 11A of FIG.
  • the four waveguides 42N-1 to 42N-4 disposed corresponding to the photodiodes 41-1 to 41-4 have a structure different from that of the solid-state imaging device 11A in FIG. ing.
  • the solid-state imaging device 11N of FIG. 17 is configured by inserting color filters 43-1 to 43-4 above the respective waveguides 42N-1 to 42N-4. Thereby, each of the photodiodes 41-1 to 41-4 can have spectral characteristics.
  • the color of the color filters 43-1 to 4-4 is different for each of the waveguides 42N-1 to 42N-4.
  • the waveguides 42N-1 to 42N-4 are 2 ⁇ 2 when viewed in plan.
  • the color filter 32 of the lower pixel 15 is desirably a white filter so that light does not interfere, but the spectral characteristics obtained by multiplication of the color filter 32 and the color filters 43-1 to 43-4 are desired. If it is a characteristic, a white filter is not necessarily employed.
  • the color filter may be a plasmonic filter using plasmon, a Fabry-Perot interferometer using light interference, etc., in addition to those using organic materials generally used in image sensors. It is not limited.
  • the lower sensor layer 13 is created in the first step.
  • the lower sensor layer 13 is a backside illumination type
  • photodiodes 41-1 to 41-4 are formed on the semiconductor substrate 25, and then the insulating layer 26 is formed on the backside of the semiconductor substrate 25 by a CVD (Chemical Vapor Deposition) method.
  • the film is formed by, for example.
  • an opening is formed by etching the portion in which the waveguides 42A-1 to 42A-4 are embedded by RIE (Reactive Ion Etching) method or the like.
  • RIE Reactive Ion Etching
  • a material for example, silicon nitride described above
  • CMP Chemical-Mechanical-Planarization
  • the upper sensor layer 12 before thinning is changed to positions of the lower sensor layer 13, the photodiode 31, and the photodiodes 41-1 to 41-4. Match and paste.
  • the back surface side of the semiconductor substrate 21 is polished until the semiconductor substrate 21 of the upper sensor layer 12 has a desired thickness.
  • a part of the semiconductor substrate 21 corresponding to the portion to be the lower layer pixel 15 ⁇ / b> A is removed by etching by RIE or the like to form an opening 51.
  • the same insulator as the interlayer insulating film of the wiring layer 22 is buried in the opening 51 by CVD or the like, and the surface is planarized by CMP or the like.
  • the insulating film embedded in the opening 51 is not necessarily the same as the insulating film of the wiring layer 22, but it is necessary to select a material having a refractive index lower than that of the waveguide to be embedded.
  • the insulating film is etched in the portion corresponding to the waveguides 42A-1 to 42A-4 by the RIE method or the like to form the opening 42A-
  • a material to be an upper portion of 1 to 42A-4 is embedded by CVD or the like.
  • the surface is planarized by a CMP method or the like.
  • the process of manufacturing the solid-state imaging device 11A is completed by laminating the filter layer 23 and the on-chip lens layer 24.
  • the solid-state imaging device 11A provided with the waveguides 42A-1 to 42A-4 can be manufactured.
  • a silicon substrate is used as the semiconductor substrate 21 and the semiconductor substrate 25 and the photodiode 21 and the photodiode 41 are used.
  • the silicon substrate is not limited.
  • a photoelectric conversion part a substance containing an InGaAs-based material (mainly absorbing wavelengths of 0.9 to 2.6 um), PbS, PbSe, Ge-based materials (mainly absorbing wavelengths of 1 to 1.6 um), 1 ⁇ 5.5.um wavelength)), substances containing HgCdTe material, GaN, InGaN, AlGaN materials (mainly absorbing 0.2 ⁇ 0.4um wavelength) materials, and organic films It may have a photoelectric conversion function such as an organic photoelectric conversion film.
  • the solid-state imaging device 11 of each embodiment as described above is, for example, an imaging system such as a digital still camera or a digital video camera, a mobile phone having an imaging function, or other equipment having an imaging function. It can be applied to various electronic devices.
  • FIG. 24 is a block diagram illustrating a configuration example of an imaging device mounted on an electronic device.
  • the imaging apparatus 101 includes an optical system 102, an imaging element 103, a signal processing circuit 104, a monitor 105, and a memory 106, and can capture still images and moving images.
  • the optical system 102 includes one or more lenses, guides image light (incident light) from a subject to the image sensor 103, and forms an image on a light receiving surface (sensor unit) of the image sensor 103.
  • the solid-state image sensor 11 of each embodiment described above is applied.
  • electrons are accumulated for a certain period according to an image formed on the light receiving surface via the optical system 102. Then, a signal corresponding to the electrons accumulated in the image sensor 103 is supplied to the signal processing circuit 104.
  • the signal processing circuit 104 performs various signal processing on the pixel signal output from the image sensor 103.
  • An image (image data) obtained by performing signal processing by the signal processing circuit 104 is supplied to the monitor 105 and displayed, or supplied to the memory 106 and stored (recorded).
  • the solid-state imaging device 11 of each embodiment described above for example, imaging of a low resolution image or an infrared image using the lower sensor layer 13, or In the focus control, desired performance can be obtained.
  • FIG. 25 is a diagram illustrating a usage example in which the above-described image sensor (solid-state imaging device 11) is used.
  • the image sensor described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports-Equipment used for sports such as action cameras and wearable cameras for sports applications-Used for agriculture such as cameras for monitoring the condition of fields and crops apparatus
  • this technique can also take the following structures. (1) Forming a first sensor layer stacked on an upper layer on which light is incident, and a first semiconductor substrate in which an upper photoelectric conversion unit is provided for each of a plurality of pixels arranged in a plane; Forming a second sensor layer stacked on a lower layer side with respect to the first sensor layer, and a second semiconductor substrate in which at least one lower photoelectric conversion unit is provided for each of the pixels; An insulating film provided between the first semiconductor substrate and the second semiconductor substrate in a stacked structure in which the first sensor layer and the second sensor layer are at least stacked; A solid-state imaging device comprising: a waveguide made of a material having a refractive index higher than that of the insulating film and provided so as to penetrate the insulating film toward the lower photoelectric conversion portion of the second semiconductor substrate.
  • the first semiconductor substrate is provided with an opening at a location corresponding to the lower photoelectric conversion portion of the second semiconductor substrate,
  • the first semiconductor substrate is provided with the upper photoelectric conversion unit at a location corresponding to the lower photoelectric conversion unit of the second semiconductor substrate,
  • the waveguide includes the insulating film from a surface facing the lower side of the first semiconductor substrate to the vicinity of the second semiconductor substrate so as to guide light transmitted through the upper photoelectric conversion unit to the lower photoelectric conversion unit.
  • a predetermined number of the lower photoelectric conversion units are provided for one of the pixels, The solid-state imaging device according to any one of (1) to (3), wherein a predetermined number of the waveguides are provided corresponding to each of a predetermined number of the lower photoelectric conversion units.
  • a predetermined number of the lower photoelectric conversion units are provided for one of the pixels, The solid-state imaging device according to any one of (1) to (3), wherein the number of waveguides smaller than a predetermined number is provided corresponding to each of the plurality of lower photoelectric conversion units.
  • the incident port which injects light into the waveguide, out of the predetermined number of the waveguides, the incident port of the waveguide disposed on the inner side than the incident port of the waveguide disposed on the outer side Is set low.
  • the solid-state imaging device according to (4) or (5) With respect to the area of the entrance where the light is incident on the waveguide, of the predetermined number of waveguides, the entrance of the waveguide disposed on the inner side than the entrance of the waveguide disposed on the outside is The solid-state imaging device according to (4) or (5), which is set to a small area.
  • the incident port of the waveguide disposed on the inner side than the incident port of the waveguide disposed on the outer side Is set lower, and the area of the incident port for entering light into the waveguide is arranged on the inner side of the incident port of the waveguide arranged on the outer side of the predetermined number of waveguides.
  • 11 solid-state imaging device 12 upper sensor layer, 13 lower sensor layer, 14 upper layer pixel, 15 lower layer pixel, 21 semiconductor substrate, 22 wiring layer, 23 filter layer, 24 on-chip lens layer, 25 semiconductor substrate, 26 insulating layer, 31 photodiode, 32 color filter, 33 microlens, 34 wiring, 35 shading film, 36 opening, 41 photodiode, 42 waveguide, 51 opening

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示は、複数のセンサ層を積層して構成される固体撮像素子の性能向上を図ることができるようにする固体撮像素子および製造方法、並びに電子機器に関する。 光が入射してくる側である上層に積層される上側センサ層を構成し、平面的に配置される複数の上層画素ごとにフォトダイオードが設けられる半導体基板と、上側センサ層に対して下層側に積層される下側センサ層を構成し、少なくとも1つの下層画素ごとに1つ以上のフォトダイオードが設けられる半導体基板との間に、絶縁膜が設けられる。その絶縁膜の屈折率よりも高屈折率の材料により構成され、下層画素に向かって絶縁膜を貫通するように導波路が設けられる。本技術は、例えば、複数のセンサ層を積層して構成される積層型のイメージセンサに適用できる。

Description

固体撮像素子および製造方法、並びに電子機器
 本開示は、固体撮像素子および製造方法、並びに電子機器に関し、特に、複数のセンサ層を積層して構成される固体撮像素子の性能向上を図ることができるようにした固体撮像素子および製造方法、並びに電子機器に関する。
 近年、固体撮像素子の高機能化に伴って、複数のセンサ層を積層して構成される積層型のイメージセンサの開発が行われている。
 例えば、本願出願人は、入射光の互いに異なる波長域成分を光電変換する2層のセンサ層が積層されて構成され、より容易に多様な光電変換出力を得ることができる撮像素子を提案している(例えば、特許文献1参照)。
特開2013-70030号公報
 しかしながら、上述したような複数のセンサ層を積層して構成される積層型のイメージセンサでは、上側のセンサ層を光が通過する際に、例えば、上側のセンサ層に存在するメタル配線などによって光が反射または回折したり、高入射角の光が大きく広がったりすることがあった。これにより、下層側のセンサ層に配置されるフォトダイオードが、所望の光量の光を受光することができず、下層側のセンサ層において、十分な性能を得ることが困難であった。
 本開示は、このような状況に鑑みてなされたものであり、複数のセンサ層を積層して構成される固体撮像素子の性能向上を図ることができるようにするものである。
 本開示の一側面の固体撮像素子は、光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板と、前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造における前記第1の半導体基板と前記第2の半導体基板との間に設けられる絶縁膜と、前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように設けられる導波路とを備える。
 本開示の一側面の固体撮像素子の製造方法は、光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板との間に絶縁膜を設けて、前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造とし、前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように導波路を設けるステップを含む。
 本開示の一側面の電子機器は、光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板と、前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造における前記第1の半導体基板と前記第2の半導体基板との間に設けられる絶縁膜と、前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように設けられる導波路とを有する固体撮像素子を備える。
 本開示の一側面においては、光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板との間に絶縁膜を設けて、第1のセンサ層および第2のセンサ層が少なくとも積層される積層構造とされる。そして、絶縁膜の屈折率よりも高屈折率の材料により構成され、第2の半導体基板の下側光電変換部に向かって絶縁膜を貫通するように導波路が設けられる。
 本開示の一側面によれば、複数のセンサ層を積層して構成される固体撮像素子の性能向上を図ることができる。
本技術を適用した固体撮像素子の第1の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第2の実施の形態の断面的な構成例を示す図である。 フォトダイオードの出力特性の一例を示す図である。 固体撮像素子の第3の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第4の実施の形態の断面的な構成例を示す図である。 フォトダイオードの出力特性の一例を示す図である。 固体撮像素子の第5の実施の形態の断面的な構成例を示す図である。 フォトダイオードの出力特性の一例を示す図である。 固体撮像素子の第6の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第7の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第8の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第9の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第10の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第11の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第12の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第13の実施の形態の断面的な構成例を示す図である。 固体撮像素子の第14の実施の形態の断面的な構成例を示す図である。 固体撮像素子の製造方法の第1の工程を示す図である。 固体撮像素子の製造方法の第2の工程を示す図である。 固体撮像素子の製造方法の第3の工程を示す図である。 固体撮像素子の製造方法の第4の工程を示す図である。 固体撮像素子の製造方法の第5の工程を示す図である。 固体撮像素子の製造方法の第6の工程を示す図である。 電子機器に搭載される撮像装置の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 図1は、本技術を適用した固体撮像素子の第1の実施の形態の断面的な構成例を示す図である。
 図1に示すように、固体撮像素子11は、上側センサ層12および下側センサ層13が積層されて構成されている。また、固体撮像素子11では、上側センサ層12にフォトダイオード31が設けられる上層画素14と、下側センサ層13にフォトダイオード41が設けられる下層画素15とが平面状に配置されている。
 例えば、上側センサ層12の上層画素14から出力される画素信号は、固体撮像素子11により撮像される通常の画像を構築するのに用いられる。また、下側センサ層13の下層画素15から出力される画素信号は、通常の画像よりも低解像度の画像や、赤外線画像、フォーカス制御などに用いられる。
 上側センサ層12は、半導体基板21の表面側に配線層22が積層され、上側センサ層12の裏面側にフィルタ層23およびオンチップレンズ層24が積層されて構成される。下側センサ層13は、半導体基板25に絶縁層26が積層されて構成される。そして、上側センサ層12の配線層22と下側センサ層13の絶縁層26とが、破線で図示されている接合面において機械的および電気的に接合されている。
 半導体基板21は、例えば、単結晶のシリコンが薄くスライスされたウェハであり、上層画素14ごとに、光を光電変換するフォトダイオード31が形成される。また、半導体基板21は、下層画素15が設けられる箇所に開口部が形成されており、その開口部に埋め込まれた絶縁膜の中に、半導体基板21を貫通して半導体基板25に向かって延在する導波路42が配置される。
 配線層22は、複数層で形成された配線34と、遮光性を備えた金属製の遮光膜35とが層間絶縁膜中に形成された構成となっている。配線34は、例えば、上層画素14を駆動する複数のトランジスタ(図示せず)とフォトダイオード31とを接続する。遮光膜35は、下層画素15が設けられる箇所に開口部36が形成されるとともに、それ以外の箇所を遮光するように成膜される。そして、遮光膜35の開口部36を貫通するように、導波路42が設けられる。従って、遮光膜35は、上層画素14に照射された光を遮光し、下層画素15に照射された光のみが下側センサ層13まで届くように構成される。
 フィルタ層23には、下層画素15および上層画素14それぞれが受光する色に対応するカラーフィルタ32が、下層画素15および上層画素14ごとに配置される。例えば、後述の図16に示すように、赤色(R)、緑色(Gr,Gb)、および青色(B)のカラーフィルタ32が、いわゆるベイヤー配列で配置される。
 オンチップレンズ層24には、下層画素15および上層画素14それぞれが受光する光を集光するマイクロレンズ33が、下層画素15および上層画素14ごとに配置される。
 半導体基板25は、例えば、単結晶のシリコンが薄くスライスされたウェハであり、下層画素15ごとに、光を光電変換するフォトダイオード41が形成される。なお、図1では、1つの下層画素15に対応して配置される1つのフォトダイオード41だけが図示されているが、後述の図16に示すように、複数の下層画素15それぞれに対応するように複数のフォトダイオード41が配置される。
 絶縁層26は、上側センサ層12の配線層22との接合を行うために半導体基板25の表面または裏面に積層される。
 そして、固体撮像素子11では、下層画素15に入射した光を半導体基板25のフォトダイオード41まで導く導波路42が、下層画素15ごとに形成される。図1に示す構成例では、導波路42は、その上面(図1の上側を向く面)が半導体基板21の裏面と平坦となり、半導体基板21、配線層22、および絶縁層26を貫通して、その下面(図1の下側を向く面)が半導体基板25に達するように形成される。
 ここで、導波路42は、少なくとも半導体基板21の下面(図1の下側を向く面)よりも上側から、フォトダイオード41が形成される半導体基板25の上面(図1の上側を向く面)まで形成されている。または、導波路42は、半導体基板25の上面の近傍まで形成されていてもよく、例えば、導波路42から放出される光がフォトダイオード41から漏れない程度に近傍の距離まで形成されていればよい。即ち、導波路42から光が出る出口となる下面と、フォトダイオード41の上面とは、光が漏れ出ることのない間隔未満に設定される。
 また、導波路42は、配線層22および絶縁層26を構成する層間絶縁膜の屈折率よりも高屈折率の材料により構成される。
 例えば、配線層22および絶縁層26を構成する層間絶縁膜には、シリコン酸化膜(屈折率:1.46程度)や低誘電体膜(いわゆるlow-k膜)などが採用される。これに対し、導波路42には、シリコン窒化膜(屈折率:2.0程度)や酸化アルミニウム膜(屈折率:1.77程度)などを採用することができ、これらの材料に限定されることなく、層間絶縁膜よりも屈折率の高い材料を採用してもよい。
 また、導波路42と、配線層22および絶縁層26を構成する層間絶縁膜との屈折率の比が大きいほど、導波路42に光を閉じ込める効果が大きくなる。このことより、そのような屈折率の材料を導波路42に採用することによって、より確実にフォトダイオード41に光を届けることができる。
 このように構成される固体撮像素子11では、導波路42を設けることによってフォトダイオード41に所望の光量の光が照射されるように構成することができ、下側センサ層13の性能向上を図ることができる。
 次に、図2は、固体撮像素子の第2の実施の形態の断面的な構成例を示す図である。なお、図2に示す固体撮像素子11Aにおいて、図1に示した固体撮像素子11と共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図2に示すように、固体撮像素子11Aでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図1の固体撮像素子11の上層画素14と同様の構造となっている。一方、固体撮像素子11Aでは、下層画素15Aが、図1の固体撮像素子11の下層画素15と異なる構造となっている。
 即ち、固体撮像素子11Aの下層画素15Aは、フォトダイオード41および導波路42が、それぞれ同一の個数に分割されて構成される。例えば、下層画素15Aでは、4つのフォトダイオード41-1乃至41-4が半導体基板25に形成されており、フォトダイオード41-1乃至41-4それぞれに対応するように4つの導波路42A-1乃至42A-4が配置されている。導波路42A-1乃至42A-4は、図1の導波路42と同様に、例えば、少なくとも半導体基板21の下面よりも上側から、フォトダイオード41が形成される半導体基板25の上面まで形成されている。
 なお、図2において、フォトダイオード41-1乃至41-4および導波路42A-1乃至42A-4は、固体撮像素子11Aを断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Aが、固体撮像素子11Aを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42Aが、固体撮像素子11Aを平面的に見て4×2に配置されるような構成となる。このように、1つの下層画素15において、フォトダイオード41および導波路42を設ける個数は、下側センサ層13が備える特性に応じて適宜設定してもよい。
 そして、固体撮像素子11Aは、撮像面に対して光の入射角度が傾斜していても、光を真下に誘導することができる。これにより、固体撮像素子11Aは、フォトダイオード41および導波路42Aを分割した構成とすることにより、位相差情報を取得することができる。
 例えば、図3には、照射光の入射角度に対するフォトダイオード41-1乃至41-4の出力特性の一例が示されている。図3では、横軸が、照射光の入射角度を示し、縦軸が、フォトダイオード41-1乃至41-4の出力(例えば、蓄積された電荷)を示している。
 例えば、図3に示すように、フォトダイオード41-1は、約-32度の入射角度で照射光が入射するときにピークを示す出力特性を有し、フォトダイオード41-2は、約-5度の入射角度で照射光が入射するときにピークを示す出力特性を有している。同様に、フォトダイオード41-3は、約5度の入射角度で照射光が入射するときにピークを示す出力特性を有し、フォトダイオード41-4は、約32度の入射角度で照射光が入射するときにピークを示す出力特性を有している。
 このように、フォトダイオード41-1乃至41-4は、照射光の入射角度に応じて異なる出力特性を有していることより、固体撮像素子11では、下層画素15Aを位相差の検出に利用することができる。
 従って、固体撮像素子11Aを搭載した撮像装置では、上側センサ層12により通常画像の撮像を行う際に、下側センサ層13により検出される位相差に基づいて、フォーカス制御を行うことができる。
 次に、図4は、固体撮像素子の第3の実施の形態の断面的な構成例を示す図である。なお、図4に示す固体撮像素子11Bにおいて、図1に示した固体撮像素子11と共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図4に示すように、固体撮像素子11Bでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図1の固体撮像素子11の上層画素14と同様の構造となっている。一方、固体撮像素子11Bでは、下層画素15Bが、図1の固体撮像素子11の下層画素15と異なる構造となっている。
 即ち、固体撮像素子11Bの下層画素15Bは、フォトダイオード41および導波路42が、それぞれ異なる個数に分割されて構成される。例えば、下層画素15Bでは、4つのフォトダイオード41-1乃至41-4が半導体基板25に形成されている。そして、フォトダイオード41-1および41-2に対応して導波路42B-1が配置されるとともに、フォトダイオード41-3および41-4に対応して導波路42B-2が配置されている。
 このように、固体撮像素子11Bの下層画素15Bは、4つのフォトダイオード41-1乃至41-4に対して、それらの個数よりも少ない2つの導波路42B-1および42Bが配置された構成となっている。
 これにより、固体撮像素子11Bは、図2の固体撮像素子11Aと比較して位相差情報が削減されることになる一方で、画像情報としての解像度を維持することができる。さらに、図2の固体撮像素子11Aよりも導波路42の個数が削減され、導波路42Bどうし間の層間絶縁膜の割合が低減することによって、感度ロスの発生を抑制することができる上、図2の固体撮像素子11Aよりも製造プロセスを簡略化することができる。
 次に、図5は、固体撮像素子の第4の実施の形態の断面的な構成例を示す図である。なお、図5に示す固体撮像素子11Cにおいて、図2に示した固体撮像素子11Aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図5に示すように、固体撮像素子11Cは、図2の固体撮像素子11Aと同様に、半導体基板25にフォトダイオード41-1乃至41-4が形成されている。そして、固体撮像素子11Cでは、フォトダイオード41-1乃至41-4それぞれに対応して配置される4つの導波路42C-1乃至42C-4が、図2の固体撮像素子11Aと異なる構造となっている。
 即ち、固体撮像素子11Cでは、下層画素15Cに照射される光が導波路42C-1乃至42C-4に入射する間口となる入射口について、高さ方向(固体撮像素子11Cの厚み方向)に間隔Dが設けられている。例えば、固体撮像素子11Cでは、外側に配置される導波路42C-1および42C-4の入射口から間隔Dを隔てて、内側に配置される導波路42C-2および42C-3の入射口が配置されるように、導波路42C-2および42C-3の高さが低く形成される。
 このように、導波路42C-1および42C-4の入射口よりも導波路42C-2および42C-3の入射口が低くなるように設定することで、固体撮像素子11Cでは、フォトダイオード41-1乃至41-4の出力特性を調整することができる。
 図6には、下層画素15Cにおいて、照射光の入射角度に対するフォトダイオード41-1乃至41-4の出力特性の一例が示されている。図6では、横軸が、照射光の入射角度を示し、縦軸が、フォトダイオード41-1乃至41-4の出力を示している。
 図6のAは、導波路42C-1および42C-4の入射口と導波路42C-2および42C-3の入射口とが同じ高さに配置されるように、即ち、間隔Dが0μmとなるように形成された固体撮像素子11C(つまり、図2の固体撮像素子11Aと同様の構成)の出力特性を示している。
 また、図6のBは、導波路42C-1および42C-4の入射口よりも導波路42C-2および42C-3の入射口が、高さ方向に間隔Dが0.5μmとなるように低く形成された固体撮像素子11Cの出力特性を示している。同様に、図6のCは、導波路42C-1および42C-4の入射口よりも導波路42C-2および42C-3の入射口が、高さ方向に間隔Dが1.0μmとなるように低く形成された固体撮像素子11Cの出力特性を示している。
 図6に示すように、間隔Dを大きく設定することにより、導波路42C-2および42C-3の出力を低下させることができる。従って、導波路42C-2および42C-3を導波路42C-1および42C-4よりも低く形成することによって、それらの相対的な感度を適切に調整することができる。
 また、例えば、下層画素15Cを像面位相差の検出用に使用するときには、導波路42C-1乃至42C-4の入射口の高さを適切に変更することで、照射光が入射する角度を測定する分解能を調整することができる。
 なお、図5において、フォトダイオード41-1乃至41-4および導波路42C-1乃至42C-4が、固体撮像素子11Cを断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Cが、固体撮像素子11Cを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42Cが、固体撮像素子11Cを平面的に見て4×2に配置されるような構成となる。
 このような構成において、最も外側に配置される導波路42Cの入射口の高さが、少なくとも半導体基板21の下面よりも上側に配置され、その導波路42Cが半導体基板25の上面の近傍まで形成されていればよい。
 次に、図7は、固体撮像素子の第5の実施の形態の断面的な構成例を示す図である。なお、図7に示す固体撮像素子11Dにおいて、図2に示した固体撮像素子11Aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図7に示すように、固体撮像素子11Dは、図2の固体撮像素子11Aと同様に、半導体基板25にフォトダイオード41-1乃至41-4が形成されている。そして、固体撮像素子11Dでは、フォトダイオード41-1乃至41-4それぞれに対応して配置される4つの導波路42D-1乃至42D-4が、図2の固体撮像素子11Aと異なる構造となっている。
 即ち、固体撮像素子11Dでは、下層画素15Dに照射される光が導波路42D-1乃至42D-4に入射する間口となる入射口の面積が調整されている。例えば、固体撮像素子11Dでは、外側に配置される導波路42D-1および42D-4の入射口の面積A1よりも、内側に配置される導波路42C-2および42C-3の入射口の面積A2が小面積となるように、導波路42D-2および42D-3の断面形状(高さ方向に対して直交する断面の形状)が形成される。
 例えば、導波路42D-1乃至42D-4の入射口が円形である場合、導波路42D-2および42D-3の入射口の直径が、導波路42D-1および42D-4の入射口の直径よりも短く設定される。また、導波路42D-1乃至42D-4の入射口が矩形である場合、導波路42D-2および42D-3の入射口の一辺の長さが、導波路42D-1および42D-4の入射口の一辺の長さよりも短く設定される。
 このように、導波路42D-1および42D-4の入射口よりも導波路42D-2および42D-3の入射口の面積が小さくなるように設定することで、固体撮像素子11Dでは、フォトダイオード41-1乃至41-4の出力特性を調整することができる。
 図8には、下層画素15Dにおいて、照射光の入射角度に対するフォトダイオード41-1乃至41-4の出力特性の一例が示されている。図8では、横軸が、照射光の入射角度を示し、縦軸が、フォトダイオード41-1乃至41-4の出力を示しており、導波路42D-1乃至42D-4の入射口を矩形とする。
 図8のAは、導波路42D-2および42D-3の入射口の一辺の長さを0.625μmに設定した固体撮像素子11Dの出力特性であり、図8のBは、導波路42D-2および42D-3の入射口の一辺の長さを0.425μmに設定した固体撮像素子11Dの出力特性である。また、図8のCは、導波路42D-2および42D-3の入射口の一辺の長さを0.425μmに設定した固体撮像素子11Dの出力特性である。
 図8に示すように、導波路42Dの入射口の面積を小さく設定することにより、導波路42D-2および42D-3の出力を低下させることができる。従って、導波路42D-2および42D-3の入射口の面積を、導波路42D-1および42D-4の入射口の面積よりも小さく形成することによって、それらの相対的な感度を適切に調整することができる。
 また、例えば、下層画素15Cを像面位相差の検出用に使用するときには、導波路42C-1乃至42C-4の入射口の面積を適切に変更することで、照射光が入射する角度を測定する分解能を調整することができる。
 なお、図7において、固体撮像素子11Dは、フォトダイオード41-1乃至41-4および導波路42D-1乃至42D-4が、断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Dが、固体撮像素子11Dを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42Dが、固体撮像素子11Dを平面的に見て4×2に配置されるような構成となる。
 また、導波路42Dの断面形状としては、長方形、正方形、真円形、または楕円形などを採用することができる。さらに、このような構成において、最も外側に配置される導波路42Dの入射口の高さが、少なくとも半導体基板21の下面よりも上側に配置され、その導波路42Dが半導体基板25の上面の近傍まで形成されていればよい。
 次に、図9は、固体撮像素子の第6の実施の形態の断面的な構成例を示す図である。なお、図9に示す固体撮像素子11Eにおいて、図2に示した固体撮像素子11Aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図9に示すように、固体撮像素子11Eは、図2の固体撮像素子11Aと同様に、半導体基板25にフォトダイオード41-1乃至41-4が形成されている。そして、固体撮像素子11Eでは、フォトダイオード41-1乃至41-4それぞれに対応して配置される4つの導波路42E-1乃至42E-4が、図2の固体撮像素子11Aと異なる構造となっている。
 即ち、固体撮像素子11Eでは、導波路42E-1および42E-4の入射口から間隔Dを隔てて導波路42E-2および42E-3の入射口が配置され、かつ、導波路42E-1および42E-4の入射口の面積A1よりも導波路42E-2および42E-3の入射口の面積A2が小面積となるように、導波路42E-2および42E-3が形成される。つまり、固体撮像素子11Eは、図5の固体撮像素子11Cおよび図7の固体撮像素子11Dを組み合わせた構成となっている。
 このように導波路42E-1乃至42E-4の入射口を設定することで、固体撮像素子11Eでは、図5の固体撮像素子11Cおよび図7の固体撮像素子11Dよりも詳細に、フォトダイオード41-1乃至41-4の出力特性を調整することができる。具体的には、図5の固体撮像素子11Cの構成の場合、ピーク強度を調整する事が出来ると共に、分布の裾ひきも小さくなる出力特性を有する。一方、図7の固体撮像素子11Dの構成の場合、ピーク強度を調整する事が出来るのは同様であるが、分布の裾ひきをあまり変える事なく調整する事ができるという出力特性を有する点が異なる。これらの出力特性を組み合わせることで、固体撮像素子11Eは、図5の固体撮像素子11Cおよび図7の固体撮像素子11Dそれぞれ単独では実現できない新規の出力特性となるように調整することが可能となる。
 なお、図9において、フォトダイオード41-1乃至41-4および導波路42E-1乃至42E-4が、固体撮像素子11Eを断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Eが、固体撮像素子11Eを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42Eが、固体撮像素子11Eを平面的に見て4×2に配置されるような構成となる。
 さらに、このような構成において、最も外側に配置される導波路42Eの入射口の高さが、少なくとも半導体基板21の下面よりも上側に配置され、その導波路42Eが半導体基板25の上面の近傍まで形成されていればよい。
 ここで、図1乃至図9を参照して上述した各実施の形態においては、半導体基板21に開口部が設けられ、半導体基板21を貫通するように導波路42が設けられる構成について説明した。これに対し、以下では、半導体基板21を透過した光を導波路42に入射して、フォトダイオード41に受光させる構成例について説明する。
 即ち、下層画素15では、以下で説明するように、半導体基板21のフォトダイオード31を透過した光を半導体基板25のフォトダイオード41が受光する。このとき、下層画素15のカラーフィルタ32としては、赤色よりも波長の長い光を透過すればよく、赤色または白色など、半導体基板21を透過する波長に利用できるものが採用される。これにより、半導体基板25で受光される光は、半導体基板21で吸収されなかった光となり、基本的に、赤色から赤外の光となる。
 次に、図10は、固体撮像素子の第7の実施の形態の断面的な構成例を示す図である。なお、図10に示す固体撮像素子11Fにおいて、図1に示した固体撮像素子11と共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図10に示すように、固体撮像素子11Fでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図1の固体撮像素子11の上層画素14と同様の構造となっている。一方、固体撮像素子11Fでは、下層画素15Fが、図1の固体撮像素子11の下層画素15と異なる構造となっている。
 即ち、固体撮像素子11Fの下層画素15Fは、半導体基板21の下層画素15Fに対応する箇所にフォトダイオード31が形成されており、フォトダイオード31を透過した光をフォトダイオード41が受光するように構成されている。
 また、下層画素15Fに設けられる導波路42Fは、フォトダイオード31を透過した光をフォトダイオード41まで導くように設けられ、その上面(図10の上側を向く面)が、少なくとも配線34の上面よりも上側から、配線層22および絶縁層26を貫通して、その下面(図10の下側を向く面)が半導体基板25に達するように形成される。なお、導波路42Fは、図1の導波路42と同様の材質を採用することができ、上述したように、導波路42から放出される光がフォトダイオード41から漏れない程度に、半導体基板25の上面の近傍まで形成されていていればよい。
 次に、図11は、固体撮像素子の第8の実施の形態の断面的な構成例を示す図である。なお、図11に示す固体撮像素子11Gにおいて、図2に示した固体撮像素子11Aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図11に示すように、固体撮像素子11Gでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図2の固体撮像素子11Aの上層画素14Aと同様の構造となっている。一方、固体撮像素子11Gでは、下層画素15Gが、図2の固体撮像素子11Aの下層画素15Aと異なる構造となっている。
 即ち、固体撮像素子11Gの下層画素15Gは、半導体基板21の下層画素15Gに対応する箇所にフォトダイオード31が形成されており、フォトダイオード31を透過した光をフォトダイオード41-1乃至41-4が受光するように構成されている。
 そして、固体撮像素子11Gの下層画素15Gにおいても、図2の固体撮像素子11Aの上層画素14Aと同様に、4つのフォトダイオード41-1乃至41-4それぞれに対応するように4つの導波路42G-1乃至42G-4が配置されている。導波路42G-1乃至42G-4は、図10の導波路42Fと同様に、例えば、その上面が配線層22の上面から、配線層22および絶縁層26を貫通して、その下面が半導体基板25に達するように形成される。
 なお、図11において、フォトダイオード41-1乃至41-4および導波路42G-1乃至42AG-4は、固体撮像素子11Gを断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Gが、固体撮像素子11Gを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42Gが、固体撮像素子11Aを平面的に見て4×2に配置されるような構成となる。このように、1つの下層画素15において、フォトダイオード41および導波路42を設ける個数は、下側センサ層13が備える特性に応じて適宜設定してもよい。
 このように構成される固体撮像素子11Gにおいても、図2の固体撮像素子11Aと同様に、フォトダイオード41および導波路42Gを分割した構成とすることにより、位相差情報を取得することができる。
 従って、固体撮像素子11Gを搭載した撮像装置では、上側センサ層12により通常画像の撮像を行う際に、下側センサ層13により検出される位相差に基づいて、フォーカス制御を行うことができる。
 次に、図12は、固体撮像素子の第9の実施の形態の断面的な構成例を示す図である。なお、図12に示す固体撮像素子11Hにおいて、図3に示した固体撮像素子11Bと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図12に示すように、固体撮像素子11Hでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図3の固体撮像素子11Bの上層画素14Bと同様の構造となっている。一方、固体撮像素子11Hでは、下層画素15Hが、図2の固体撮像素子11Bの下層画素15Bと異なる構造となっている。
 即ち、下層画素15Hは、図2の下層画素15Bと同様に、半導体基板25に形成される4つのフォトダイオード41-1乃至41-4に対して、2本の導波路42H-1および42H-2が設けられている。そして、下層画素15Hでは、半導体基板21のフォトダイオード31を透過した光が導波路42H-1および42H-2を介して、フォトダイオード41-1乃至41-4に導かれるように構成されている。また、導波路42H-1および42H-2は、図10の導波路42Fと同様に、例えば、その上面が配線層22の上面から、配線層22および絶縁層26を貫通して、その下面が半導体基板25に達するように形成される。
 このように構成される固体撮像素子11Hにおいても、図3の固体撮像素子11Bと同様に、下側センサ層13において良好な性能を得ることができる。
 次に、図13は、固体撮像素子の第10の実施の形態の断面的な構成例を示す図である。なお、図13に示す固体撮像素子11Jにおいて、図5に示した固体撮像素子11Cと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図13に示すように、固体撮像素子11Jでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図5の固体撮像素子11Cの上層画素14Cと同様の構造となっている。一方、固体撮像素子11Jでは、下層画素15Jが、図3の固体撮像素子11Cの下層画素15Cと異なる構造となっている。
 即ち、下層画素15Jは、図5の下層画素15Cと同様に、外側に配置される導波路42J-1および42J-4の入射口から間隔Dを隔てて、内側に配置される導波路42J-2および42J-3の入射口が配置されるように、導波路42J-2および42J-3の高さが低く形成される。そして、下層画素15Jでは、半導体基板21のフォトダイオード31を透過した光が導波路42J-1乃至42J-4を介して、それぞれフォトダイオード41-1乃至41-4に導かれるように構成されている。
 つまり、下層画素15Jでは、導波路42J-1および42J-4は、その上面が配線層22の上面と同じ高さから形成され、導波路42J-2および42J-3は、その上面が配線層22の上面から間隔Dだけ隔てた高さから形成される。
 このように構成される固体撮像素子11Jにおいても、図5の固体撮像素子11Cと同様に、導波路42J-2および42J-3の感度を調整することができる。
 なお、図13において、フォトダイオード41-1乃至41-4および導波路42J-1乃至42J-4が、固体撮像素子11Jを断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Jが、固体撮像素子11Jを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42jが、固体撮像素子11Jを平面的に見て4×2に配置されるような構成となる。
 このような構成において、最も外側に配置される導波路42Jの入射口の高さが、少なくとも半導体基板21の下面よりも上側に配置され、その導波路42Jが半導体基板25の上面の近傍まで形成されていればよい。
 次に、図14は、固体撮像素子の第11の実施の形態の断面的な構成例を示す図である。なお、図14に示す固体撮像素子11Kにおいて、図7に示した固体撮像素子11Dと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図14に示すように、固体撮像素子11Kでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図7の固体撮像素子11Dの上層画素14Dと同様の構造となっている。一方、固体撮像素子11Kでは、下層画素15Kが、図7の固体撮像素子11Dの下層画素15Dと異なる構造となっている。
 即ち、下層画素15Kは、図7の下層画素15Dと同様に、外側に配置される導波路42K-1および42K-4の入射口の面積A1よりも、内側に配置される導波路42K-2および42K-3の入射口の面積A2が小面積となるように、導波路42K-2および42K-3の断面形状(高さ方向に対して直交する断面の形状)が形成される。そして、下層画素15Kでは、半導体基板21のフォトダイオード31を透過した光が導波路42K-1乃至42K-4を介して、それぞれフォトダイオード41-1乃至41-4に導かれるように構成されている。また、導波路42K-1乃至42K-2は、図10の導波路42Fと同様に、例えば、その上面が配線層22の上面から、配線層22および絶縁層26を貫通して、その下面が半導体基板25に達するように形成される。
 このように構成される固体撮像素子11Kにおいても、図7の固体撮像素子11Dと同様に、導波路42K-2および42K-3の感度を調整することができる。
 なお、図14において、固体撮像素子11Kは、フォトダイオード41-1乃至41-4および導波路42K-1乃至42K-4が、断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Kが、固体撮像素子11Kを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42Kが、固体撮像素子11Kを平面的に見て4×2に配置されるような構成となる。
 また、導波路42Kの断面形状としては、長方形、正方形、真円形、または楕円形などを採用することができる。さらに、このような構成において、最も外側に配置される導波路42Kの入射口の高さが、少なくとも半導体基板21の下面よりも上側に配置され、その導波路42Kが半導体基板25の上面の近傍まで形成されていればよい。
 次に、図15は、固体撮像素子の第12の実施の形態の断面的な構成例を示す図である。なお、図15に示す固体撮像素子11Lにおいて、図9に示した固体撮像素子11Eと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図15に示すように、固体撮像素子11Lでは、上側センサ層12および下側センサ層13が積層されて構成されるとともに、上層画素14は、図9の固体撮像素子11Eの上層画素14Eと同様の構造となっている。一方、固体撮像素子11Lでは、下層画素15Lが、図9の固体撮像素子11Eの下層画素15Eと異なる構造となっている。
 即ち、下層画素15Lは、図7の下層画素15Eと同様に、導波路42L-1および42L-4の入射口から間隔Dを隔てて導波路42L-2および42L-3の入射口が配置され、かつ、導波路42L-1および42L-4の入射口の面積A1よりも導波路42L-2および42L-3の入射口の面積A2が小面積となるように、導波路42L-2および42L-3が形成される。そして、下層画素15Lでは、半導体基板21のフォトダイオード31を透過した光が導波路42L-1乃至42l-4を介して、それぞれフォトダイオード41-1乃至41-4に導かれるように構成されている。つまり、固体撮像素子11Lは、図13の固体撮像素子11Jおよび図14の固体撮像素子11Kを組み合わせた構成となっている。
 このように導波路42L-1乃至42L-4の入射口を設定することで、固体撮像素子11Lでは、図13の固体撮像素子11Jおよび図14の固体撮像素子11Kよりも詳細に、フォトダイオード41-1乃至41-4の出力特性を調整することができる。具体的には、図13の固体撮像素子11Jの構成の場合、ピーク強度を調整する事が出来ると共に、分布の裾ひきも小さくなる出力特性を有する。一方、図14の固体撮像素子11Kの構成の場合、ピーク強度を調整する事が出来るのは同様であるが、分布の裾ひきをあまり変える事なく調整する事ができるという出力特性を有する点が異なる。これらの出力特性を組み合わせることで、固体撮像素子11Lは、図13の固体撮像素子11Jおよび図14の固体撮像素子11Kそれぞれ単独では実現できない新規の出力特性となるように調整することが可能となる。
 なお、図15において、固体撮像素子11Lは、フォトダイオード41-1乃至41-4および導波路42L-1乃至42L-4が、断面的に見て一列に並ぶように分割された構成で図示されているが、それらが図面の奥行き方向に分割されていてもよい。例えば、奥行き方向にも4分割される構成とした場合、16個のフォトダイオード41と16個の導波路42Lが、固体撮像素子11Lを平面的に見て4×4に配置されるような構成となる。また、例えば、奥行き方向に2分割される構成とした場合、8個のフォトダイオード41と8個の導波路42Lが、固体撮像素子11Lを平面的に見て4×2に配置されるような構成となる。
 このような構成において、最も外側に配置される導波路42Lの入射口の高さが、少なくとも配線34の上面より上側に配置され、その導波路42Lが半導体基板25の上面の近傍まで形成されていればよい。
 次に、図16は、固体撮像素子の第13の実施の形態の斜視的な構成例を示す図である。なお、図16に示す固体撮像素子11Mにおいて、図1に示した固体撮像素子11と共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 例えば、図1では、固体撮像素子11が有する1つの下層画素15の構造について説明したのに対し、図16に示す固体撮像素子11Mでは、複数の下層画素15を有する構造について説明する。
 図16に示すように、固体撮像素子11Mには、4つの下層画素15M(R)、下層画素15M(Gr)、下層画素15M(B)、下層画素15M(Gb)が配置されている。
 例えば、上側センサ層12では、赤色のカラーフィルタ32(R)、緑色のカラーフィルタ32(Gr)、青色のカラーフィルタ32(B)、緑色のカラーフィルタ32(Gb)の4つが2×2単位で、いわゆるベイヤー配列で配置されている。これにより、下層画素15では上側センサ層12においてフォトダイオード31を設けずに下側センサ層13に光を透過させる構成(透過型)において、下側センサ層13においても、ベイヤー配列を実現することができる。
 なお、カラーフィルタ32の組み合わせとしては、その他の組み合わせを採用してもよく、例えば、ホワイト画素を含む配列や、補色フィルタなどの配列も可能である。更には、マルチカラーセンサーも実現可能である。
 次に、図17は、固体撮像素子の第14の実施の形態の斜視的な構成例を示す図である。なお、図17に示す固体撮像素子11Nにおいて、図2に示した固体撮像素子11Aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 図17に示すように、固体撮像素子11Nは、図2の固体撮像素子11Aと同様に、半導体基板25にフォトダイオード41-1乃至41-4が形成されている。そして、固体撮像素子11Nでは、フォトダイオード41-1乃至41-4それぞれに対応して配置される4つの導波路42N-1乃至42N-4が、図2の固体撮像素子11Aと異なる構造となっている。
 即ち、図17の固体撮像素子11Nは、導波路42N-1乃至42N-4それぞれの上部に、カラーフィルタ43-1乃至43-4が挿入されて構成される。これにより、フォトダイオード41-1乃至41-4それぞれが分光特性を備えることができる。
 また、導波路42N-1乃至42N-4ごとにカラーフィルタ43-1乃至4-4の色を異なるものとし、例えば、導波路42N-1乃至42N-4が平面的に見て2×2で配置されているとき、カラーフィルタ43-1乃至43-4をそれぞれR,Gr,B,Gbに光を透過するようにすることで、ベイヤー配列とすることができる。また、その他の色の配列や、マルチカラーセンサーを実現することができる。
 なお、下層画素15のカラーフィルタ32は、光が干渉しないようにホワイトフィルタを採用することが望ましいが、カラーフィルタ32とカラーフィルタ43-1乃至43-4の乗算により得られる分光特性が所望の特性であれば、必ずしもホワイトフィルタを採用しなくてもよい。また、カラーフィルタとは、一般に撮像素子で用いられている有機材料を用いたものの他に、プラズモンを利用したプラズモニックフィルターや、光の干渉を利用したファブリペロー干渉計などでも良く、それらの何れか限定されるものではない。
 次に、図18乃至図23を参照して、図2の固体撮像素子11Aを製造する製造方法について説明する。
 まず、図18に示すように、第1の工程において、下側センサ層13を作成する。例えば、下側センサ層13が裏面照射型である場合、半導体基板25にフォトダイオード41-1乃至41-4を形成した後、半導体基板25の裏面に絶縁層26をCVD(Chemical Vapor Deposition)法などによって成膜する。
 そして、図19に示すように、第2の工程において、導波路42A-1乃至42A-4を埋め込む部分に、RIE(Reactive Ion Etching)法などによってエッチングを行って開口部を形成する。そして、それらの開口部に、導波路42A-1乃至42A-4の下側部分となる材料(例えば、上述したシリコン窒化物など)を埋め込み、CMP(Chemical Mechanical Planarization)法などによって表面の平坦化を行う。
 その後、図20に示すように、第3の工程において、薄膜化が行われる前の上側センサ層12を下側センサ層13と、フォトダイオード31とフォトダイオード41-1乃至41-4との位置合わせを行って貼り合わせる。
 また、図21に示すように、第4の工程において、上側センサ層12の半導体基板21が所望の厚みとなるまで、半導体基板21の裏面側を研磨する。
 続いて、図22に示すように、第5の工程において、下層画素15Aとなる箇所に対応する半導体基板21の一部分をRIE法などによってエッチングにより除去し、開口部51を形成する。その後、CVD法などによって配線層22の層間絶縁膜と同じ絶縁物を開口部51に埋め込み、CMP法などによって表面の平坦化を行う。なお、開口部51に埋め込む絶縁膜は、配線層22の絶縁膜と必ずしも同じでなくてよいが、埋め込む導波路よりも屈折率が低い材料を選択する必要がある。
 そして、図23に示すように、第6の工程において、導波路42A-1乃至42A-4に対応する部分を、RIE法などにより絶縁膜をエッチングして開口部を形成し、導波路42A-1乃至42A-4の上側部分となる材料をCVD法などによって埋め込む。さらに、CMP法などによって表面の平坦化を行う。
 その後、図2に示したように、フィルタ層23およびオンチップレンズ層24を積層することにより、固体撮像素子11Aを製造する工程が完了する。
 以上のように、導波路42A-1乃至42A-4が設けられた固体撮像素子11Aを製造することができる。
 なお、本実施の形態においては、例えば、半導体基板21および半導体基板25にシリコン基板を採用してフォトダイオード21およびフォトダイオード41を用いる構成としたが、光電変換部としての機能を備えていれば、シリコン基板に限定されることはない。例えば、光電変換部として、InGaAs系(0.9~2.6umの波長を主に吸収)の材質を含む物質、PbS, PbSe, Ge系(1~1.6umの波長を主に吸収), InAs, InSb(1~5.5.umの波長を主に吸収), HgCdTeの材質を含む物質、GaN, InGaN, AlGaN系(0.2~0.4umの波長を主に吸収)の材質を含む物質、更には有機膜からなる有機光電変換膜等、光電変換機能を有するもので良い。
 <電子機器の構成例>
 なお、上述したような各実施の形態の固体撮像素子11は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図24は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図24に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述した各実施の形態の固体撮像素子11が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述した各実施の形態の固体撮像素子11を適用することで、例えば、下側センサ層13を利用した低解像度画像や赤外線画像などの撮像、または、フォーカス制御において所望の性能を得ることができる。
 <イメージセンサの使用例>
 図25は、上述のイメージセンサ(固体撮像素子11)を使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 なお、本技術は以下のような構成も取ることができる。
(1)
 光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、
 前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板と、
 前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造における前記第1の半導体基板と前記第2の半導体基板との間に設けられる絶縁膜と、
 前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように設けられる導波路と
 を備える固体撮像素子。
(2)
 前記第1の半導体基板は、前記第2の半導体基板の前記下側光電変換部に対応する箇所に開口部が設けられており、
 前記導波路は、前記第1の半導体基板の下方を向く面よりも上側から前記第2の半導体基板の近傍まで前記絶縁膜を貫通するように設けられる
 上記(1)に記載の固体撮像素子。
(3)
 前記第1の半導体基板は、前記第2の半導体基板の前記下側光電変換部に対応する箇所に前記上側光電変換部が設けられており、
 前記導波路は、前記上側光電変換部を透過した光を前記下側光電変換部に導くように、前記第1の半導体基板の下方を向く面から前記第2の半導体基板の近傍まで前記絶縁膜を貫通するように設けられる
 上記(1)に記載の固体撮像素子。
(4)
 前記第2の半導体基板において、1つの前記画素に対して所定個数の前記下側光電変換部が設けられ、
 所定個数の前記下側光電変換部それぞれに対応して、所定本数の前記導波路が設けられる
 上記(1)から(3)までのいずれかに記載の固体撮像素子。
(5)
 前記第2の半導体基板において、1つの前記画素に対して所定個数の前記下側光電変換部が設けられ、
 複数個の前記下側光電変換部ごとに対応して、所定個数よりも少ない本数の前記導波路が設けられる
 上記(1)から(3)までのいずれかに記載の固体撮像素子。
(6)
 前記導波路に光を入射する入射口の高さについて、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が低く設定される
 上記(4)または(5)に記載の固体撮像素子。
(7)
 前記導波路に光を入射する入射口の面積について、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が小面積に設定される
 上記(4)または(5)に記載の固体撮像素子。
(8)
 前記導波路に光を入射する入射口の高さについて、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が低く設定され、かつ、前記導波路に光を入射する入射口の面積について、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が小面積に設定される
 上記(4)または(5)に記載の固体撮像素子。
(9)
 光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板との間に絶縁膜を設けて、前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造とし、
 前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように導波路を設ける
 ステップを含む固体撮像素子の製造方法。
(10)
 光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、
 前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板と、
 前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造における前記第1の半導体基板と前記第2の半導体基板との間に設けられる絶縁膜と、
 前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように設けられる導波路と
 を有する固体撮像素子を備える電子機器。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 11 固体撮像素子, 12 上側センサ層, 13 下側センサ層, 14 上層画素, 15 下層画素, 21 半導体基板, 22 配線層, 23 フィルタ層, 24 オンチップレンズ層, 25 半導体基板, 26 絶縁層, 31 フォトダイオード, 32 カラーフィルタ, 33 マイクロレンズ, 34 配線, 35 遮光膜, 36 開口部, 41 フォトダイオード, 42 導波路, 51 開口部

Claims (10)

  1.  光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、
     前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板と、
     前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造における前記第1の半導体基板と前記第2の半導体基板との間に設けられる絶縁膜と、
     前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように設けられる導波路と
     を備える固体撮像素子。
  2.  前記第1の半導体基板は、前記第2の半導体基板の前記下側光電変換部に対応する箇所に開口部が設けられており、
     前記導波路は、前記第1の半導体基板の下方を向く面よりも上側から前記第2の半導体基板の近傍まで前記絶縁膜を貫通するように設けられる
     請求項1に記載の固体撮像素子。
  3.  前記第1の半導体基板は、前記第2の半導体基板の前記下側光電変換部に対応する箇所に前記上側光電変換部が設けられており、
     前記導波路は、前記上側光電変換部を透過した光を前記下側光電変換部に導くように、前記第1の半導体基板の下方を向く面から前記第2の半導体基板の近傍まで前記絶縁膜を貫通するように設けられる
     請求項1に記載の固体撮像素子。
  4.  前記第2の半導体基板において、1つの前記画素に対して所定個数の前記下側光電変換部が設けられ、
     所定個数の前記下側光電変換部それぞれに対応して、所定本数の前記導波路が設けられる
     請求項1に記載の固体撮像素子。
  5.  前記第2の半導体基板において、1つの前記画素に対して所定個数の前記下側光電変換部が設けられ、
     複数個の前記下側光電変換部ごとに対応して、所定個数よりも少ない本数の前記導波路が設けられる
     請求項1に記載の固体撮像素子。
  6.  前記導波路に光を入射する入射口の高さについて、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が低く設定される
     請求項4に記載の固体撮像素子。
  7.  前記導波路に光を入射する入射口の面積について、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が小面積に設定される
     請求項4に記載の固体撮像素子。
  8.  前記導波路に光を入射する入射口の高さについて、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が低く設定され、かつ、前記導波路に光を入射する入射口の面積について、所定本数の前記導波路のうち、外側に配置される前記導波路の前記入射口よりも、内側に配置される前記導波路の入射口が小面積に設定される
     請求項4に記載の固体撮像素子。
  9.  光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板との間に絶縁膜を設けて、前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造とし、
     前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように導波路を設ける
     ステップを含む固体撮像素子の製造方法。
  10.  光が入射してくる側である上層に積層される第1のセンサ層を構成し、平面的に配置される複数の画素ごとに上側光電変換部が設けられる第1の半導体基板と、
     前記第1のセンサ層に対して下層側に積層される第2のセンサ層を構成し、少なくとも1つの前記画素ごとに1つ以上の下側光電変換部が設けられる第2の半導体基板と、
     前記第1のセンサ層および前記第2のセンサ層が少なくとも積層される積層構造における前記第1の半導体基板と前記第2の半導体基板との間に設けられる絶縁膜と、
     前記絶縁膜の屈折率よりも高屈折率の材料により構成され、前記第2の半導体基板の前記下側光電変換部に向かって前記絶縁膜を貫通するように設けられる導波路と
     を有する固体撮像素子を備える電子機器。
PCT/JP2016/088378 2016-01-06 2016-12-22 固体撮像素子および製造方法、並びに電子機器 WO2017119317A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-000862 2016-01-06
JP2016000862A JP2017123380A (ja) 2016-01-06 2016-01-06 固体撮像素子および製造方法、並びに電子機器

Publications (1)

Publication Number Publication Date
WO2017119317A1 true WO2017119317A1 (ja) 2017-07-13

Family

ID=59273720

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088378 WO2017119317A1 (ja) 2016-01-06 2016-12-22 固体撮像素子および製造方法、並びに電子機器

Country Status (2)

Country Link
JP (1) JP2017123380A (ja)
WO (1) WO2017119317A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157250A1 (ja) * 2020-02-06 2021-08-12 ソニーセミコンダクタソリューションズ株式会社 受光素子、固体撮像装置及び電子機器

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7244304B2 (ja) * 2019-03-06 2023-03-22 日本放送協会 撮像素子

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039078A (ja) * 2012-08-10 2014-02-27 Olympus Corp 固体撮像装置および撮像装置
JP2014154755A (ja) * 2013-02-12 2014-08-25 Canon Inc 撮影レンズの瞳分割手段を備えた撮像素子を有する撮像装置および撮像素子の製造方法
JP2014232761A (ja) * 2013-05-28 2014-12-11 キヤノン株式会社 固体撮像装置
JP2015128131A (ja) * 2013-11-27 2015-07-09 ソニー株式会社 固体撮像素子および電子機器
WO2015119186A1 (ja) * 2014-02-05 2015-08-13 オリンパス株式会社 固体撮像装置および撮像装置
JP2015228468A (ja) * 2014-06-02 2015-12-17 キヤノン株式会社 光電変換装置および撮像システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057104A (ja) * 2003-08-06 2005-03-03 Nec Tokin Corp チョークコイル及びその製造方法
JP6011505B2 (ja) * 2013-09-27 2016-10-19 株式会社村田製作所 コイル部品

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039078A (ja) * 2012-08-10 2014-02-27 Olympus Corp 固体撮像装置および撮像装置
JP2014154755A (ja) * 2013-02-12 2014-08-25 Canon Inc 撮影レンズの瞳分割手段を備えた撮像素子を有する撮像装置および撮像素子の製造方法
JP2014232761A (ja) * 2013-05-28 2014-12-11 キヤノン株式会社 固体撮像装置
JP2015128131A (ja) * 2013-11-27 2015-07-09 ソニー株式会社 固体撮像素子および電子機器
WO2015119186A1 (ja) * 2014-02-05 2015-08-13 オリンパス株式会社 固体撮像装置および撮像装置
JP2015228468A (ja) * 2014-06-02 2015-12-17 キヤノン株式会社 光電変換装置および撮像システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157250A1 (ja) * 2020-02-06 2021-08-12 ソニーセミコンダクタソリューションズ株式会社 受光素子、固体撮像装置及び電子機器
JP7437957B2 (ja) 2020-02-06 2024-02-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、固体撮像装置及び電子機器

Also Published As

Publication number Publication date
JP2017123380A (ja) 2017-07-13

Similar Documents

Publication Publication Date Title
KR102593800B1 (ko) 고체 촬상 소자, 및 전자 장치
US11363186B2 (en) Image pickup device and electronic apparatus with an image plane phase difference detection pixel
JP6725231B2 (ja) 固体撮像素子、および電子装置
US10854664B2 (en) Solid-state image pickup device and method for manufacturing the same, and electronic apparatus
JP2015128131A (ja) 固体撮像素子および電子機器
US10319764B2 (en) Image sensor and electronic device
WO2016052249A1 (ja) 固体撮像素子および製造方法、並びに電子機器
WO2016208403A1 (ja) イメージセンサ、および電子機器
CN109478555B (zh) 固体摄像元件、制造方法以及电子装置
WO2017187855A1 (ja) 裏面照射型固体撮像素子及び電子機器
US20200303432A1 (en) Solid-state imaging device and electronic apparatus
KR102389418B1 (ko) 고체 촬상 소자 및 전자 기기
WO2017119317A1 (ja) 固体撮像素子および製造方法、並びに電子機器
WO2018070262A1 (ja) 固体撮像素子、および電子装置
WO2017010311A1 (ja) 固体撮像素子、製造方法、および電子機器
KR20200078480A (ko) 고체 촬상 소자, 제조 방법 및 전자 기기
WO2017068713A1 (ja) 固体撮像装置および撮像装置
CN107431078B (zh) 固体摄像元件和电子设备
WO2016194577A1 (ja) 撮像素子、撮像方法、プログラム、並びに電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16883816

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16883816

Country of ref document: EP

Kind code of ref document: A1