WO2019131122A1 - 固体撮像装置、距離計測装置、及び製造方法 - Google Patents

固体撮像装置、距離計測装置、及び製造方法 Download PDF

Info

Publication number
WO2019131122A1
WO2019131122A1 PCT/JP2018/045616 JP2018045616W WO2019131122A1 WO 2019131122 A1 WO2019131122 A1 WO 2019131122A1 JP 2018045616 W JP2018045616 W JP 2018045616W WO 2019131122 A1 WO2019131122 A1 WO 2019131122A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
solid
state imaging
imaging device
pixel
Prior art date
Application number
PCT/JP2018/045616
Other languages
English (en)
French (fr)
Inventor
祐輔 高塚
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/470,099 priority Critical patent/US20210183930A1/en
Priority to CN201880005062.8A priority patent/CN110291635A/zh
Priority to DE112018006605.3T priority patent/DE112018006605T5/de
Publication of WO2019131122A1 publication Critical patent/WO2019131122A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/1461Pixel-elements with integrated switching, control, storage or amplification elements characterised by the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures

Definitions

  • the present technology relates to a solid-state imaging device, a distance measuring device, and a manufacturing method, and more particularly to a solid-state imaging device, a distance measuring device, and a manufacturing method that can improve light collection efficiency.
  • the light collection efficiency can be improved or the sensitivity can be improved.
  • Patent Document 1 discloses a method of manufacturing a lens array having a uniform curvature shape as viewed from a two-dimensional direction while reducing the gaps (non-lens portions) of adjacent microlenses as much as possible.
  • the present technology has been made in view of such a situation, and is intended to be able to improve the light collection efficiency.
  • a distance measurement device includes a pixel unit in which a plurality of pixels having a light detection unit are arranged, a microlens formed on the light incident surface side of the light detection unit for each pixel, and the microlens
  • the microlens is a distance measuring device including a light receiving unit formed inside an opening provided in the light shielding unit.
  • the solid-state imaging device or the distance measurement device may be an independent device or an internal block constituting one device.
  • a pattern of a lens material is formed inside an opening provided in a light shielding portion, and the lens material formed inside the opening is thermally reflowed.
  • a micro lens it is a manufacturing method of the solid-state imaging device which forms the micro lens by self-alignment using the inner wall of the said opening as a stopper.
  • a pattern of a lens material is formed inside the opening provided in the light shielding part, and the lens material formed inside the opening is thermally reflowed to form a microlens.
  • the micro lens is formed in a self-alignment manner using the inner wall of the opening as a stopper.
  • the light collection efficiency can be improved.
  • composition of a solid-state imaging device to which a technique concerning this indication is applied.
  • composition of a distance measuring device to which a technique concerning this indication is applied.
  • FIG. 1 is a cross-sectional view of an essential part showing a part of the structure of the solid-state imaging device according to the first embodiment.
  • the structure of the solid-state imaging device according to the first embodiment will be described below with reference to the cross-sectional view of the relevant part.
  • the solid-state imaging device has a pixel section (pixel area) in which a plurality of pixels 100 are two-dimensionally arranged.
  • the pixel 100 is a pixel including an avalanche photodiode (APD: Avalanche Photo Diode) as a light detection unit (photoelectric conversion unit) for detecting a light signal.
  • APD avalanche photodiode
  • the APD is a photodiode whose light receiving sensitivity is improved by using a phenomenon called avalanche multiplication.
  • APD single photon avalanche photodiode
  • the SPAD forms an avalanche portion (multiplication region) in the semiconductor region so that one photon can be detected, and electrons photoelectrically converted from one photon pass through this portion to produce tens of thousands of electrons.
  • the structure is multiplied by
  • the pixel 100 including the SPAD in the APD will be described as an example of the light detection unit.
  • an n-type semiconductor region 101 and a p-type semiconductor region 102 are formed in the well layer 103.
  • the well layer 103 is a low concentration p-type or n-type semiconductor region.
  • the n-type semiconductor region 101 is made of, for example, silicon (Si), and is an n-type semiconductor region having a high impurity concentration and a conductivity type.
  • the p-type semiconductor region 102 is a semiconductor region having a high impurity concentration and a p-type conductivity.
  • the p-type semiconductor region 102 forms a pn junction at the interface with the n-type semiconductor region 101.
  • the p-type semiconductor region 102 has a multiplication region that performs avalanche multiplication on electrons (carriers) generated by the incidence of light to be detected.
  • the n-type semiconductor region 101 functions as a cathode and is connected to a wiring 112 such as copper (Cu) through a contact 111.
  • the anode for this cathode is, for example, the same layer as the n-type semiconductor region 101, and is formed between the n-type semiconductor region 101 and the separation region (the light shielding part 124) for separating SPAD It is connected to the wiring 114 through 113.
  • a groove is formed between the p-type semiconductor region 121 and the p-type semiconductor region 122, and the insulating film 123 and the light shielding portion 124 are embedded in the groove.
  • the insulating film 123 an insulating film such as an oxide film or a nitride film can be used, for example.
  • a metal such as tungsten (W) or aluminum (Al) can be used. Note that the insulating film 123 and the light shielding portion 124 may be integrally formed by using an insulating film of the same material as the insulating film 123 as the light shielding portion 124.
  • an on-chip lens 133 is formed on the light incident surface side (light receiving surface side) of the pixel 100.
  • the on-chip lens 133 is a microlens, and by being formed on the pixel 100, for example, the light collection efficiency can be improved or the sensitivity can be improved.
  • An antireflective film 131 and an insulating film 132 are formed between the on-chip lens 133 and the well layer 103. Further, an anti-reflection film 134 is also formed on the surface of the on-chip lens 133 on the light incident surface side.
  • the on-chip lens 133 is formed inside the opening provided in the light shielding portion 124, and the light shielding portion 124 is formed around the on-chip lens 133.
  • An insulating film 132 and an antireflective film 134 are stacked on the light shielding portion 124.
  • FIG. 2 schematically shows the structure of the on-chip lens 133 formed inside the opening 124 C provided in the light shielding portion 124.
  • FIG. 2A since the pixels 100 are two-dimensionally arranged in the pixel area, in FIG. 2A, some of the plurality of pixels 100 arranged in the pixel area (3 ⁇ 3 pixels) The top view at the time of seeing from the corresponding light-incidence side is shown. Further, the XX 'cross section in the plan view shown in A of FIG. 2 is shown in the cross sectional view of B of FIG.
  • the light shielding portion 124 is provided with an opening 124 ⁇ / b> C having a circular shape for each pixel 100.
  • An on-chip lens 133 is formed inside the opening 124C.
  • the on-chip lens 133 is a spherical lens (lens array) which is circular when viewed from the light incident surface side and has a uniform curvature in a two-dimensional direction, as shown in A and B of FIG.
  • the on-chip lens 133 formed on the pixel 100 is a spherical lens having a uniform curvature in a two-dimensional direction, it is possible to suppress the aberration in the depth direction (stacking direction). As a result, the light collection efficiency can be improved. Further, although the details will be described later, in particular, in the pixel 100 including the SPAD, it is possible to improve the timing jitter (Timing Jitter) characteristics.
  • the structure of the solid-state imaging device (solid-state imaging device) shown in FIG. 1 and FIG. 2 is such that light is incident from the side (back side of the substrate) opposite to the side on which the wiring layer is formed It has a type structure. Further, although the cross-sectional view shown in B of FIG. 2 is a schematic view in which the cross-sectional view shown in FIG. 1 is simplified, it is not substantially different from the structure of the cross-sectional view of FIG.
  • the semiconductor region 140 corresponds to the well layer 103 in FIG. 1
  • the multiplication region 141 corresponds to the multiplication region of the p-type semiconductor region 102 in FIG. 1.
  • the passivation film 142 corresponds to a protective film such as the antireflective film 131 or the insulating film 132 shown in FIG.
  • the wiring 146 corresponds to the wiring 112 or the like in FIG.
  • a in each drawing shows a plan view when viewed from the light incident surface side corresponding to a part of pixels (3 ⁇ 3 pixels) in the pixel area
  • B in each drawing is Fig. 6 shows a cross-sectional view taken along the line XX 'in the plan view shown in A of each of the drawings.
  • a light shielding portion 124 having an opening 124 ⁇ / b> C is formed in the semiconductor region 140.
  • a process of forming a light detection unit is performed.
  • a trench is formed by digging the substrate, and a metal such as tungsten (W) is embedded in the trench so that a circular opening is formed on the back surface side of the substrate.
  • a metal such as tungsten (W)
  • a light shielding portion 124 having a circular opening 124C is formed.
  • an insulating film such as an oxide film or a nitride film may be used instead of the metal such as tungsten (W).
  • a photolithography step is performed to form a cylindrical lens material 133A pattern inside the opening 124C provided in the light shielding portion 124.
  • resin materials such as photosensitive resin, can be used, for example.
  • a heat reflow step is performed, and the hemispherical on-chip lens 133 is thermally reflowed by heat reflowing the lens material 133A formed inside the opening 124C. It is formed.
  • a hemispherical on-chip lens 133 is formed in a self-aligned manner.
  • the on-chip lens 133 is formed for each pixel 100 and, as shown in FIG. 5, is a spherical lens (lens array) having a uniform curvature in a two-dimensional direction, as viewed from the light incident surface side. It becomes.
  • the solid-state imaging device having the structure shown in FIG. 1 can be manufactured by performing the manufacturing process including the steps as described above.
  • FIG. 6 shows optical characteristics of the pixel 100 of the solid-state imaging device according to the first embodiment.
  • the on-chip lens 133 is viewed from the light incident surface side, the X1-X1 'cross section in the oblique direction is shown in the cross-sectional view of A of FIG. Is shown in the cross-sectional view of FIG.
  • the on-chip lens 133 formed for each pixel 100 is a spherical lens having a uniform curvature in a two-dimensional direction, and therefore, is illustrated in FIG.
  • the X1-X1 'cross section and the X2-X2' cross section shown in B of FIG. 6 become the same cross section, and the incident light (detected light) shown by the dotted line in the figure is collected at the same point (Condensing points coincide with each other), and aberration in the depth direction can be suppressed.
  • the aberration in the depth direction of each pixel 100 disappears, and the light collection efficiency can be improved.
  • the on-chip lens 133 is designed such that the lens width and the lens thickness have a curvature close to (approximately) a hemisphere according to the refractive index, but the curvature of the lens
  • the adjustment is performed so as to be accommodated in the multiplication region 141 and also accommodated in the metal reflecting plate (wiring 146) provided below the multiplication region 141. That is, light is collected by the metal reflection plate (wiring 146) by collecting light so that the light collecting diameter is contained in the first layer wiring formed widely under the light detection section, and light is more efficiently generated. Can be captured.
  • the solid-state imaging device according to the first embodiment is applied to a distance measuring device (for example, a distance measuring device such as a TOF (Time Of Flight) type sensor), in the pixel 100 including SPAD, Improving the characteristics of timing jitter is one of the important factors to improve the accuracy of distance measurement.
  • a distance measuring device for example, a distance measuring device such as a TOF (Time Of Flight) type sensor
  • the distance to the object is measured by measuring the time until the light emitted by the self strikes the object and is reflected back.
  • photons are generated when the reflected light (detected light) is received by the pixel 100 including the SPAD.
  • an electron generated at the incidence of one photon is carried to the multiplication region 141 to cause avalanche multiplication.
  • the generation position of the electron is the end of the semiconductor region 140 of the pixel 100. It takes time to be carried to the multiplication region 141 if it is the region of. As described above, if there is variation (variation in photoelectric conversion location) in the time until electrons are carried to the multiplication region 141, the fluctuation width of the timing jitter becomes large (for example, the edge of the semiconductor region 140 of the pixel 100). The electrons generated in the region of (1) become the cause of the error).
  • the on-chip lens 133 formed for each pixel 100 is a spherical lens (lens array) having a uniform curvature in a two-dimensional direction.
  • the aberration in the depth direction is suppressed so that the light points coincide in the depth direction, and the variation in time until the electrons are carried to the multiplication region 141 (variation in photoelectric conversion locations) is suppressed.
  • the on-chip lens 133 is formed inside the opening 124C of the light shielding portion 124, a short circuit between on-chip lenses can be suppressed at the time of manufacture. it can. Therefore, on-chip lens formation with high productivity can be performed.
  • FIGS. 7 to 10 show the flow of manufacturing steps of a conventional on-chip lens.
  • the lens material 933A is stacked on the semiconductor region 940 in which the light shielding portion 924 is embedded (FIG. 7).
  • a pattern of a rectangular resist material 951 is formed on the lens material 933A (FIG. 8).
  • the shape of the resist material 951 is deformed into a square shape with rounded corners when viewed from the light incident surface side by heat reflow (FIG. 9).
  • the on-chip lens 933 is formed by removing the pattern of the resist material 951 (FIG. 10).
  • FIG. 11 shows the optical characteristic of the pixel of the conventional solid-state imaging device.
  • the X1-X1 ′ cross section in the oblique direction is shown in the cross sectional view of FIG.
  • the transverse X2-X2 'cross-section is shown in the cross-sectional view of FIG.
  • the on-chip lens 933 formed for each pixel is a square lens with rounded corners when viewed from the light incident surface side, as shown in FIG.
  • the X1-X1 'cross section shown in A and the X2-X2' cross section shown in B of FIG. 11 become different cross sections, and the incident light (detected light) shown by the dotted line in the figure is collected at different points. Lighted (condensed points do not coincide).
  • the on-chip lens 933 is not a spherical lens having a uniform curvature in a two-dimensional direction as the on-chip lens 133 (FIG. 6) described above. An aberration is generated due to the difference D between the focus positions (Z1, Z2) in the depth direction.
  • the occurrence of aberration in the depth direction can not improve the light collection efficiency, and as a result, the characteristics of timing jitter can not be improved. Further, in the conventional solid-state imaging device, since the portion having the curvature of the lens is formed at a position higher than the light shielding portion 924 in the on-chip lens 933, it becomes difficult to suppress the crosstalk.
  • self-alignment is performed by patterning the photosensitive resin in a cylindrical shape and performing heat reflow at the circular opening 124C provided in the light shielding portion 124.
  • a spherical lens (lens array) having a uniform curvature in the two-dimensional direction is formed.
  • FIG. 12 is a plan view of relevant parts showing a part of the structure of the solid-state imaging device according to the second embodiment.
  • the structure of the solid-state imaging device according to the second embodiment will be described below with reference to the plan view of the relevant part.
  • the shape of the opening 124C of the light shielding portion 124 is a circular shape so that the on-chip lens 133 with a hemispherical shape by self alignment using the inner wall as a stopper.
  • the shape of the opening provided in the light shielding portion 124 may be a shape other than a circular shape such as a polygon.
  • FIG. 12 shows a structure in which the light shielding portion 124 is provided with an opening 124Q having a square shape.
  • the on-chip lens 133 is a lens (lens array) having a rectangular shape when viewed from the light incident surface side.
  • (Second example) B of FIG. 12 shows a structure in which the light shielding portion 124 is provided with an opening 124O having an octagonal shape.
  • the lens material 133A melts and flows by heat reflow.
  • the on-chip lens 133 is formed in self alignment using the inner wall of the opening 124O having an octagonal shape as a stopper.
  • the on-chip lens 133 is a lens (lens array) having an octagonal shape when viewed from the light incident surface side.
  • the opening is
  • the on-chip lens 133 can be formed in a self-aligned manner using the inner wall of as a stopper.
  • shape of polygons such as a square and an octagon, was illustrated as shapes of opening parts other than circular here, you may employ
  • FIG. 13 is a schematic view showing a part of the structure of the solid-state imaging device according to the third embodiment.
  • the structure of the solid-state imaging device according to the third embodiment will be described below with reference to this schematic view. Note that A in FIG. 13 shows a plan view of a part of the pixels in the pixel area, and B in FIG. 13 shows a cross-sectional view taken along the line XX ′.
  • the openings 124C have a constant gap (gap) in the matrix direction when viewed from the light incident surface side.
  • the arrangement of the openings 124C provided in the light shielding portion 124 may be a combination of an arrangement of predetermined shapes in accordance with a certain rule.
  • the gaps (gaps) between the respective pixels 100 in the pixel region are reduced as much as possible, and seven pixels 100 are collectively made up of a combination of hexagonal arrays. You can do so.
  • the openings 124C in the light shielding portion 124 are also arranged in a combination of seven openings 124C in a hexagonal arrangement (a close-packed structure in a hexagonal shape) There is.
  • the heat reflow process is performed. Then, the lens material 133A formed inside the opening 124C is subjected to heat reflow.
  • the pixel 100 including an avalanche photodiode (APD) or a single photon avalanche photodiode (SPAD) as the light detection unit (photoelectric conversion unit) has been described.
  • the light detection unit photoelectric conversion unit
  • a photodiode for example, by providing a color filter between the on-chip lens 133 and the photodiode (PD), for example, R pixel, G pixel, and B pixel, such as Bayer array It can be arranged in an array pattern.
  • the R pixel is a pixel that obtains a charge corresponding to the light of the red (R) component from the light transmitted through the color filter that transmits the wavelength component of red (R: Red).
  • the G pixel is a pixel that obtains a charge corresponding to the light of the green (G) component from the light transmitted through the color filter that transmits the wavelength component of green (G: Green).
  • the B pixel is a pixel for obtaining a charge corresponding to the light of the blue (B) component from the light transmitted through the color filter that transmits the wavelength component of blue (B: Blue).
  • the Bayer array is an array pattern in which G pixels are arranged in a checkered pattern, and in the remaining portion, R pixels and B pixels are alternately arranged in each row.
  • pixels other than RGB pixels such as W pixels corresponding to white (W: White) or IR pixels corresponding to infrared rays (IR: infrared) may be included.
  • the W pixel transmits light in the entire wavelength region, while the other RGB pixels (for example, R pixel and B pixel) transmit only specific wavelengths.
  • the IR pixel is a pixel that transmits infrared light (IR) and has sensitivity to the wavelength band of infrared light.
  • FIG. 14 is a schematic view showing a part of the structure of the solid-state imaging device according to the fourth embodiment.
  • the structure of the solid-state imaging device according to the fourth embodiment will be described below with reference to this schematic view. Note that A in FIG. 14 shows a plan view of a part of pixels in the pixel region, and B in FIG. 14 shows a cross-sectional view taken along the line XX ′.
  • the openings 124S are provided in the region of the gap. ing.
  • one opening 124S is provided in each area including the center position of the four openings 124L.
  • the opening 124S has a circular shape like the opening 124L, but the diameter thereof is smaller than the diameter of the opening 124L.
  • a lens material 133A corresponding to the diameter of each opening is formed inside each of the opening 124L and the opening 124S in a photolithography process. Later, in the heat reflow process, the lens material 133A formed inside the opening 124L and the opening 124S formed inside the opening 124S are respectively subjected to heat reflow.
  • the lens material 133A melts and flows, but the on-chip lens 133L is formed in a self-aligned manner with the inner wall of the opening 124L as a stopper, and the on-chip lens in a self-aligned manner with the inner wall of the opening 124S as a stopper.
  • 133S are formed. Both of the on-chip lenses 133L and 133S are spherical lenses having uniform curvature in the two-dimensional direction, but the diameter of the on-chip lens 133S is smaller than the diameter of the on-chip lens 133L.
  • the pixel 100L corresponding to the on-chip lens 133L is an R pixel, a G pixel, or a B pixel
  • the pixel 100S corresponding to the on-chip lens 133S is an IR pixel. can do. That is, in the example of FIG. 14, one IR pixel is provided for four RGB pixels.
  • pixels such as R pixels, G pixels, B pixels, and IR pixels may be arranged as the pixels 100 (100L and 100S) in a predetermined arrangement pattern. it can.
  • the on-chip lens 133 formed for each pixel 100 is a pixel including a photodiode (PD) instead of an avalanche photodiode (APD) or a single photon avalanche photodiode (SPAD). It can be a spherical lens having a uniform curvature in the dimensional direction.
  • the aberration in the depth direction is eliminated, and the light collection efficiency can be improved.
  • the portion having the curvature of the lens is located at a position lower than the light shielding portion 124. Since it can be formed, color mixing from the light incident surface side (light receiving surface side) can be suppressed.
  • the IR pixels are arranged in the space (area) which can be formed when the RGB pixels are arranged in the predetermined arrangement pattern, so the invalid area is reduced. , Can increase the aperture ratio.
  • the solid-state imaging device can also be configured as, for example, a charge coupled device (CCD) image sensor or the like in addition to the CMOS image sensor.
  • CCD charge coupled device
  • an arrangement for example, a hexagonal shape
  • pixels 100 such as R pixels, G pixels, and B pixels is a combination of predetermined shapes according to a predetermined rule, as in the third embodiment. It may be made to be a close packed structure).
  • FIG. 15 is a sectional view of an essential part showing a part of the structure of the solid-state imaging device according to the fifth embodiment.
  • the structure of the solid-state imaging device according to the fifth embodiment will be described below with reference to the cross-sectional view of the relevant part.
  • the light shielding portion 124 when a metal such as tungsten (W) or aluminum (Al) is used as the material of the light shielding portion 124 embedded in the separation region for separating the SPAD, the light shielding portion The wiring 124 is used as a lead wiring on the light incident surface side.
  • a metal such as tungsten (W) or aluminum (Al)
  • metal such as tungsten (W) is embedded in the groove formed in the separation region on the right side of the pixel 100, and further through the through via in the well layer 103 on the right side of the separation region
  • a light shielding portion 221 is formed by embedding a metal such as (W) and connecting it to the metal embedded in the right separation region.
  • An oxide film 222, a light shielding film 223, and an antireflective film 224 are stacked on the light shielding portion 221.
  • the light shielding portion 221 is connected to the wiring 116 through the contact 115.
  • the anode contact is dropped at the light shielding portion 124 to form the contact region 211 of the p-type anode, whereby the electric field from the upper side in the figure with respect to the multiplication region of the p-type semiconductor region 102. It is possible to apply as described above, in the solid-state imaging device according to the fifth embodiment, the SPAD of each pixel 100 is simultaneously used by simultaneously using the light shielding portions 124 and 221 not only as the light shielding function but also as the lead-out wiring of the anode contact. The common anode can be dropped.
  • the light shielding film 223 is formed only on the light shielding portion 221 used as a lead wiring, but as shown in FIG. A light shielding film 223 may be formed on the upper side.
  • the light shielding film 223 may be integrally formed by using the same material as the light shielding portion 124.
  • an oxide film may be formed between the light shielding portion 124 and the light shielding film 223.
  • the left side of the dotted line in the vertical direction in the figure represents the pixel area A1
  • the right side of the dotted line represents the peripheral area A2. That is, it can be said that the light shielding film 223 on the left side of the dotted line is a pixel area light shielding film, while the light shielding film 223 on the right side of the dotted line is a peripheral area light shielding film.
  • the light shielding portion 221 used as a lead-out wiring includes the pixel area A1 and the peripheral area. It will be formed in a region including the boundary with A2. Details of the relationship between the pixel area A1 and the peripheral area A2 will be described later with reference to FIG.
  • the light blocking portions 124 and 221 are also used as lead wiring for the anode contact, and the SPAD of each pixel 100 is dropped by dropping the contact to the SPAD of each pixel 100.
  • the common anode can be dropped.
  • FIG. 18 is a schematic view showing a part of the structure of the solid-state imaging device according to the sixth embodiment. The structure of the solid-state imaging device according to the sixth embodiment will be described below with reference to this schematic view.
  • the anti-reflection film 181 is formed on the light shielding portion 124 formed in the separation region for separating the SPAD of the adjacent pixels 100 ( Film formation).
  • a metal such as tungsten (W) or aluminum (Al)
  • Al aluminum
  • the reflection of light on the upper surface of the light shielding portion 124 can be reduced by forming the antireflective film 181 on the light shielding portion 124, Crosstalk due to reflected light can be suppressed. Also, the influence of flare can be reduced.
  • FIG. 19 is a cross-sectional view of main parts showing a part of the structure of the solid-state imaging device according to the seventh embodiment.
  • the structure of the solid-state imaging device according to the seventh embodiment will be described below with reference to the cross-sectional view of the relevant part.
  • the light shielding portion 124 is formed in the separation region between the pixels 100.
  • the light shielding portion 124 may not be provided.
  • p-type semiconductor regions 121 and 122 are provided on both sides of well layer 103 as separation regions for separating SPAD of adjacent pixels 100.
  • An oxide film 321 is embedded in the formed trench (trench).
  • a light shielding portion 322 is formed on the oxide film 321. In the light shielding portion 322, an opening having a circular shape is provided for each pixel 100.
  • the lens in the heat reflow process. Heat reflow the material 133A.
  • a spherical on-chip lens 133 having a uniform curvature in a two-dimensional direction is formed in a self-aligned manner.
  • the oxide film 321 is embedded in the groove portion (trench) formed in the separation region instead of the light shielding portion 124, it is formed on the oxide film 321.
  • the on-chip lens 133 can be formed in self alignment with the inner wall of the light shielding portion 322 as a stopper.
  • a hole storage region for storing holes is formed between the separation region for separating SPAD and the well layer 103 (on the side wall of the separation region).
  • the light shielding portion 124 formed in the separation region is formed of a metal such as tungsten (W), and a voltage is applied to the light shielding portion 124.
  • a hole accumulation area may be formed in the vicinity of the light shielding portion 124.
  • a structure may be employed in which the thickness (depth) of the well layer 103 is made deeper (thicker).
  • the light shielding portion 124 can be formed in the separation region, and the fixed charge film can be formed on the side surface side of the well layer 103.
  • a hole storage region can be formed on part of the side surface of the fixed charge film on the well layer 103 side.
  • the shape of the n-type semiconductor region 101 may be changed to another shape.
  • a portion having a convex portion can be formed by being embedded in the well layer 103 except the portion to which the contact is connected.
  • this convex part can be formed continuously or discontinuously.
  • the planar shape of the n-type semiconductor region 101 in this case may be, for example, an annular shape.
  • the separation region is formed penetrating from the upper surface side to the lower surface side of the well layer 103 in the stacking direction.
  • the structure of completely penetrating to the side for example, it may be a structure of penetrating only a part and inserting the separation region (the light shielding portion 124) to the middle of the substrate.
  • the polarity of the SPAD shown in the above-described embodiment is merely an example, and may have different polarities (that is, pn inversion may be performed).
  • the n-type semiconductor region 101 and the p-type semiconductor region 102 are formed in the well layer 103 in the first embodiment, the p-type semiconductor region 101 having a p-type conductivity is An n-type semiconductor region 102 of n-type may be formed.
  • the well layer 103 may be a semiconductor region of n type conductivity or a semiconductor region of p type conductivity.
  • the p-type semiconductor region 101 functions as an anode and is connected to the wiring 112 through the contact 111.
  • the cathode for the anode is formed, for example, in the same layer as the p-type semiconductor region 101 and between the p-type semiconductor region 101 and the separation region (the light shielding portion 124).
  • each layer or the film forming method and film forming conditions described in the above embodiment are not limited to the above description, and other materials and thicknesses or other film forming method Alternatively, film formation conditions may be used. Further, in the above-described embodiment and the like, the configuration of the pixel 100 is specifically described. However, it is not necessary to have all the layers, and other layers may be further included.
  • the pixel 100 including the avalanche photodiode (APD), the single photon avalanche photodiode (SPAD), and the photodiode (PD) has been described.
  • the pixels 100 are arranged in an array in a pixel area A1 provided in a sensor chip 11 constituting the solid-state imaging device 10.
  • a logic chip (not shown) is connected to the lower surface (surface opposite to the light incident surface) of the sensor chip 11 in which the pixel 100 is disposed.
  • a circuit that processes a signal from the pixel 100 and supplies power to the pixel 100 is formed.
  • a peripheral area A2 is disposed outside the pixel area A1. Further, a pad area A3 is disposed outside the peripheral area A2.
  • the pad area A3 is a hole in the vertical direction extending from the upper end of the sensor chip 11 to the inside of the wiring layer, and a pad opening which is a hole for wiring to the electrode pad is formed to align in a straight line.
  • the peripheral area A2 provided between the pixel area A1 and the pad area A3 is composed of an n-type semiconductor area and a p-type semiconductor area.
  • FIG. 21 is a diagram illustrating an example of the configuration of a distance measurement device to which the present technology is applied.
  • the distance measuring device 1000 shown in FIG. 21 is configured to include an optical pulse transmitter 1011 as a light source, an optical pulse receiver 1012 as a light receiving unit, and an RS flip flop 1013.
  • the TOF type sensor is a sensor that measures the distance to the object by measuring the time until the light emitted from the object strikes the object and is reflected back.
  • the TOF sensor operates, for example, at the timing shown in the timing chart of FIG.
  • the light pulse transmitter 1011 emits light based on the trigger pulse supplied thereto (light transmission pulse). The emitted light strikes the object, and the reflected light that has been reflected is received by the light pulse receiver 1012.
  • the difference between the time when the transmission light pulse is emitted and the time when the reception light pulse is received corresponds to the time according to the distance to the object, that is, the light flight time TOF.
  • the trigger pulse is supplied to the optical pulse transmitter 1011 and also to the RS flip flop 1013.
  • the trigger pulse is supplied to the light pulse transmitter 1011 to transmit a light pulse for a short time and supplied to the RS flip flop 1013 to reset the RS flip flop 1013.
  • a solid-state imaging device 10 having a pixel 100 including an APD such as SPAD can be used as the light pulse receiver 1012 constituting the TOF sensor.
  • APD such as SPAD
  • the above-described solid-state imaging device 10 (FIG. 20) is used as the light pulse receiver 1012, photons are generated when the reception light pulse is received by the pixel 100 including the SPAD. The generated photon (electrical pulse) resets the RS flip flop 1013.
  • the distance measuring device 1000 By performing such processing, the distance measuring device 1000 generates distance information. Then, for example, using this distance information, a distance image can be obtained.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of mobile object such as a car, an electric car, a hybrid electric car, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot May be
  • FIG. 23 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an external information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the driveline control unit 12010 controls the operation of devices related to the driveline of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • Body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device of various lamps such as a headlamp, a back lamp, a brake lamp, a blinker or a fog lamp.
  • the body system control unit 12020 may receive radio waves or signals of various switches transmitted from a portable device substituting a key.
  • Body system control unit 12020 receives the input of these radio waves or signals, and controls a door lock device, a power window device, a lamp and the like of the vehicle.
  • Outside vehicle information detection unit 12030 detects information outside the vehicle equipped with vehicle control system 12000.
  • an imaging unit 12031 is connected to the external information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing or distance detection processing of a person, a vehicle, an obstacle, a sign, characters on a road surface, or the like based on the received image.
  • In-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver state detection unit 12041 that detects a state of a driver is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera for imaging the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver does not go to sleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information inside and outside the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040, and a drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040 so that the driver can Coordinated control can be performed for the purpose of automatic driving that travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the external information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or aurally notifying information to a passenger or the outside of a vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 24 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • imaging units 12101, 12102, 12103, 12104, and 12105 are provided as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, on the front nose of the vehicle 12100, a side mirror, a rear bumper, a back door, an upper portion of a windshield of a vehicle interior, and the like.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle cabin mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the top of the windshield in the passenger compartment is mainly used to detect a leading vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 24 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by overlaying the image data captured by the imaging units 12101 to 12104, a bird's eye view of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging devices, or an imaging device having pixels for phase difference detection.
  • the microcomputer 12051 measures the distance to each three-dimensional object in the imaging ranges 12111 to 12114, and the temporal change of this distance (relative velocity with respect to the vehicle 12100). In particular, it is possible to extract a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in substantially the same direction as the vehicle 12100 as a leading vehicle, in particular by finding the it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. As described above, it is possible to perform coordinated control for the purpose of automatic driving or the like that travels autonomously without depending on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data relating to three-dimensional objects into two-dimensional vehicles such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, telephone poles, and other three-dimensional objects. It can be classified, extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk is a setting value or more and there is a possibility of a collision, through the audio speaker 12061 or the display unit 12062 By outputting a warning to the driver or performing forcible deceleration or avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as an infrared camera, and pattern matching processing on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not
  • the procedure is to determine
  • the audio image output unit 12052 generates a square outline for highlighting the recognized pedestrian.
  • the display unit 12062 is controlled so as to display a superimposed image. Further, the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure may be applied to the imaging unit 12031 among the configurations described above.
  • the solid-state imaging device in FIG. 1 and the like (the distance measurement device in FIG. 21) can be applied to the imaging unit 12031.
  • the light collection efficiency can be improved, so that, for example, a more accurate captured image (distance image) is acquired, and the pedestrian or the like can be more accurately obtained. It becomes possible to recognize an obstacle.
  • the present technology can have the following configurations.
  • Solid-state imaging device. (2) The opening has a circular shape, The solid-state imaging device according to (1), wherein the microlens is a spherical lens having a uniform curvature in a two-dimensional direction when viewed from the light incident surface side.
  • the opening has a polygonal shape
  • the solid-state imaging device according to (1) wherein the microlens is a lens having a polygonal shape when viewed from the light incident surface side.
  • the opening portion is provided so as to be regularly arranged by narrowing the distance between the micro lenses when viewed from the light incident surface side.
  • the solid-state imaging device according to any one of (1) to (3) is
  • the solid-state imaging device according to any one of (1) to (5), wherein the light detection unit is an avalanche photodiode (APD) or a single photon avalanche photodiode (SPAD).
  • APD avalanche photodiode
  • SPAD single photon avalanche photodiode
  • PD photodiode
  • the pixel is an R pixel, a G pixel, or a B pixel.
  • the opening is provided in a region excluding a first opening having a predetermined diameter and a region where the first opening is provided, and has a diameter smaller than the diameter of the first opening.
  • the solid-state imaging device according to any one of (1) to (9), wherein the light shielding portion is made of a metal or an insulating film.
  • the distance measuring device includes the light receiving unit which is formed inside the opening provided in the light shielding unit.
  • 10 solid-state imaging device 11 sensor chip, 100 pixels, 100 L, 100 S pixels, 101 n-type semiconductor region, 102 p-type semiconductor region, 103 well layer, 121 p-type semiconductor region, 122 p-type semiconductor region, 123 insulating film, 124 Light shielding part, 124C opening, 124O, 124Q opening, 124L, 124S opening, 131 antireflection film, 132 insulating film, 133 on-chip lens, 133L, 133S on-chip lens, 134 antireflection film, 1000 distance measuring device, 1011 light pulse transmitter, 1012 light pulse receiver, 1013 RS flip flop, 12031 imaging unit

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

本技術は、集光効率を向上させることができるようにする固体撮像装置、距離計測装置、及び製造方法に関する。 光検出部を有する画素を複数配置した画素部と、画素ごとに、光検出部の光入射面側に形成されるマイクロレンズと、マイクロレンズの周囲に形成され、光を遮光する遮光部とを備え、マイクロレンズは、遮光部に設けられた開口部の内側に形成される固体撮像装置が提供される。本技術は、例えば、CMOSイメージセンサに適用することができる。

Description

固体撮像装置、距離計測装置、及び製造方法
 本技術は、固体撮像装置、距離計測装置、及び製造方法に関し、特に、集光効率を向上させることができるようにした固体撮像装置、距離計測装置、及び製造方法に関する。
 固体撮像素子の各画素上に、マイクロレンズを形成することによって、例えば、光の集光効率を改善したり、感度を向上させたりすることができる。
 特許文献1には、隣接するマイクロレンズのギャップ(非レンズ部分)をできるだけ縮小しつつ、2次元方向から見て均一な曲率形状を有するレンズアレイの製造方法が開示されている。
特開2008-52004号公報
 ところで、固体撮像素子においては、一般的に、各画素に入射される光の集光効率を向上させるための技術が求められている。
 本技術はこのような状況に鑑みてなされたものであり、集光効率を向上させることができるようにするものである。
 本技術の一側面の固体撮像装置は、光検出部を有する画素を複数配置した画素部と、前記画素ごとに、前記光検出部の光入射面側に形成されるマイクロレンズと、前記マイクロレンズの周囲に形成され、光を遮光する遮光部とを備え、前記マイクロレンズは、前記遮光部に設けられた開口部の内側に形成される固体撮像装置である。
 本技術の一側面の距離計測装置は、光検出部を有する画素を複数配置した画素部と、前記画素ごとに、前記光検出部の光入射面側に形成されるマイクロレンズと、前記マイクロレンズの周囲に形成され、光を遮光する遮光部とを有し、前記マイクロレンズは、前記遮光部に設けられた開口部の内側に形成される受光部を備える距離計測装置である。
 なお、本技術の一側面の固体撮像装置又は距離計測装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
 本技術の一側面の固体撮像装置の製造方法は、遮光部に設けられた開口部の内側に、レンズ材のパターンを形成し、前記開口部の内側に形成されたレンズ材を熱リフローしてマイクロレンズを形成する際に、前記開口部の内壁をストッパとして、セルフアラインで、前記マイクロレンズを形成する固体撮像装置の製造方法である。
 本技術の一側面の製造方法においては、遮光部に設けられた開口部の内側に、レンズ材のパターンが形成され、前記開口部の内側に形成されたレンズ材を熱リフローしてマイクロレンズを形成する際に、前記開口部の内壁をストッパとして、セルフアラインで、前記マイクロレンズが形成される。
 本技術の一側面によれば、集光効率を向上させることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
第1の実施の形態の固体撮像装置の構造の一部を示す要部断面図である。 第1の実施の形態の固体撮像装置の構造の一部を示す模式図である。 第1の実施の形態の固体撮像装置の製造工程の流れを説明する図である。 第1の実施の形態の固体撮像装置の製造工程の流れを説明する図である。 第1の実施の形態の固体撮像装置の製造工程の流れを説明する図である。 第1の実施の形態の固体撮像装置の画素の光学的な特性を説明する図である。 従来の固体撮像装置の製造工程の流れを説明する図である。 従来の固体撮像装置の製造工程の流れを説明する図である。 従来の固体撮像装置の製造工程の流れを説明する図である。 従来の固体撮像装置の製造工程の流れを説明する図である。 従来の固体撮像装置の画素の光学的な特性を説明する図である。 第2の実施の形態の固体撮像装置の構造の一部を示す要部平面図である。 第3の実施の形態の固体撮像装置の構造の一部を示す模式図である。 第4の実施の形態の固体撮像装置の構造の一部を示す模式図である。 第5の実施の形態の固体撮像装置の構造の一部を示す第1の要部断面図である。 第5の実施の形態の固体撮像装置の構造の一部を示す第2の要部断面図である。 第5の実施の形態の固体撮像装置の構造の一部を示す模式図である。 第6の実施の形態の固体撮像装置の構造の一部を示す模式図である。 第7の実施の形態の固体撮像装置の構造の一部を示す要部断面図である。 本開示に係る技術を適用した固体撮像装置の構成を示す図である。 本開示に係る技術を適用した距離計測装置の構成を示す図である。 TOF方式を用いた距離計測について説明する図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.第1の実施の形態:基本構造
2.第2の実施の形態:開口部を多角形とした構造
3.第3の実施の形態:開口部の間隔を狭めて配置した構造
4.第4の実施の形態:RGB画素とIR画素を有する構造
5.第5の実施の形態:遮光部を引き回し配線として用いた構造
6.第6の実施の形態:遮光部の上部に反射防止膜を形成した構造
7.第7の実施の形態:画素間の遮光部を設けない構造
8.変形例
9.固体撮像装置への適用例
10.距離計測装置への適用例
11.移動体への応用例
<1.第1の実施の形態>
(固体撮像装置の構造)
 図1は、第1の実施の形態の固体撮像装置の構造の一部を示す要部断面図である。以下、この要部断面図を参照して、第1の実施の形態の固体撮像装置の構造を説明する。
 第1の実施の形態の固体撮像装置は、複数の画素100を2次元状に配置した画素部(画素領域)を有している。画素100は、光信号を検出するための光検出部(光電変換部)として、アバランシェフォトダイオード(APD:Avalanche Photo Diode)を含む画素である。ここで、APDは、アバランシェ増倍と呼ばれる現象を利用して受光感度を向上させたフォトダイオードである。
 APDの使用モードには、逆バイアス電圧を降伏電圧(ブレークダウン電圧)未満で動作させるリニアモードと、降伏電圧以上で動作させるガイガモードがある。ガイガモードでは、単一の光子(フォトン)の入射でもアバランシェ現象を起こすことができる。このようなフォトダイオードを、単一光子アバランシェフォトダイオード(SPAD:Single Photon Avalanche Diode)という。
 SPADは、1光子を検出できるように、半導体領域内に、アバランシェ部(増倍領域)を形成し、1光子から光電変換された電子が、この部分を通過することで、数万倍の電子に増倍される構造からなる。以下、第1の実施の形態の固体撮像装置の構造では、光検出部として、APDのうち、SPADを含む画素100を一例に説明する。
 画素100において、ウェル層103内に、n型半導体領域101とp型半導体領域102が形成されている。ウェル層103は、低濃度のp型又はn型の半導体領域である。n型半導体領域101は、例えばシリコン(Si)からなり、不純物濃度が高い導電型がn型の半導体領域である。p型半導体領域102は、不純物濃度が高い導電型がp型の半導体領域である。
 p型半導体領域102は、n型半導体領域101との界面で、pn接合を構成している。p型半導体領域102は、被検出光の入射によって生じた電子(キャリア)を、アバランシェ増倍する増倍領域を有する。
 n型半導体領域101は、カソードとして機能し、コンタクト111を介して、銅(Cu)等の配線112に接続されている。このカソードに対するアノードは、例えば、n型半導体領域101と同層であって、n型半導体領域101と、SPADを分離するための分離領域(の遮光部124)との間などに形成され、コンタクト113を介して配線114と接続されている。
 図1において、ウェル層103の両側には、隣接する画素100のSPADを分離するための分離領域が設けられている。この分離領域としては、p型半導体領域121とp型半導体領域122との間に、溝部(トレンチ)が形成され、その溝部に、絶縁膜123と遮光部124が埋め込まれている。
 絶縁膜123としては、例えば、酸化膜や窒化膜等の絶縁膜を用いることができる。また、遮光部124としては、例えば、タングステン(W)やアルミニウム(Al)等の金属を用いることができる。なお、遮光部124として、絶縁膜123と同一の材料の絶縁膜を用いることで、絶縁膜123と遮光部124が一体に形成されるようにしてもよい。
 また、画素100の光入射面側(受光面側)には、オンチップレンズ133が形成されている。オンチップレンズ133は、マイクロレンズであって、画素100上に形成することで、例えば、光の集光効率を改善したり、感度を向上させたりすることができる。
 オンチップレンズ133とウェル層103との間には、反射防止膜131と絶縁膜132が形成されている。また、オンチップレンズ133の光入射面側の表面にも、反射防止膜134が形成されている。
 ここで、オンチップレンズ133は、遮光部124に設けられた開口部の内側に形成され、オンチップレンズ133の周囲に、遮光部124が形成されている。なお、遮光部124の上部には、絶縁膜132と反射防止膜134が積層されている。
 図2は、遮光部124に設けられた開口部124Cの内側に形成されたオンチップレンズ133の構造を模式的に表している。
 なお、画素100は、画素領域に2次元状に配置されているため、図2のAには、画素領域に配置される複数の画素100のうち、一部の画素(3×3画素)に対応した光入射面側から見た場合の平面図を示している。また、図2のAに示した平面図におけるX-X'断面を、図2のBの断面図に示している。
 図2のAに示すように、遮光部124には、画素100ごとに、円形の形状からなる開口部124Cが設けられている。この開口部124Cの内側には、オンチップレンズ133が形成されている。オンチップレンズ133は、図2のA,Bに示すように、光入射面側から見た場合に円形で、2次元方向で均一な曲率を有する球面形状のレンズ(レンズアレイ)となる。
 このように、画素100上に形成されるオンチップレンズ133が、2次元方向で均一な曲率を有する球面形状のレンズとなることで、深さ方向(積層方向)の収差を抑えることが可能となるため、結果として集光効率を向上させることができる。また、詳細は後述するが、特に、SPADを含む画素100では、タイミングジッタ(Timing Jitter)特性を向上させることが可能となる。
 なお、図1及び図2に示した固体撮像装置(固体撮像素子)の構造は、基板上の配線層が形成される側とは反対側(基板の裏面側)から光を入射させる、裏面照射型の構造となっている。また、図2のBに示した断面図は、図1に示した断面図を簡略化した模式図となっているが、図1の断面図の構造と実質的に変わるものではない。
 例えば、図2において、半導体領域140は、図1のウェル層103に対応し、増倍領域141は、図1のp型半導体領域102の増倍領域に対応している。また、パッシベーション膜142は、図1の反射防止膜131や絶縁膜132等の保護膜に対応している。さらに、配線146は、図1の配線112等に対応している。これらの対応関係は、後述する図3乃至図5や、図6等の他の模式図においても同様である。
(製造工程の流れ)
 次に、図3乃至図5の模式図を参照して、第1の実施の形態の固体撮像装置の画素100ごとに形成されるオンチップレンズ133の製造工程の流れを説明する。
 なお、図3乃至図5において、各図のAは、画素領域における一部の画素(3×3画素)に対応した光入射面側から見た場合の平面図を示し、各図のBは、各図のAに示した平面図におけるX-X'断面の断面図を示している。
 まず、第1の工程として、図3に示すように、半導体領域140に対し、開口部124Cを有する遮光部124が形成される。なお、図示は省略しているが、遮光部124を形成する工程の前段の工程として、例えば、基板の表面にパッシベーション膜142を形成する工程や、基板(シリコン)に不純物注入によって、SPAD等の光検出部を形成する工程などが行われている。
 ここでは、例えば、基板を掘り込むことで溝部(トレンチ)を形成して、その溝部にタングステン(W)等の金属を埋め込むとともに、基板の裏面側に、円形の開口が形成されるようにタングステン(W)等の金属を加工することで、円形の開口部124Cを有する遮光部124が形成される。
 なお、遮光部124の材料としては、タングステン(W)等の金属の代わりに、例えば、酸化膜や窒化膜等の絶縁膜を用いるようにしてもよい。
 次に、第2の工程として、図4に示すように、フォトリソグラフィ工程が行われ、遮光部124に設けられた開口部124Cの内側に、円柱状のレンズ材133Aのパターンが形成される。なお、レンズ材133Aの材料としては、例えば、感光性樹脂等の樹脂材料を用いることができる。
 次に、第3の工程として、図5に示すように、熱リフロー工程が行われ、開口部124Cの内側に形成されたレンズ材133Aを熱リフローすることで、半球状のオンチップレンズ133が形成される。
 すなわち、円形の開口部124Cの内側に形成された円柱状のレンズ材133Aを熱リフローすると、レンズ材133Aが溶けて流動するが、開口部124Cの内壁をストッパ(stopper)として、表面張力を利用して、いわばセルフアライン的に、半球状のオンチップレンズ133が形成されることになる。
 このオンチップレンズ133は、画素100ごとに形成され、図5に示すように、光入射面側から見た場合に円形で、2次元方向で均一な曲率を有する球面形状のレンズ(レンズアレイ)となる。
 以上のような工程を含む製造工程が行われることで、図1に示した構造を有する固体撮像装置を製造することができる。
 図6は、第1の実施の形態の固体撮像装置の画素100の光学的な特性を示している。ここでは、オンチップレンズ133を光入射面側から見た場合において、その斜め方向のX1-X1'断面を、図6のAの断面図に示す一方で、その横方向のX2-X2'断面を、図6のBの断面図に示している。
 上述した製造工程で製造される固体撮像装置では、画素100ごとに形成されるオンチップレンズ133が、2次元方向で均一な曲率を有する球面形状のレンズとなるため、図6のAに示したX1-X1'断面と、図6のBに示したX2-X2'断面とが、同一の断面となって、図中の点線で示す入射光(被検出光)が同一の点に集光され(集光ポイントが一致しており)、深さ方向の収差を抑えることができる。
 このように、第1の実施の形態の固体撮像装置では、各画素100での深さ方向での収差がなくなって、集光効率を向上させることが可能となる。
 なお、実際には、オンチップレンズ133は、その屈折率に応じてレンズ幅とレンズ厚が、(ほぼ)半球に近い曲率になるように設計されるが、レンズの曲率は、被検出光が、増倍領域141内に収まりつつ、かつ、その下部に設けられる金属反射板(配線146)内にも収まるように調整される。すなわち、集光径が、光検出部下に広く形成された第1層目の配線に収まるように集光することで、光を金属反射板(配線146)で反射させて、より効率的に光を取り込むことができる。
 ここで、例えば、第1の実施の形態の固体撮像装置を、距離計測装置(例えば、TOF(Time Of Flight)型センサ等の測距装置)に適用する場合において、SPADを含む画素100では、タイミングジッタの特性を向上させることが、測距の精度を向上させるための重要な要因の1つとなっている。
 具体的には、後述の図21に示すように、TOF型センサでは、自己が発した光が、対象物に当たり、反射して戻ってくるまでの時間を計測することで、対象物までの距離を計測するが、第1の実施の形態の固体撮像装置を用いる場合には、SPADを含む画素100によって、反射光(被検出光)が受光されると、フォトンが発生する。
 その際に、画素100では、1フォトンの入射で発生した電子が増倍領域141に運ばれることで、アバランシェ増倍が生じるが、例えば、電子の発生位置が、画素100の半導体領域140の端の方の領域であると、増倍領域141に運ばれるまでに時間がかかってしまう。このように、電子が増倍領域141に運ばれるまでの時間にバラツキ(光電変換箇所のバラツキ)があると、タイミングジッタのぶれ幅が大きくなってしまう(例えば、画素100の半導体領域140の端の方の領域で発生した電子が誤差の要因になっている)。
 そこで、第1の実施の形態の固体撮像装置では、画素100ごとに形成されるオンチップレンズ133を、2次元方向で均一な曲率を有する球面形状のレンズ(レンズアレイ)とすることで、集光ポイントが深さ方向で一致するようにして深さ方向の収差を抑制し、電子が増倍領域141に運ばれるまでの時間のバラツキ(光電変換箇所のバラツキ)を抑えるようにしている。
 すなわち、増倍領域141への光の集光のされかたが均一になって、光電変換された電子が、アバランシェ増倍されるまでにかかる時間のバラツキを抑制することができる。その結果として、第1の実施の形態の固体撮像装置を、距離計測装置に適用した場合に、SPADを含む画素100では、タイミングジッタの特性が向上して、測距の精度を向上させることが可能となる。
 また、第1の実施の形態の固体撮像装置では、オンチップレンズ形成をエッチバックによる転写ではなく、オンチップレンズ133を、遮光部124の開口部124Cに囲まれた部分に、熱リフローによって形成しているため、レンズの曲率を有する部分を、遮光部124よりも低い位置に形成することができ、光入射面側(受光面側)からのクロストーク(Cross Talk)を抑制することができる。
 さらに、第1の実施の形態の固体撮像装置では、遮光部124の開口部124Cの内側に、オンチップレンズ133を形成しているため、製造時に、オンチップレンズ同士のショートを抑制することができる。そのため、生産性の高いオンチップレンズ形成を行うことができる。
 なお、比較のために、図7乃至図10に、従来のオンチップレンズの製造工程の流れを示している。この従来の製造工程では、まず、第1の工程として、遮光部924を埋め込んだ半導体領域940に対し、レンズ材933Aが積層される(図7)。次に、第2の工程として、レンズ材933Aの上部に、矩形状のレジスト材951のパターンが形成される(図8)。
 次に、第3の工程として、熱リフローによって、レジスト材951の形状が、光入射面側から見た場合に角の丸い四角状に変形される(図9)。そして、第4の工程として、レジスト材951のパターンを取り除くことで、オンチップレンズ933が形成される(図10)。
 このオンチップレンズ933は、画素ごとに形成され、図10のAに示すように、光入射面側から見た場合に角の丸い四角状のレンズ(レンズアレイ)となる。また、図10のBに示すように、オンチップレンズ933は、光入射面側の半球状の部分だけでなく、光入射面側とは反対面側に平坦状の部分を含んで形成されている。
 ここで、図11は、従来の固体撮像装置の画素の光学的な特性を示している。ここでも、上述した図6と同様に、オンチップレンズ933を光入射面側から見た場合において、その斜め方向のX1-X1'断面を、図11のAの断面図に示す一方で、その横方向のX2-X2'断面を、図11のBの断面図に示している。
 上述した従来の製造工程で製造される固体撮像装置では、画素ごとに形成されるオンチップレンズ933が、光入射面側から見た場合に角の丸い四角状のレンズとなるため、図11のAに示したX1-X1'断面と、図11のBに示したX2-X2'断面とが、異なる断面となって、図中の点線で示す入射光(被検出光)が異なる点に集光される(集光ポイントが一致していない)。
 すなわち、X1-X1'断面とX2-X2'断面とでは、同一のオンチップレンズ933であっても、図中の横方向の幅が異なるため、その深さ方向の集光位置がZ1とZ2とで異なっている。このように、従来の固体撮像装置では、オンチップレンズ933が、上述したオンチップレンズ133(図6)のように、2次元方向で均一な曲率を有する球面形状のレンズとなっていないため、深さ方向の集光位置(Z1,Z2)の差Dによって、収差が発生している。
 そのため、従来の固体撮像装置では、深さ方向に収差が発生することで、集光効率を向上させることができず、その結果として、タイミングジッタの特性を向上させることができない。また、従来の固体撮像装置では、オンチップレンズ933にて、レンズの曲率を有する部分が、遮光部924よりも高い位置に形成されることから、クロストークを抑制することが困難となる。
 以上のように、第1の実施の形態の固体撮像装置では、遮光部124に設けられた円形の開口部124Cにて、感光性樹脂を円柱状にパターニングして熱リフローすることで、セルフアライン的に、2次元方向に均一な曲率を有する球面形状のレンズ(レンズアレイ)を形成している。これにより、画素100ごとに、オンチップレンズ133を形成するに際して、深さ方向の収差を抑えることが可能となるため、結果として集光効率を向上させることができる。
 なお、第1の実施の形態の固体撮像装置において、SPADを含む画素100は、CMOS(Complementary Metal Oxide Semiconductor)プロセス技術のような半導体集積技術を用いることで、大規模なアレイ構造を実現することができる。すなわち、第1の実施の形態の固体撮像装置は、例えば、CMOSイメージセンサとして構成することができる。
<2.第2の実施の形態>
(固体撮像装置の構造)
 図12は、第2の実施の形態の固体撮像装置の構造の一部を示す要部平面図である。以下、この要部平面図を参照して、第2の実施の形態の固体撮像装置の構造を説明する。
 上述した第1の実施の形態の固体撮像装置では、遮光部124の開口部124Cの形状を、円形の形状とすることで、その内壁をストッパとして、セルフアラインによって、半球状のオンチップレンズ133を形成する場合を説明したが、遮光部124に設けられる開口部の形状を、例えば多角形などの円形以外の他の形状としてもよい。
(第1の例)
 図12のAは、遮光部124に、四角形の形状からなる開口部124Qを設けた構造を示している。
 図12のAにおいては、第2の実施の形態の固体撮像装置の製造時に、フォトリソグラフィ工程にて、開口部124Qの内側に、感光性樹脂等のレンズ材133Aのパターンを形成した後に、熱リフロー工程にて、開口部124Qの内側に形成されたレンズ材133Aを熱リフローする。
 これによって、レンズ材133Aが溶けて流動するが、四角形の形状からなる開口部124Qの内壁をストッパとして、セルフアラインで、オンチップレンズ133が形成される。このオンチップレンズ133は、光入射面側から見た場合に四角形の形状を有するレンズ(レンズアレイ)となる。
(第2の例)
 図12のBは、遮光部124に、八角形の形状からなる開口部124Oを設けた構造を示している。
 図12のBにおいては、第2の実施の形態の固体撮像装置の製造時に、開口部124Oの内側に、レンズ材133Aを形成した後に、熱リフローすることで、レンズ材133Aが溶けて流動するが、八角形の形状からなる開口部124Oの内壁をストッパとして、セルフアラインで、オンチップレンズ133が形成される。このオンチップレンズ133は、光入射面側から見た場合に八角形の形状を有するレンズ(レンズアレイ)となる。
 以上のように、第2の実施の形態の固体撮像装置では、遮光部124に設けられる開口部の形状として、例えば、四角形や八角形等の多角形の形状を採用した場合でも、当該開口部の内壁をストッパとして、セルフアラインで、オンチップレンズ133を形成することができる。なお、ここでは、円形以外の開口部の形状として、四角形や八角形等の多角形の形状を例示したが、それ以外の形状を採用してもよい。
<3.第3の実施の形態>
(固体撮像装置の構造)
 図13は、第3の実施の形態の固体撮像装置の構造の一部を示す模式図である。以下、この模式図を参照して、第3の実施の形態の固体撮像装置の構造を説明する。なお、図13のAは、画素領域の一部の画素の平面図を示し、図13のBは、X-X'断面の断面図を示している。
 上述した第1の実施の形態の固体撮像装置では、遮光部124において、開口部124Cが、光入射面側から見た場合に、行列方向に等間隔で(一定の隙間(ギャップ)を有して)設けられる場合を説明したが、遮光部124に設けられる開口部124Cの配置を、一定の規則に従った所定の形状の配列の組み合わせからなる配置としてもよい。
 例えば、図13のA,Bに示すように、画素領域における各画素100の間の隙間(ギャップ)を可能な限り減らして、7つの画素100をひとまとまりとして、六角形状の配列の組み合わせからなるようにすることができる。この場合、画素100の配列に対応して、遮光部124における開口部124Cも、7つの開口部124Cがまとまって六角形状の配列を組み合わせた配置(六角形状に最密充填した構造)となっている。
 このような配置を採用することで、図13のAに示すように、オンチップレンズ133の間隔(ギャップ)を狭めることが可能となり、遮光部124において、より多くの開口部を設けることができる。
 ここで、第3の実施の形態の固体撮像装置の製造時には、フォトリソグラフィ工程にて、六角形状に配列される開口部124Cの内側に、レンズ材133Aのパターンを形成した後に、熱リフロー工程にて、開口部124Cの内側に形成されたレンズ材133Aを熱リフローする。
 これによって、レンズ材133Aが溶けて流動するが、開口部124Cの内壁をストッパとして、セルフアラインで、オンチップレンズ133が形成される。このオンチップレンズ133は、2次元方向で均一な曲率を有する球面形状のレンズとなる。
 なお、図13の例では、開口部124Cが7つごとに、六角形状に配列されるようにすることで(換言すれば、偶数列又は奇数列の開口部124Cを、列方向に半ピッチずつずらしているとも言える)、オンチップレンズ133の間隔(ギャップ)を狭める例を示したが、遮光部124における開口部124Cが、他の規則に従い、所定の形状の配列の組み合わせで配置されるようにしてもよい。
 以上のように、第3の実施の形態の固体撮像装置では、遮光部124における開口部124Cの配置を、一定の規則に従った所定の形状の配列の組み合わせからなる配置とすることで、オンチップレンズ133の間隔(ギャップ)を狭めて、遮光部124において、より多くの開口部124Cを設けることができる(開口部を無駄なく配列することができる)。その結果として、開口率を上げることができるため、PDE(Photon Detection Efficiency)と称される、検出効率を向上させることもできる。
<4.第4の実施の形態>
 上述した第1の実施の形態の固体撮像装置では、光検出部(光電変換部)として、アバランシェフォトダイオード(APD)、又は単一光子アバランシェフォトダイオード(SPAD)を含む画素100を説明したが、光検出部(光電変換部)としては、フォトダイオード(PD)を含むようにしてもよい。
 フォトダイオード(PD)を含む画素100としては、オンチップレンズ133とフォトダイオード(PD)との間にカラーフィルタを設けることで、例えば、R画素、G画素、及びB画素を、ベイヤー配列などの配列パターンで配置することができる。
 ここで、R画素は、赤(R:Red)の波長成分を透過するカラーフィルタを透過した光から、赤(R)成分の光に対応した電荷を得る画素である。また、G画素は、緑(G:Green)の波長成分を透過するカラーフィルタを透過した光から、緑(G)成分の光に対応した電荷を得る画素である。B画素は、青(B:Blue)の波長成分を透過するカラーフィルタを透過した光から、青(B)成分の光に対応した電荷を得る画素である。
 なお、ベイヤー配列とは、G画素が市松状に配され、残った部分に、R画素と、B画素とが一列ごとに交互に配される配列パターンである。また、ここでは、例えば、白(W:White)に対応したW画素や、赤外線(IR:infrared)に対応したIR画素など、RGB画素以外の画素が含まれるようにしてもよい。
 ただし、W画素には、カラーフィルタを設ける必要はなく、具体的には、カラーフィルタが塗布されていない画素、又はカラーフィルタの代わりに全可視光領域で透過率の高い材料が塗布された画素が、W画素とされる。すなわち、W画素は、全波長領域の光を透過させる一方で、他のRGB画素(例えば、R画素やB画素)は、特定波長のみを透過させることになる。また、IR画素は、赤外線(IR)を透過し、赤外光の波長帯に対して感度を有する画素である。
(固体撮像装置の構造)
 図14は、第4の実施の形態の固体撮像装置の構造の一部を示す模式図である。以下、この模式図を参照して、第4の実施の形態の固体撮像装置の構造を説明する。なお、図14のAは、画素領域の一部の画素の平面図を示し、図14のBは、X-X'断面の断面図を示している。
 図14のAに示すように、遮光部124において、開口部124Lが、行列方向に等間隔で(一定の隙間を有して)設けられる場合に、その隙間の領域に、開口部124Sを設けている。図14のAでは、4つの開口部124Lの中心位置を含む領域ごとに、1つの開口部124Sを設けている。なお、開口部124Sは、開口部124Lと同様に、円形の形状からなるが、その径が、開口部124Lの径よりも小さくなっている。
 ここで、第4の実施の形態の固体撮像装置の製造時には、フォトリソグラフィ工程にて、開口部124Lと開口部124Sのそれぞれの内側に、各開口部の径に応じたレンズ材133Aを形成した後に、熱リフロー工程にて、開口部124Lの内側に形成されたレンズ材133Aと、開口部124Sの内側に形成された開口部124Sをそれぞれ、熱リフローする。
 これによって、レンズ材133Aが溶けて流動するが、開口部124Lの内壁をストッパとして、セルフアラインで、オンチップレンズ133Lが形成され、開口部124Sの内壁をストッパとして、セルフアラインで、オンチップレンズ133Sが形成される。これらのオンチップレンズ133L,133Sは共に、2次元方向で均一な曲率を有する球面形状のレンズとなるが、オンチップレンズ133Sの径は、オンチップレンズ133Lの径よりも小さくなる。
 また、ここでは、図14のBに示すように、オンチップレンズ133Lに対応する画素100Lを、R画素、G画素、又はB画素とし、オンチップレンズ133Sに対応する画素100Sを、IR画素とすることができる。すなわち、図14の例では、4つのRGB画素に対し、1つのIR画素が設けられることになる。
 以上、第4の実施の形態の固体撮像装置では、画素100(100L,100S)として、R画素、G画素、及びB画素や、IR画素などの画素を、所定の配列パターンで配置することができる。このように、アバランシェフォトダイオード(APD)や単一光子アバランシェフォトダイオード(SPAD)ではなく、フォトダイオード(PD)を含む画素であっても、画素100ごとに形成されるオンチップレンズ133を、2次元方向で均一な曲率を有する球面形状のレンズとすることができる。
 そのため、上述したように、深さ方向の収差がなくなって、集光効率を向上させることができる。また、オンチップレンズ133L,133Sを、遮光部124の開口部124L,124Sに囲まれた部分に、熱リフローによって形成することで、レンズの曲率を有する部分を、遮光部124よりも低い位置に形成することができるため、光入射面側(受光面側)からの混色を抑制することができる。
 さらに、図14のAに示したレイアウトのパターンの例では、RGB画素を所定の配列パターンで配置した際にできるスペース(領域)に、IR画素を配置しているため、無効な領域を減らして、開口率を上げることができる。
 なお、第4の実施の形態の固体撮像装置は、CMOSイメージセンサのほか、例えば、CCD(Charge Coupled Device)イメージセンサ等としても構成することができる。また、R画素、G画素、及びB画素などの画素100が、第3の実施の形態と同様に、一定の規則に従った所定の形状の配列の組み合わせからなる配置(例えば、六角形状に最密充填した構造)となるようにしてもよい。
<5.第5の実施の形態>
(固体撮像装置の構造)
 図15は、第5の実施の形態の固体撮像装置の構造の一部を示す要部断面図である。以下、この要部断面図を参照して、第5の実施の形態の固体撮像装置の構造を説明する。
 第5の実施の形態の固体撮像装置では、SPADを分離するための分離領域に埋め込まれる遮光部124の材料として、例えばタングステン(W)やアルミニウム(Al)等の金属を用いる場合に、遮光部124を、光入射面側の引き回し配線として用いるようにする。
 すなわち、図15においては、画素100の右側の分離領域に形成された溝部に、タングステン(W)等の金属を埋め込むとともに、さらにその分離領域の右側のウェル層103に貫通ビアを通して、そこにタングステン(W)等の金属を埋め込んで、右側の分離領域に埋め込まれた金属と繋げることで、遮光部221を形成している。
 遮光部221の上部には、酸化膜222と、遮光膜223と、反射防止膜224が積層されている。また、遮光部221は、コンタクト115を介して配線116と接続されている。
 また、図15においては、遮光部124にてアノードコンタクトを落として、p型のアノードのコンタクト領域211を形成することで、p型半導体領域102の増倍領域に対し、図中の上側から電界をかけることが可能となる。このように、第5の実施の形態の固体撮像装置では、遮光部124,221を、遮光機能としてだけでなく、アノードコンタクトの引き回し配線としても同時に利用することで、各画素100のSPADに対し、共通のアノードを落とすことができるようにしている。
 また、図15に示した構造では、引き回し配線として用いられる遮光部221に対してのみ、その上部に、遮光膜223が形成されるとして説明したが、図16に示すように、遮光部124の上部に、遮光膜223が形成されるようにしてもよい。なお、遮光膜223は、遮光部124と同一の材料を用いることで、一体となって形成されるようにしてもよい。また、遮光部124と遮光膜223との間に、酸化膜が形成されるようにしてもよい。
 ここで、図16においては、図中の縦方向の点線の左側が、画素領域A1であることを表し、点線の右側が、周辺領域A2であることを表している。すなわち、点線の左側の遮光膜223は、画素領域遮光膜である一方で、点線の右側の遮光膜223は、周辺領域遮光膜であると言える。
 なお、実際には、画素領域A1には、複数の画素100が2次元状に配置されているため、引き回し配線として用いられる遮光部221は、図17に示すように、画素領域A1と周辺領域A2との境界を含む領域に形成されることになる。この画素領域A1と周辺領域A2との関係の詳細は、図20を参照して後述する。
 以上、第5の実施の形態の固体撮像装置では、遮光部124,221を、アノードコンタクトの引き回し配線としても用い、各画素100のSPADにコンタクトを落とすことで、各画素100のSPADに対し、共通のアノードを落とすことができる。
<6.第6の実施の形態>
(固体撮像装置の構造)
 図18は、第6の実施の形態の固体撮像装置の構造の一部を示す模式図である。以下、この模式図を参照して、第6の実施の形態の固体撮像装置の構造を説明する。
 図18に示すように、第6の実施の形態の固体撮像装置では、隣接する画素100のSPADを分離するための分離領域に形成された遮光部124の上部に、反射防止膜181が形成(成膜)されている。ここでは、例えば、遮光部124の材料として、タングステン(W)やアルミニウム(Al)等の金属を用いた場合には、その表面での反射が大きくなってしまう懸念があるが、反射防止膜181を、遮光部124に被せることで、表面反射を抑制するようにしている。
 なお、上述した他の実施の形態においても、反射防止膜を成膜した構造を示しているが、ここでは、遮光部124の上部に形成される反射防止膜の効果を明示するために、別の実施の形態として、その構造を、図18の断面図に示した。
 以上、第6の実施の形態の固体撮像装置では、遮光部124の上部に、反射防止膜181を形成することで、遮光部124の上部表面での光の反射を低減することができるため、反射光によるクロストークを抑制することができる。また、フレアによる影響を低減することができる。
<7.第7の実施の形態>
(固体撮像装置の構造)
 図19は、第7の実施の形態の固体撮像装置の構造の一部を示す要部断面図である。以下、この要部断面図を参照して、第7の実施の形態の固体撮像装置の構造を説明する。
 上述した第1の実施の形態の固体撮像装置では、画素100の間の分離領域に、遮光部124が形成される構造を示したが、遮光部124を設けない構造としてもよい。
 図19に示すように、第7の実施の形態の固体撮像装置では、ウェル層103の両側には、隣接する画素100のSPADを分離するための分離領域として、p型半導体領域121,122に形成された溝部(トレンチ)に、酸化膜321が埋め込まれている。また、酸化膜321の上部には、遮光部322が形成されている。この遮光部322には、画素100ごとに、円形の形状からなる開口部が設けられている。
 ここで、第7の実施の形態の固体撮像装置の製造時には、フォトリソグラフィ工程にて、遮光部322の開口部の内側に、レンズ材133Aのパターンを形成した後に、熱リフロー工程にて、レンズ材133Aを熱リフローする。これによって、セルフアラインで、2次元方向で均一な曲率を有する球面形状のオンチップレンズ133が形成される。
 以上、第7の実施の形態の固体撮像装置では、分離領域に形成される溝部(トレンチ)に、遮光部124の代わりに、酸化膜321を埋め込んだ場合でも、酸化膜321の上部に形成された遮光部322の内壁をストッパとして、セルフアラインで、オンチップレンズ133を形成することができる。
<8.変形例>
(他の構造の例)
 上述した第1の実施の形態などにおいて、SPADを分離するための分離領域とウェル層103との間に(分離領域の側壁に)、ホール(hole)を蓄積するためのホール蓄積領域が形成されるようにしてもよい。あるいは、上述した第1の実施の形態などにおいて、分離領域に形成される遮光部124を、タングステン(W)等の金属で形成されるようにして、遮光部124に電圧を印加することで、遮光部124の付近に、ホール蓄積領域が形成されるようにしてもよい。
 また、上述した第1の実施の形態などにおいて、ウェル層103の厚さ(深さ)を、さらに深く(厚く)した構造を採用してもよい。このような構造を採用した場合において、例えば、分離領域内には、遮光部124を形成するとともに、ウェル層103の側面側に、固定電荷膜を形成することができる。また、この固定電荷膜のウェル層103側の側面の一部に、ホール蓄積領域を形成することもできる。
 さらに、上述した第1の実施の形態などにおいて、n型半導体領域101の形状を、他の形状とするようにしてもよい。例えば、n型半導体領域101の断面の形状として、コンタクトが接続される部分以外は、ウェル層103内に埋め込んで形成することで、凸部を有するような形状とすることができる。なお、この凸部は、連続的に又は不連続に形成することができる。また、この場合のn型半導体領域101の平面の形状としては、例えば、輪状の形状とすることができる。
 なお、上述した第1の実施の形態などにおいて、分離領域(の遮光部124)は、積層方向で、ウェル層103の上面側から下面側まで貫通して形成されているが、上面側から下面側まで全部貫通する構造以外、例えば、一部のみ貫通し、基板の途中まで、分離領域(の遮光部124)が挿入されている構造などであってもよい。
(pn反転)
 また、上述した実施の形態に示したSPADの極性は一例であって、異なる極性を有するようにしてもよい(すなわち、pn反転してもよい)。例えば、第1の実施の形態では、ウェル層103内に、n型半導体領域101とp型半導体領域102が形成されるとして説明したが、導電型がp型のp型半導体領域101と、導電型がn型のn型半導体領域102が形成されるようにしてもよい。また、ウェル層103は、導電型がn型の半導体領域であってもよいし、導電型がp型の半導体領域であってもよい。
 このような構造を採用した場合には、p型半導体領域101は、アノードとして機能し、コンタクト111を介して配線112に接続される。また、このアノードに対するカソードは、例えば、p型半導体領域101と同層であって、p型半導体領域101と分離領域(の遮光部124)との間などに形成される。
 なお、上述した実施の形態において説明した各層の材料及び厚み、又は成膜方法及び成膜条件などは、上述の説明に限定されるものではなく、他の材料及び厚み、又は他の成膜方法及び成膜条件としてもよい。また、上述した実施の形態などでは、画素100の構成を具体的に説明したが、全ての層を有する必要はなく、また、他の層をさらに有するようにしてもよい。
<9.固体撮像装置への適用例>
 上記した実施の形態においては、アバランシェフォトダイオード(APD)や単一光子アバランシェフォトダイオード(SPAD)、フォトダイオード(PD)を含む画素100について説明した。図20に示すように、画素100は、固体撮像装置10を構成するセンサチップ11に設けられている画素領域A1にアレイ状に配置されている。
 この画素100が配置されているセンサチップ11の下面(光入射面とは反対側の面)には、ロジックチップ(不図示)が接続されている。このロジックチップには、画素100からの信号を処理したり、画素100に電力を供給したりする回路が形成されている。
 画素領域A1の外側には、周辺領域A2が配置されている。さらに周辺領域A2の外側には、パッド領域A3が配置されている。
 パッド領域A3は、センサチップ11の上端から配線層の内部まで達する垂直方向の孔であって、電極パッドへの配線用の孔であるパッド開口部が、一直線に並ぶように形成されている。画素領域A1とパッド領域A3との間に設けられる周辺領域A2は、n型半導体領域とp型半導体領域で構成されている。
<10.距離計測装置への適用例>
 上述した固体撮像装置は、距離を測定する距離計測装置(測距装置)に適用することができる。図21は、本技術を適用した距離計測装置の構成の例を示す図である。
 図21に示した距離計測装置1000は、光源としての光パルス送信機1011と、受光部としての光パルス受信機1012と、RSフリップフロップ1013を含む構成とされる。
 ここでは、距離を測定する方法として、TOF(Time Of Flight)方式を用いた場合を例に挙げて説明する。TOF型センサは、自己が発した光が、対象物に当たり、反射して戻ってくるまでの時間を計測することで、対象物までの距離を計測するセンサである。TOF型センサは、例えば、図22のタイミングチャートに示したタイミングで動作する。
 図22を参照して、距離計測装置1000の動作について説明する。光パルス送信機1011は、そこに供給されるトリガパルスに基づき、光を発光する(光送信パルス)。そして、発光された光が対象物に当たり、反射されてきた反射光は、光パルス受信機1012により受光される。
 送信光パルスが発光された時刻と、受信光パルスが受光された時刻との差分が、対象物との距離に応じた時間、すなわち光飛行時間TOFに相当する。
 トリガパルスは、光パルス送信機1011に供給されるとともに、RSフリップフロップ1013にも供給される。トリガパルスが光パルス送信機1011に供給されることで、短時間光パルスが送信され、RSフリップフロップ1013に供給されることで、RSフリップフロップ1013がリセットされる。
 ここで、TOF型センサを構成する光パルス受信機1012として、例えばSPAD等のAPDを含む画素100を有する固体撮像装置10(図20)を用いることができる。光パルス受信機1012に、上述した固体撮像装置10(図20)を用いた場合、SPADを含む画素100によって、受信光パルスが受信されると、フォトンが発生する。その発生したフォトン(電気パルス)により、RSフリップフロップ1013がリセットされる。
 このような動作により、光飛行時間TOFに相当するパルス幅をもったゲート信号を生成することができる。この生成されるゲート信号を、クロック信号などを用いてカウントすることで、光飛行時間TOFを算出(デジタル信号として出力)することができる。
 このような処理が行われることで、距離計測装置1000では、距離情報が生成される。そして、例えば、この距離情報を用い、距離画像を得ることができる。
<11.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図23は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図23に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図23の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図24は、撮像部12031の設置位置の例を示す図である。
 図24では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図24には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図1等の固体撮像装置(図21の距離計測装置)は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、集光効率を向上させることができるため、例えば、より高精度な撮像画像(距離画像)を取得して、より正確に歩行者等の障害物を認識することが可能になる。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本技術は、以下のような構成をとることができる。
(1)
 光検出部を有する画素を複数配置した画素部と、
 前記画素ごとに、前記光検出部の光入射面側に形成されるマイクロレンズと、
 前記マイクロレンズの周囲に形成され、光を遮光する遮光部と
 を備え、
 前記マイクロレンズは、前記遮光部に設けられた開口部の内側に形成される
 固体撮像装置。
(2)
 前記開口部は、円形の形状を有し、
 前記マイクロレンズは、光入射面側から見た場合に円形で、2次元方向で均一な曲率を有する球面形状のレンズである
 前記(1)に記載の固体撮像装置。
(3)
 前記開口部は、多角形の形状を有し、
 前記マイクロレンズは、光入射面側から見た場合に多角形の形状を有するレンズである
 前記(1)に記載の固体撮像装置。
(4)
 前記開口部は、光入射面側から見た場合に、前記マイクロレンズが行列方向に等間隔に配置されるように設けられる
 前記(1)乃至(3)のいずれかに記載の固体撮像装置。
(5)
 前記開口部は、光入射面側から見た場合に、前記マイクロレンズの間隔を狭めて規則的に配置されるように設けられる
 前記(1)乃至(3)のいずれかに記載の固体撮像装置。
(6)
 前記光検出部は、アバランシェフォトダイオード(APD)、又は単一光子アバランシェフォトダイオード(SPAD)である
 前記(1)乃至(5)のいずれかに記載の固体撮像装置。
(7)
 前記光検出部は、フォトダイオード(PD)である
 前記(1)乃至(5)のいずれかに記載の固体撮像装置。
(8)
 前記画素は、R画素、G画素、又はB画素である
 前記(7)に記載の固体撮像装置。
(9)
 前記開口部は、所定の径を有する第1の開口部と、前記第1の開口部が設けられた領域を除いた領域に設けられ、前記第1の開口部の径よりも小さい径を有する第2の開口部を含み、
 前記第1の開口部の内側に形成される第1のマイクロレンズは、前記R画素、前記G画素、又は前記B画素に対して形成され、
 前記第2の開口部の内側に形成される第2のマイクロレンズは、IR画素に対して形成される
 前記(8)に記載の固体撮像装置。
(10)
 前記遮光部は、金属からなり、前記光検出部の光入射面側の引き回し配線として用いられる
 前記(1)乃至(6)のいずれかに記載の固体撮像装置。
(11)
 前記遮光部の上部に、反射防止膜を形成している
 前記(1)乃至(10)のいずれかに記載の固体撮像装置。
(12)
 前記遮光部は、金属、又は絶縁膜からなる
 前記(1)乃至(9)のいずれかに記載の固体撮像装置。
(13)
 光検出部を有する画素を複数配置した画素部と、
 前記画素ごとに、前記光検出部の光入射面側に形成されるマイクロレンズと、
 前記マイクロレンズの周囲に形成され、光を遮光する遮光部と
 を有し、
 前記マイクロレンズは、前記遮光部に設けられた開口部の内側に形成される
 受光部を備える
 距離計測装置。
(14)
 遮光部に設けられた開口部の内側に、レンズ材のパターンを形成し、
 前記開口部の内側に形成されたレンズ材を熱リフローしてマイクロレンズを形成する際に、前記開口部の内壁をストッパとして、セルフアラインで、前記マイクロレンズを形成する
 固体撮像装置の製造方法。
 10 固体撮像装置, 11 センサチップ, 100 画素, 100L,100S 画素, 101 n型半導体領域, 102 p型半導体領域, 103 ウェル層, 121 p型半導体領域, 122 p型半導体領域, 123 絶縁膜, 124 遮光部, 124C 開口部, 124O,124Q 開口部, 124L,124S 開口部, 131 反射防止膜, 132 絶縁膜, 133 オンチップレンズ, 133L,133S オンチップレンズ, 134 反射防止膜, 1000 距離計測装置, 1011 光パルス送信機, 1012 光パルス受信機, 1013 RSフリップフロップ, 12031 撮像部

Claims (14)

  1.  光検出部を有する画素を複数配置した画素部と、
     前記画素ごとに、前記光検出部の光入射面側に形成されるマイクロレンズと、
     前記マイクロレンズの周囲に形成され、光を遮光する遮光部と
     を備え、
     前記マイクロレンズは、前記遮光部に設けられた開口部の内側に形成される
     固体撮像装置。
  2.  前記開口部は、円形の形状を有し、
     前記マイクロレンズは、光入射面側から見た場合に円形で、2次元方向で均一な曲率を有する球面形状のレンズである
     請求項1に記載の固体撮像装置。
  3.  前記開口部は、多角形の形状を有し、
     前記マイクロレンズは、光入射面側から見た場合に多角形の形状を有するレンズである
     請求項2に記載の固体撮像装置。
  4.  前記開口部は、光入射面側から見た場合に、前記マイクロレンズが行列方向に等間隔に配置されるように設けられる
     請求項1に記載の固体撮像装置。
  5.  前記開口部は、光入射面側から見た場合に、前記マイクロレンズの間隔を狭めて規則的に配置されるように設けられる
     請求項1に記載の固体撮像装置。
  6.  前記光検出部は、アバランシェフォトダイオード(APD)、又は単一光子アバランシェフォトダイオード(SPAD)である
     請求項2に記載の固体撮像装置。
  7.  前記光検出部は、フォトダイオード(PD)である
     請求項2に記載の固体撮像装置。
  8.  前記画素は、R画素、G画素、又はB画素である
     請求項7に記載の固体撮像装置。
  9.  前記開口部は、所定の径を有する第1の開口部と、前記第1の開口部が設けられた領域を除いた領域に設けられ、前記第1の開口部の径よりも小さい径を有する第2の開口部を含み、
     前記第1の開口部の内側に形成される第1のマイクロレンズは、前記R画素、前記G画素、又は前記B画素に対して形成され、
     前記第2の開口部の内側に形成される第2のマイクロレンズは、IR画素に対して形成される
     請求項8に記載の固体撮像装置。
  10.  前記遮光部は、金属からなり、前記光検出部の光入射面側の引き回し配線として用いられる
     請求項1に記載の固体撮像装置。
  11.  前記遮光部の上部に、反射防止膜を形成している
     請求項1に記載の固体撮像装置。
  12.  前記遮光部は、金属、又は絶縁膜からなる
     請求項1に記載の固体撮像装置。
  13.  光検出部を有する画素を複数配置した画素部と、
     前記画素ごとに、前記光検出部の光入射面側に形成されるマイクロレンズと、
     前記マイクロレンズの周囲に形成され、光を遮光する遮光部と
     を有し、
     前記マイクロレンズは、前記遮光部に設けられた開口部の内側に形成される
     受光部を備える
     距離計測装置。
  14.  遮光部に設けられた開口部の内側に、レンズ材のパターンを形成し、
     前記開口部の内側に形成されたレンズ材を熱リフローしてマイクロレンズを形成する際に、前記開口部の内壁をストッパとして、セルフアラインで、前記マイクロレンズを形成する
     固体撮像装置の製造方法。
PCT/JP2018/045616 2017-12-26 2018-12-12 固体撮像装置、距離計測装置、及び製造方法 WO2019131122A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/470,099 US20210183930A1 (en) 2017-12-26 2018-12-12 Solid-state imaging device, distance measurement device, and manufacturing method
CN201880005062.8A CN110291635A (zh) 2017-12-26 2018-12-12 固态摄像装置、距离测量装置及其制造方法
DE112018006605.3T DE112018006605T5 (de) 2017-12-26 2018-12-12 Festkörperbildgebungsvorrichtung, Entfernungsvorrichtung und Herstellungsverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-248698 2017-12-26
JP2017248698A JP2019114728A (ja) 2017-12-26 2017-12-26 固体撮像装置、距離計測装置、及び製造方法

Publications (1)

Publication Number Publication Date
WO2019131122A1 true WO2019131122A1 (ja) 2019-07-04

Family

ID=67067120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/045616 WO2019131122A1 (ja) 2017-12-26 2018-12-12 固体撮像装置、距離計測装置、及び製造方法

Country Status (5)

Country Link
US (1) US20210183930A1 (ja)
JP (1) JP2019114728A (ja)
CN (1) CN110291635A (ja)
DE (1) DE112018006605T5 (ja)
WO (1) WO2019131122A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021005851A1 (ja) * 2019-07-11 2021-01-14 ソニーセミコンダクタソリューションズ株式会社 光電変換素子および光電変換装置
WO2021014849A1 (ja) * 2019-07-24 2021-01-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、電子機器及び固体撮像装置の製造方法
WO2021090521A1 (en) * 2019-11-06 2021-05-14 Sony Semiconductor Solutions Corporation Light receiving element and distance measuring device
US20210242261A1 (en) * 2020-01-30 2021-08-05 Semiconductor Components Industries, Llc Semiconductor devices with single-photon avalanche diodes and rectangular microlenses
WO2021157174A1 (ja) * 2020-02-06 2021-08-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2022024550A1 (ja) * 2020-07-29 2022-02-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2022118674A1 (ja) * 2020-12-03 2022-06-09 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および製造方法、並びに電子機器
JP2023504359A (ja) * 2019-12-09 2023-02-03 ウェイモ エルエルシー サイズの異なるセルを使用したsipm

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11626440B2 (en) * 2019-11-14 2023-04-11 Semiconductor Components Industries, Llc Microlens structures for semiconductor device with single-photon avalanche diode pixels
CN114585941A (zh) * 2019-11-20 2022-06-03 索尼半导体解决方案公司 固态成像装置和距离测量系统
CN111129100B (zh) * 2019-12-31 2022-06-24 武汉天马微电子有限公司 一种显示面板及显示装置
TW202137523A (zh) * 2020-03-16 2021-10-01 日商索尼半導體解決方案公司 受光元件及測距系統
JP2021175048A (ja) * 2020-04-22 2021-11-01 ソニーセミコンダクタソリューションズ株式会社 電子機器
EP4174949A4 (en) * 2020-06-25 2024-03-20 Sony Semiconductor Solutions Corporation IMAGING DEVICE AND ELECTRONIC DEVICE
WO2022004172A1 (ja) * 2020-06-29 2022-01-06 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
JP2022047438A (ja) * 2020-09-11 2022-03-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
JP2022083067A (ja) * 2020-11-24 2022-06-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および撮像装置、並びに電子機器
US20220223635A1 (en) * 2021-01-08 2022-07-14 Taiwan Semiconductor Manufacturing Co., Ltd. Semiconductor device including image sensor and method of forming the same
TWM621242U (zh) * 2021-03-18 2021-12-11 神盾股份有限公司 光感測陣列模組與光收發裝置
JP2022148028A (ja) * 2021-03-24 2022-10-06 ソニーセミコンダクタソリューションズ株式会社 センサ素子および測距システム
JPWO2023021787A1 (ja) * 2021-08-16 2023-02-23
WO2023079835A1 (ja) * 2021-11-05 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 光電変換装置
WO2023238513A1 (ja) * 2022-06-09 2023-12-14 ソニーセミコンダクタソリューションズ株式会社 光検出器、及び光検出装置
WO2024004222A1 (ja) * 2022-07-01 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 光検出装置およびその製造方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04245678A (ja) * 1991-01-31 1992-09-02 Toshiba Corp 固体撮像素子の製造方法
JP2005005540A (ja) * 2003-06-12 2005-01-06 Sharp Corp 固体撮像装置およびその製造方法
JP2008270679A (ja) * 2007-04-25 2008-11-06 Sony Corp 固体撮像装置およびその製造方法および撮像装置
JP2010531540A (ja) * 2007-06-18 2010-09-24 シリコンファイル・テクノロジーズ・インコーポレイテッド 広いダイナミックレンジと良好な色再現性および解像度を有する画素アレイならびに画素アレイを用いたイメージセンサ
JP2012204449A (ja) * 2011-03-24 2012-10-22 Sony Corp 固体撮像装置および電子機器
WO2013145433A1 (ja) * 2012-03-30 2013-10-03 富士フイルム株式会社 撮像素子及び撮像装置
JP2013254076A (ja) * 2012-06-06 2013-12-19 Nikon Corp 撮像素子および撮像装置
JP2015082566A (ja) * 2013-10-22 2015-04-27 キヤノン株式会社 固体撮像装置、その製造方法及びカメラ
WO2016114154A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
JP2017112169A (ja) * 2015-12-15 2017-06-22 ソニー株式会社 イメージセンサ、撮像システム及びイメージセンサの製造方法
WO2017104438A1 (ja) * 2015-12-16 2017-06-22 ソニー株式会社 撮像素子および駆動方法、並びに電子機器
WO2017187855A1 (ja) * 2016-04-27 2017-11-02 ソニー株式会社 裏面照射型固体撮像素子及び電子機器

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04245678A (ja) * 1991-01-31 1992-09-02 Toshiba Corp 固体撮像素子の製造方法
JP2005005540A (ja) * 2003-06-12 2005-01-06 Sharp Corp 固体撮像装置およびその製造方法
JP2008270679A (ja) * 2007-04-25 2008-11-06 Sony Corp 固体撮像装置およびその製造方法および撮像装置
JP2010531540A (ja) * 2007-06-18 2010-09-24 シリコンファイル・テクノロジーズ・インコーポレイテッド 広いダイナミックレンジと良好な色再現性および解像度を有する画素アレイならびに画素アレイを用いたイメージセンサ
JP2012204449A (ja) * 2011-03-24 2012-10-22 Sony Corp 固体撮像装置および電子機器
WO2013145433A1 (ja) * 2012-03-30 2013-10-03 富士フイルム株式会社 撮像素子及び撮像装置
JP2013254076A (ja) * 2012-06-06 2013-12-19 Nikon Corp 撮像素子および撮像装置
JP2015082566A (ja) * 2013-10-22 2015-04-27 キヤノン株式会社 固体撮像装置、その製造方法及びカメラ
WO2016114154A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
JP2017112169A (ja) * 2015-12-15 2017-06-22 ソニー株式会社 イメージセンサ、撮像システム及びイメージセンサの製造方法
WO2017104438A1 (ja) * 2015-12-16 2017-06-22 ソニー株式会社 撮像素子および駆動方法、並びに電子機器
WO2017187855A1 (ja) * 2016-04-27 2017-11-02 ソニー株式会社 裏面照射型固体撮像素子及び電子機器

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021005851A1 (ja) * 2019-07-11 2021-01-14 ソニーセミコンダクタソリューションズ株式会社 光電変換素子および光電変換装置
WO2021014849A1 (ja) * 2019-07-24 2021-01-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、電子機器及び固体撮像装置の製造方法
WO2021090521A1 (en) * 2019-11-06 2021-05-14 Sony Semiconductor Solutions Corporation Light receiving element and distance measuring device
JP2023504359A (ja) * 2019-12-09 2023-02-03 ウェイモ エルエルシー サイズの異なるセルを使用したsipm
US11874402B2 (en) 2019-12-09 2024-01-16 Waymo Llc SiPM with cells of different sizes including at least one large-area cell is substantially centered along a substrate with respect to the optical axis of an aperture array
US20210242261A1 (en) * 2020-01-30 2021-08-05 Semiconductor Components Industries, Llc Semiconductor devices with single-photon avalanche diodes and rectangular microlenses
US11646335B2 (en) * 2020-01-30 2023-05-09 Semiconductor Components Industries, Llc Semiconductor devices with single-photon avalanche diodes and rectangular microlenses
WO2021157174A1 (ja) * 2020-02-06 2021-08-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
EP4102566A4 (en) * 2020-02-06 2023-07-19 Sony Semiconductor Solutions Corporation SEMICONDUCTOR IMAGING DEVICE AND ELECTRONIC APPARATUS
WO2022024550A1 (ja) * 2020-07-29 2022-02-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2022118674A1 (ja) * 2020-12-03 2022-06-09 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および製造方法、並びに電子機器

Also Published As

Publication number Publication date
CN110291635A (zh) 2019-09-27
JP2019114728A (ja) 2019-07-11
DE112018006605T5 (de) 2020-09-03
US20210183930A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
WO2019131122A1 (ja) 固体撮像装置、距離計測装置、及び製造方法
CN109997019B (zh) 摄像元件和摄像装置
WO2020189103A1 (ja) センサチップ及び電子機器
JP7454549B2 (ja) センサチップ、電子機器、及び測距装置
KR102590054B1 (ko) 고체 촬상 장치 및 전자 기기
CN111052404B (zh) 雪崩光电二极管传感器和电子装置
CN115699317A (zh) 光接收装置、用于制造光接收装置的方法以及测距装置
WO2022158288A1 (ja) 光検出装置
KR20220099974A (ko) 수광 소자, 측거 모듈
US20240038913A1 (en) Light receiving element, distance measuring system, and electronic device
US20220181363A1 (en) Sensor chip and distance measurement device
JP7261168B2 (ja) 固体撮像装置及び電子機器
WO2023013554A1 (ja) 光検出器及び電子機器
US20240186352A1 (en) Imaging device
WO2022196141A1 (ja) 固体撮像装置および電子機器
WO2023238513A1 (ja) 光検出器、及び光検出装置
WO2023162651A1 (ja) 受光素子、および電子機器
WO2024128103A1 (en) Light sensing device
US12027540B2 (en) Solid-state imaging device and electronic apparatus
CN116802809A (zh) 光检测装置及测距装置
CN112970118A (zh) 光接收元件和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18893948

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18893948

Country of ref document: EP

Kind code of ref document: A1