WO2023238513A1 - 光検出器、及び光検出装置 - Google Patents

光検出器、及び光検出装置 Download PDF

Info

Publication number
WO2023238513A1
WO2023238513A1 PCT/JP2023/015347 JP2023015347W WO2023238513A1 WO 2023238513 A1 WO2023238513 A1 WO 2023238513A1 JP 2023015347 W JP2023015347 W JP 2023015347W WO 2023238513 A1 WO2023238513 A1 WO 2023238513A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
chip lens
photodetector
light
light incident
Prior art date
Application number
PCT/JP2023/015347
Other languages
English (en)
French (fr)
Inventor
英訓 前田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023238513A1 publication Critical patent/WO2023238513A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0232Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier
    • H01L31/107Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier the potential barrier working in avalanche mode, e.g. avalanche photodiodes

Definitions

  • the present disclosure relates to a photodetector and a photodetection device.
  • APD avalanche photodiodes
  • APDs have high sensitivity, they are more susceptible to noise and sensitivity variations than general photodiodes. Therefore, techniques for suppressing APD noise and sensitivity variations are being considered.
  • Patent Document 1 listed below discloses a technique for suppressing the dark current of an avalanche photodiode by providing a hole accumulation region on the sidewall of a separation region provided between adjacent pixels.
  • the present disclosure proposes a new and improved photodetector and photodetection device that can further suppress sensitivity variations within a pixel array.
  • a semiconductor substrate in which a photoelectric conversion section is provided; an inter-pixel light shielding section that is provided on the semiconductor substrate and defines a light incident area of a pixel corresponding to the photoelectric conversion section; an on-chip lens provided above the light incidence area of a semiconductor substrate, at least an edge portion of the on-chip lens in a diagonal direction of the pixel is depressed above the light incidence area;
  • a photodetector is provided.
  • the photodetector includes a photodetector and a processing circuit that performs signal processing on the output from the photodetector, and the photodetector includes a semiconductor substrate in which a photoelectric conversion section is provided, and the photodetector.
  • An inter-pixel light shielding section provided on a semiconductor substrate and defining a light incident area of a pixel corresponding to the photoelectric conversion section, and an on-chip lens provided above the light incident area of the semiconductor substrate.
  • a light detection device is provided, wherein at least a diagonal edge of the pixel of the on-chip lens dips above the light incident area.
  • FIG. 2 is a longitudinal cross-sectional view showing a cross-sectional configuration of a pixel array included in the photodetector according to the first embodiment.
  • FIG. 7 is a vertical cross-sectional view showing another cross-sectional configuration of the pixel array included in the photodetector according to the first embodiment.
  • FIG. 3 is a plan view showing a correspondence relationship between the cross-sectional configuration shown in FIGS. 1 and 2 and a cutting line on a plane of a pixel array.
  • FIG. 2 is a plan view showing a correspondence relationship between the cross-sectional configuration shown in FIG. 1 and a cutting line on a plane of a pixel array in a first modification.
  • FIG. 1 is a longitudinal cross-sectional view showing a cross-sectional configuration of a pixel array included in the photodetector according to the first embodiment.
  • FIG. 7 is a vertical cross-sectional view showing another cross-sectional configuration of the pixel array included in the photodetector according to the first
  • FIG. 2 is a schematic diagram showing the shapes of on-chip lenses in each of the central and peripheral parts of the pixel array.
  • FIG. 7 is a schematic vertical cross-sectional view showing a first aspect of the positional relationship between the on-chip lens and the uneven portion in the second embodiment.
  • FIG. 7 is a schematic vertical cross-sectional view showing a second aspect of the positional relationship between the on-chip lens and the uneven portion in the second embodiment.
  • FIG. 2 is a schematic diagram showing the shapes of on-chip lenses in each of the central and peripheral parts of the pixel array.
  • FIG. 1 is a schematic diagram showing the configuration of a photodetection device including a photodetector according to a first or second embodiment.
  • FIG. 10 is a schematic diagram showing the configuration of a distance measuring device including the photodetector shown in FIG. 9.
  • FIG. FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 2 is an explanatory diagram showing an example of installation positions of an outside-vehicle information detection section and an imaging section.
  • FIG. 1 is a longitudinal cross-sectional view showing a cross-sectional configuration of a pixel array PA included in a photodetector according to this embodiment.
  • FIG. 2 is a longitudinal cross-sectional view showing another cross-sectional configuration of the pixel array PA included in the photodetector according to this embodiment.
  • FIG. 3 is a plan view showing the correspondence between the cross-sectional configuration shown in FIGS. 1 and 2 and the cutting line on the plane of the pixel array PA.
  • each of the pixels P arranged in a plane in the pixel array PA has a structure in which a wiring layer 26, a semiconductor substrate 10, and an on-chip lens 34 are stacked.
  • the pixels P shown in FIGS. 1 and 2 have substantially the same configuration except that the depressed positions of the edge portions 34A of the on-chip lenses 34 are different from each other.
  • the surface of the semiconductor substrate 10 on the side where the on-chip lens 34 is provided becomes the light incident surface 10A.
  • the light incident surface 10A is a surface obtained by polishing the back surface of the semiconductor substrate 10.
  • a wiring layer 26 is bonded to the surface 10B of the semiconductor substrate 10 on the side opposite to the light incident surface 10A. That is, the photodetector according to the present embodiment is a so-called backside illumination type photosensor that detects light incident from the backside of the semiconductor substrate 10.
  • the wiring layer 26 is configured by embedding a plurality of wirings including a first wiring 25B, a second wiring 25D, and a third wiring 25F in the insulating film 24.
  • the first wiring 25B, the second wiring 25D, and the third wiring 25F are connected to each other by, for example, a first connection layer 25C and a second connection layer 25E extending in the thickness direction of the wiring layer 26.
  • the first wiring 25B is electrically connected to the anode or cathode of the photoelectric conversion section 2, which will be described later, via a contact layer 25A extending in the thickness direction of the wiring layer 26.
  • the third wiring 25F functions as a terminal for external connection by being exposed on the surface side of the wiring layer 26.
  • the contact layer 25A, the first wiring 25B, the second wiring 25D, the third wiring 25F, the first connection layer 25C, and the second connection layer 25E are made of, for example, copper (Cu), silver (Ag), gold (Au), It may be made of a metal such as aluminum (Al), tungsten (W), titanium (Ti), or tantalum (Ta), or a metal compound thereof.
  • the insulating film 24 may be made of an inorganic insulating material such as silicon oxide (SiO x ), silicon nitride (SiN x ), or silicon oxynitride (SiON), for example.
  • FIGS. 1 and 2 an example is shown in which three layers of wiring, the first wiring 25B, the second wiring 25D, and the third wiring 25F, are buried in the insulating film 24.
  • the number of layers of wiring buried in 24 is not particularly limited.
  • the insulating film 24 is configured as one layer, but the insulating film 24 includes the first wiring 25B, the second wiring 25D, and the third wiring 25F. , the contact layer 25A, the first connection layer 25C, and the second connection layer 25E.
  • the semiconductor substrate 10 is made of a semiconductor material such as silicon (Si), for example. Inside the semiconductor substrate 10, a photoelectric conversion section 2 is provided for each pixel P, and adjacent pixels P are separated from each other by a pixel separation groove 30.
  • the pixel isolation groove 30 is provided by being dug in the thickness direction of the semiconductor substrate 10 so as to surround the pixel P.
  • a pixel isolation film TI is buried inside the pixel isolation trench 30.
  • the pixel isolation film TI is made of silicon oxide (SiO x ), tantalum oxide (Ta 2 O 5 ), hafnium oxide (HfO 2 ), or by covering with an insulating film 31 such as aluminum oxide (Al 2 O 3 ). Further, a void V may be provided inside the metal film 32.
  • the pixel isolation film TI can electrically and optically isolate adjacent pixels P from each other.
  • the photoelectric conversion unit 2 is provided inside the semiconductor substrate 10 and has a multiplication region MR that avalanche multiplies electrons using a high electric field.
  • the photoelectric conversion unit 2 may be an avalanche photodiode (APD) or a single photon avalanche photodiode (SPAD).
  • APD avalanche photodiode
  • SPAD single photon avalanche photodiode
  • a well layer 11 is provided in the semiconductor substrate 10 separated for each pixel P by the pixel isolation film TI.
  • the well layer 11 is, for example, an n-type or p-type semiconductor region with a low concentration of 1 ⁇ 10 14 atoms/cm 3 or less. Since the well layer 11 is configured as a low concentration n-type or p-type semiconductor region, it is easily depleted, so that the photon detection efficiency (PDE) of the photoelectric conversion unit 2 can be further increased. .
  • a p-type semiconductor region 14 and an n-type semiconductor region 15 are provided in order from the light incident surface 10A side so as to form a pn junction.
  • the p-type semiconductor region 14 is a highly doped p-type semiconductor region (p+)
  • the n-type semiconductor region 15 is a highly doped n-type semiconductor region (n+).
  • a multiplication region MR is configured by applying a reverse voltage to the p-type semiconductor region 14 and the n-type semiconductor region 15.
  • a cathode 16 is provided between the n-type semiconductor region 15 and the contact layer 25A.
  • the cathode 16 is an n-type semiconductor region (n++) with a higher concentration than the n-type semiconductor region 15, and is provided to electrically connect the n-type semiconductor region 15 and the contact layer 25A.
  • a predetermined bias voltage is applied to the n-type semiconductor region 15 from the contact layer 25A via the cathode 16.
  • a pinning layer 12 that accumulates holes is provided between the well layer 11 and the pixel isolation film TI.
  • the pinning layer 12 is a p-type semiconductor region, and is provided so as to surround the side surface of the well layer 11 along the pixel isolation film TI.
  • the pinning layer 12 is provided with a structure in which a relatively high concentration p-type semiconductor region (p+) and a relatively low concentration p-type semiconductor region (p) are stacked in order from the pixel isolation film TI side. Good too.
  • the pinning layer 12 can suppress the generation of dark current at the interface between the pixel isolation film TI and the well layer 11 by pinning the Fermi level at the interface.
  • a bias voltage may be applied to the pinning layer 12 via the anode 13. According to this, since the pinning layer 12 can strengthen the hole concentration, it is possible to more firmly pin the Fermi level at the interface between the pixel isolation film TI and the well layer 11.
  • An anode 13 is provided between the pinning layer 12 and the contact layer 25A.
  • the anode 13 is a p-type semiconductor region (p++) with a higher concentration than the pinning layer 12, and is provided to electrically connect the pinning layer 12 and the contact layer 25A.
  • a predetermined bias voltage is applied to the pinning layer 12 from the contact layer 25A via the anode 13.
  • the photoelectric conversion unit 2 for example, by applying a strong negative voltage to the anode 13, a reverse voltage is applied to the pn junction. As a result, a depletion layer expands from the pn junction between the p-type semiconductor region 14 and the n-type semiconductor region 15, and a high electric field multiplication region MR is formed.
  • the photoelectric conversion unit 2 can detect the light incident on the light incidence surface 10A with high sensitivity by avalanche multiplication of electrons generated by the incident light in the multiplication region MR.
  • an inter-pixel light shielding section 33 is provided in contact with the pixel isolation film TI.
  • the inter-pixel light shielding section 33 is provided so as to surround the pixel P on the light incident surface 10A of the semiconductor substrate 10, and defines a light incident region RS of the pixel P.
  • the inter-pixel light shielding section 33 can suppress crosstalk between pixels P by suppressing light that is obliquely incident on the light incident surface 10A from leaking into adjacent pixels P.
  • the inter-pixel light shielding section 33 may be made of a metal having light shielding properties, such as tungsten (W) or aluminum (Al), for example.
  • a concavo-convex portion 36 in which concavo-convex shapes are arranged in an array is provided in the light incident region RS on the light-incident surface 10A side of the semiconductor substrate 10.
  • the concavo-convex shaped portion 36 is formed by arranging quadrangular pyramidal concave shapes in an array, and is provided inside the light incident region RS surrounded by the inter-pixel light shielding portion 33.
  • the uneven portion 36 can diffuse the light incident on the photoelectric conversion unit 2 by diffraction or diffuse reflection due to the uneven shape, so that the optical path length of the incident light inside the photoelectric conversion unit 2 can be made longer. According to this, the uneven portion 36 can further improve the photodetection efficiency (PDE) of the photoelectric conversion section 2.
  • PDE photodetection efficiency
  • such an array-like uneven shape is formed by, for example, etching the light incident surface 10A of the semiconductor substrate 10 along the crystal plane.
  • an antireflection film 35 is provided along the uneven shape of the uneven portion 36.
  • the antireflection film 35 is formed by laminating, for example, a plurality of high dielectric constant (High-k) insulating thin films such that the refractive index gradually decreases from the semiconductor substrate 10 side.
  • the antireflection film 35 can suppress reflection of incident light by making the change in reflectance with respect to incident light gentle.
  • the antireflection film 35 is, for example, a stack of thin films of silicon oxide (SiO x ), hafnium oxide (HfO 2 ), aluminum oxide (Al 2 O 3 ), titanium oxide (TiO 2 ), or strontium titanate (SrTiO 3 ).
  • the antireflection film 35 includes, from the semiconductor substrate 10 side, a first antireflection film 35A made of HfO 2 , a second antireflection film 35B made of Al 2 O 3 , and a third antireflection film 35C made of SiO x . It may also be configured by sequentially stacking layers.
  • an on-chip lens 34 is provided on the antireflection film 35 for each pixel P.
  • the on-chip lens 34 has, for example, a convex shape that resembles an inverted bowl shape, and improves the photodetection efficiency (PDE) of the photoelectric conversion unit 2 by focusing the incident light onto the multiplication region MR. can be increased.
  • the on-chip lens 34 may be made of a light-transmitting organic or inorganic material such as a thermoplastic resin or silicon nitride.
  • the edge portion 34A of the on-chip lens 34 is depressed so as to contact either the light incident region RS or the inter-pixel light shielding portion 33.
  • the edge portion 34A of the on-chip lens 34 in the direction opposite to the pixel P falls above the inter-pixel light shielding portion 33, and the edge portion 34A of the on-chip lens 34 in the diagonal direction of the pixel P
  • the edge portion 34A is depressed into the light incidence region RS. That is, the cross section shown in FIG. 1 corresponds to the cross section taken along line A-AA in FIG. 3, and the cross section shown in FIG. 2 corresponds to the cross section taken along line B-BB or line C-CC in FIG. .
  • the photodetector in order to increase the photodetection sensitivity, it is being considered to further enlarge the height and aperture of the on-chip lens 34 that focuses incident light on the multiplication region MR.
  • the height and aperture of the on-chip lens 34 are expanded until the edge portion 34A overlaps the inter-pixel light shielding portion 33, the light obliquely incident on the adjacent pixel P will be reflected by the convex surface of the on-chip lens 34. As a result, the amount of light incident on the adjacent pixel P may be reduced.
  • the proportion of light reflected by the on-chip lens 34 among the light incident on adjacent pixels P increases.
  • the light detection sensitivity of the pixel P decreases due to the decrease in incident light.
  • the amount of light incident on the pixel P varies depending on the position within the pixel array PA, resulting in variation in the photodetection sensitivity within the pixel array PA.
  • the on-chip lens 34 is provided so that the edge portion 34A falls into the light incident region RS inside the inter-pixel light shielding portion 33 at least in the diagonal direction of the pixel P.
  • the on-chip lens 34 has an aperture that becomes narrower and moves away from the adjacent pixel P at least in the diagonal direction of the pixel P, so that reflection of light obliquely incident on the adjacent pixel P can be suppressed. . Therefore, since the photodetector can suppress variations in lighting within the pixel array PA, it is possible to suppress variations in light detection sensitivity within the pixel array PA.
  • the on-chip lens 34 provided above the pixel P has a planar shape that is out of rectangular shape so as not to overlap with the inter-pixel light shielding section 33 in the diagonal direction of the pixel P. It will be established at Specifically, the on-chip lens 34 may be provided in a planar shape in which the corners of the rectangular shape of the inter-pixel light shielding section 33 are rounded in the diagonal direction of the pixel P.
  • the edge part 34A of the on-chip lens 34 in the opposite direction of the pixel P falls on the inter-pixel light shielding part 33, and the edge part 34A of the on-chip lens 34 in the diagonal direction of the pixel P is the light incident area RS.
  • the present embodiment is not limited to such an example.
  • the edge portions 34A in the opposite side direction and the diagonal direction of the pixel P of the on-chip lens 34 may both fall into the light incident region RS.
  • FIG. 4 is a plan view showing the correspondence between the cross-sectional configuration shown in FIG. 1 and the cutting line on the plane of the pixel array PA in the first modification.
  • the edge 34A of the on-chip lens 34 in the diagonal direction of the pixel P falls into the light incident region RS, and the edge 34A of the on-chip lens 34 in the opposite direction of the pixel P also receives light. It falls into the incident region RS. That is, the cross section shown in FIG. 1 corresponds to the cross section taken along the line A-AA, line B-BB, or line C-CC in FIG.
  • the on-chip lens 34 is provided such that the edge portion 34A in the diagonal direction and the opposite side direction of the pixel P falls into the light incident region RS inside the inter-pixel light shielding portion 33. According to this, since the on-chip lens 34 is separated from the adjacent pixel P over the entire circumference, the reflection of light obliquely incident on the adjacent pixel P can be further suppressed. Therefore, since the photodetector can more strongly suppress variations in lighting within the pixel array PA, it is possible to further suppress variations in light detection sensitivity within the pixel array PA.
  • the on-chip lens 34 provided above the pixel P is provided in a planar shape that does not overlap with the inter-pixel light shielding section 33 over the entire circumference of the pixel P.
  • the on-chip lens 34 may be provided in a circular or rectangular planar shape that is one size smaller than the rectangular shape of the inter-pixel light shielding section 33.
  • FIG. 5 is a schematic diagram showing the shape of the on-chip lens 34 in each of the central portion Ctr and peripheral portion Ed of the pixel array PA.
  • the edge portions 34A of the on-chip lenses 34 in the diagonal direction and the opposite side direction of the pixel P may fall onto the inter-pixel light shielding portion 33.
  • the edge portion 34A of the on-chip lens 34 in at least the diagonal direction of the pixel P may fall into the light incident region RS.
  • the on-chip lens 34 is provided with its aperture widened until the edge portion 34A falls onto the inter-pixel light shielding portion 33 in order to collect more incident light. It's okay.
  • the on-chip lens 34 is made narrower so that the edge portion 34A falls into the light incident region RS in order to further suppress the reflection of incident light to the adjacent pixel P. It may be provided with an opening.
  • the central portion Ctr of the pixel array PA may be, for example, a range obtained by reducing the pixel array PA by 1/2 with the center of the pixel array PA as a reference.
  • the peripheral portion Ed of the pixel array PA may be, for example, the entire area of the pixel array PA excluding the central portion Ctr.
  • the central portion Ctr is a square area whose center is the same as that of the pixel array PA and whose side length is 1/2 of the side length of the pixel array PA.
  • the peripheral portion Ed may be a frame region whose width is 1/4 of the length of the side of the pixel array PA, excluding the central portion Ctr from the entire area of the pixel array PA.
  • the on-chip lens 34 has a drop position of the edge portion 34A depending on the position of the pixel P in the pixel array PA (that is, the main angle of incidence of the incident light). or the light incident area RS. That is, in the second modification, the edge portion 34A of the on-chip lens 34 at the position where there is a lot of obliquely incident light is located in the light incident area so that the convex surface reflects less incident light to the adjacent pixel P. It is provided so that it falls into the RS and the opening becomes narrower. On the other hand, the on-chip lens 34 located at a position where there is a lot of light incident from the front is provided so that the edge portion 34A falls into the inter-pixel light shielding portion 33 and the aperture becomes wider in order to collect more incident light. .
  • the photodetector increases the photodetection sensitivity of the pixel P in the central portion Ctr of the pixel array PA, while increasing the photodetection sensitivity of the pixel P between the central portion Ctr and the peripheral portion Ed in the pixel array PA. It is possible to suppress variations in photodetection sensitivity.
  • FIG. 6 is a schematic vertical cross-sectional view showing a first aspect of the positional relationship between the on-chip lens 34 and the concavo-convex shaped portion 36 in the second embodiment.
  • FIG. 7 is a schematic vertical cross-sectional view showing a second aspect of the positional relationship between the on-chip lens 34 and the uneven portion 36 in the second embodiment.
  • the positional relationship between the depressed position of the edge portion 34A of the on-chip lens 34 and the uneven portion 36 is further defined.
  • the edge portion 34A of the on-chip lens 34 may fall onto the uneven portion 36. That is, in the first mode shown in FIG. 6, at least in the diagonal cut plane of the pixel P, the plane area covered by the on-chip lens 34 may be included in the concavo-convex portion 36. In such a case, it becomes difficult for light that is not scattered by the uneven portion 36 to enter the photoelectric conversion section 2, so that light with less noise and variation enters the photoelectric conversion section 2. According to this, the photodetector can suppress deterioration of jitter, which is fluctuation in the timing of photodetection in the time axis direction.
  • the edge portion 34A of the on-chip lens 34 may fall onto the light incident region RS outside the uneven portion 36.
  • the light incident region RS outside the uneven portion 36 is a frame-shaped flat portion provided between the uneven portion 36 and the inter-pixel light shielding portion 33 . That is, in the second mode shown in FIG. 7, the uneven portion 36 may be included in the plane region covered by the on-chip lens 34, at least in the diagonal cross section of the pixel P. In such a case, more incident light will be focused on the photoelectric conversion unit 2 by the on-chip lens 34. According to this, the photodetector can further increase the photodetection efficiency (PDE).
  • PDE photodetection efficiency
  • the photodetector further improves jitter or photodetection efficiency by defining the positional relationship between the depressed position of the edge portion 34A of the on-chip lens 34 and the uneven portion 36. It is possible to do so.
  • FIG. 8 is a schematic diagram showing the shape of the on-chip lens 34 in each of the central portion Ctr and peripheral portion Ed of the pixel array PA.
  • the on-chip lens 34 is configured such that the edge portion 34A falls onto the light incident region RS outside the uneven portion 36 in order to collect more incident light.
  • the opening may be widened. Even in such a case, uniform light with relatively little noise is incident on the photoelectric conversion unit 2 of the pixel P provided in the central part Ctr of the pixel array PA, so the photodetector can eliminate jitter. Photodetection efficiency (PDE) can be further increased without deterioration.
  • the incident light Lo enters each pixel P from an oblique direction, so that light whose incident angles vary widely enters the photoelectric conversion unit 2. . Therefore, in the peripheral portion Ed of the pixel array PA, the on-chip lens 34 has a narrower aperture so that the edge portion 34A falls inside the uneven portion 36 in order to collect the incident light with higher precision. may be provided. In such a case, uniform light with relatively little noise can be made incident on the photoelectric conversion unit 2 of the pixel P provided in the peripheral portion Ed of the pixel array PA, so that the photodetector can avoid the worsening of jitter. can be suppressed.
  • the central portion Ctr of the pixel array PA may be, for example, a range obtained by reducing the pixel array PA by 1/2 with the center of the pixel array PA as a reference.
  • the peripheral portion Ed of the pixel array PA may be, for example, the entire area of the pixel array PA excluding the central portion Ctr.
  • the central portion Ctr is a square area whose center is the same as that of the pixel array PA and whose side length is 1/2 of the side length of the pixel array PA.
  • the peripheral portion Ed may be a frame region whose width is 1/4 of the length of the side of the pixel array PA, excluding the central portion Ctr from the entire area of the pixel array PA.
  • the on-chip lens 34 has a depressed position of the edge portion 34A at which the light is incident, depending on the position of the pixel P in the pixel array PA (that is, the main angle of incidence of the incident light). It is controlled by either the region RS or the uneven shape portion 36. That is, in the modified example of the second embodiment, the on-chip lens 34 at a position where there is a large variation in incident light has an uneven edge portion 34A in order to allow more accurate light to enter the photoelectric conversion unit 2. 36, and the opening is provided so as to become narrower.
  • the edge portion 34A falls into the light incidence region RS outside the uneven portion 36. , so that the opening is wide.
  • the photodetector improves the photodetection efficiency of the pixels P in the central part Ctr of the pixel array PA, while increasing the light detection efficiency of the pixels P in the central part Ctr and the peripheral part Ed in the pixel array PA. It is possible to suppress jitter in photodetection of the pixel P.
  • FIG. 9 is a schematic diagram showing the configuration of a photodetection device 1 including a photodetector according to the first or second embodiment.
  • the photodetection device 1 includes a pixel array PA, a clock generation section 110, a readout control section 120, a readout section 130, and a photodetection control section 140.
  • Pixel array PA a plurality of pixels P that detect the above-mentioned light are arranged in a matrix. Based on inputs from the clock generation section 110 and the readout control section 120, signal charges corresponding to the incident light are output from each of the photoelectric conversion sections 2 included in the pixel P to the readout section 130.
  • Pixel array PA corresponds to a photodetector in this disclosure.
  • the photodetection control unit 140 controls the operation of each part of the photodetection device 1. Specifically, the photodetection control section 140 can control the operation of the photodetection device 1 by controlling the operations of the clock generation section 110, the readout control section 120, and the readout section 130.
  • the clock generation unit 110 generates a clock signal indicating a master clock that serves as a reference for the operation timing of each part of the photodetecting device 1.
  • the generated clock signal is output to each pixel P included in the pixel array PA.
  • the readout control unit 120 selectively scans each pixel P included in the pixel array PA to read out a signal charge corresponding to the incident light from each pixel P, and outputs it to the readout unit 130.
  • the reading unit 130 performs various digital signal processing on the signal charges output from the pixel array PA, and then outputs the signal charges to the outside of the photodetector 1 as a photodetection signal.
  • FIG. 10 is a schematic diagram showing the configuration of a distance measuring device 200 including the photodetecting device 1 shown in FIG. As shown in FIG. 10, the distance measuring device 200 includes a light emitting section 201, an optical system 205, a photodetecting device 1, and a control section 203.
  • the light emitting unit 201 emits a light pulse Lp0 to the distance measurement target.
  • the light emitting unit 201 may emit the light pulse Lp0 by alternately repeating light emission and non-light emission based on instructions from the control unit 203.
  • the light emitting unit 201 may include, for example, a laser light source or an LED (Light Emitting Diode) light source that emits infrared rays.
  • the optical system 205 includes a lens and the like, and forms an image of light on the light receiving surface of the photodetector 1. Specifically, the optical system 205 images the light pulse Lp1 (for example, infrared rays) emitted from the light emitting unit 201 and reflected by the object to be measured on the light receiving surface of the photodetector 1.
  • Lp1 for example, infrared rays
  • the light detection device 1 outputs information regarding the distance to the distance measurement target to the outside by detecting incident light based on instructions from the control unit 203.
  • the photodetection device 1 may derive information regarding the distance to the distance measurement target based on the delay time between the detection signal of the incident light and the reference signal.
  • the control unit 203 outputs a control signal to the light emitting unit 201 and the photodetection device 1, and controls the operation of the light emission unit 201 and the photodetection device 1, thereby controlling the overall operation of the distance measuring device 200.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure can be used as a light detection device mounted on any type of moving body such as a car, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, etc. May be realized.
  • FIG. 11 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output section 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated as the functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the body system control unit 12020 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 12020.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the external information detection unit 12030 detects information external to the vehicle in which the vehicle control system 12000 is mounted.
  • an imaging section 12031 is connected to the outside-vehicle information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electrical signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver condition detection section 12041 that detects the condition of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver condition detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver condition detection unit 12041. It may be calculated, or it may be determined whether the driver is falling asleep.
  • the microcomputer 12051 calculates control target values for the driving force generation device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, Control commands can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of autonomous driving, etc., which does not rely on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of preventing glare, such as switching from high beam to low beam. It can be carried out.
  • the audio and image output unit 12052 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 12061, a display section 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 12 is a diagram showing an example of the installation position of the imaging section 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at, for example, the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • An imaging unit 12101 provided in the front nose and an imaging unit 12105 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 12100.
  • Imaging units 12102 and 12103 provided in the side mirrors mainly capture images of the sides of the vehicle 12100.
  • An imaging unit 12104 provided in the rear bumper or back door mainly captures images of the rear of the vehicle 12100.
  • the imaging unit 12105 provided above the windshield inside the vehicle is mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 12 shows an example of the imaging range of the imaging units 12101 to 12104.
  • An imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • an imaging range 12114 shows the imaging range of the imaging unit 12101 provided on the front nose.
  • the imaging range of the imaging unit 12104 provided in the rear bumper or back door is shown. For example, by overlapping the image data captured by the imaging units 12101 to 12104, an overhead image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of image sensors, or may be an image sensor having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. By determining the following, it is possible to extract, in particular, the closest three-dimensional object on the path of vehicle 12100, which is traveling at a predetermined speed (for example, 0 km/h or more) in approximately the same direction as vehicle 12100, as the preceding vehicle. can. Furthermore, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving, etc., in which the vehicle travels autonomously without depending on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 transfers three-dimensional object data to other three-dimensional objects such as two-wheeled vehicles, regular vehicles, large vehicles, pedestrians, and utility poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic obstacle avoidance. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceeds a set value and there is a possibility of a collision, the microcomputer 12051 transmits information via the audio speaker 12061 and the display unit 12062. By outputting a warning to the driver via the vehicle control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceed
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition involves, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and a pattern matching process is performed on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not.
  • the audio image output unit 12052 creates a rectangular outline for emphasis on the recognized pedestrian.
  • the display unit 12062 is controlled to display the .
  • the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 or various distance measuring sensors (not shown) among the configurations described above.
  • the vehicle control system can measure and recognize the external environment of the vehicle with higher accuracy.
  • the photodetector according to (1) wherein the edge portion of the on-chip lens in the direction opposite to the pixel is depressed above the inter-pixel light shielding portion.
  • the pixel in which the edge portion of the on-chip lens falls onto the uneven portion is provided at a peripheral portion of a pixel array in which a plurality of pixels are arranged in a plane in a matrix, According to (5) or (6), the pixel in which the edge portion of the on-chip lens falls onto the light incident area outside the concavo-convex portion is provided in the center of the pixel array.
  • photodetector (10) The photodetector according to any one of (1) to (9), wherein the photoelectric conversion section photoelectrically converts infrared rays. (11) The photodetector according to any one of (1) to (10), wherein the photoelectric conversion section is a single photon avalanche diode.
  • the photodetector is a semiconductor substrate with a photoelectric conversion section provided therein; an inter-pixel light shielding section provided on the semiconductor substrate and defining a light incident area of a pixel corresponding to the photoelectric conversion section; an on-chip lens provided on the light incident area of the semiconductor substrate; Equipped with A photodetection device, wherein at least a diagonal edge of the pixel of the on-chip lens dips above the light incident area.
  • Photoelectric conversion section 10 Semiconductor substrate 10A Light incident surface 10B Surface 11 Well layer 12 Pinning layer 13 Anode 14 P-type semiconductor region 15 N-type semiconductor region 16 Cathode 24 Insulating film 25A Contact layer 25B First wiring 25C First connection layer 25D 2 Wiring 25E Second connection layer 25F Third wiring 26 Wiring layer 30 Pixel separation groove 33 Inter-pixel light shielding part 34 On-chip lens 34A Edge part 35 Anti-reflection film 35A First anti-reflection film 35B Second anti-reflection film 35C Third Anti-reflection film 36 Concave and convex shaped portion Ctr Center portion Ed Peripheral portion MR Multiplication region P Pixel PA Pixel array RS Light incident region TI Pixel isolation film V Gap

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

【課題】画素アレイ内での感度ばらつきをより抑制した光検出器、及び光検出装置を提供する。 【解決手段】内部に光電変換部が設けられた半導体基板と、前記半導体基板の上に設けられ、前記光電変換部に対応する画素の光入射領域を画定する画素間遮光部と、前記半導体基板の前記光入射領域の上に設けられたオンチップレンズと、を備え、前記オンチップレンズの少なくとも前記画素の対角方向の縁端部は、前記光入射領域の上に落ち込んでいる、光検出器。

Description

光検出器、及び光検出装置
 本開示は、光検出器、及び光検出装置に関する。
 近年、より高感度の光検出器として、アバランシェフォトダイオード(Avalanche PhotoDiode: APD)を用いた光検出器が注目されている。APDは、光の入射によって発生した電子をアバランシェ増倍させることで、微弱な光でも高速かつ高感度で検出することができる。
 一方で、APDは、高感度であるため、一般的なフォトダイオードよりもノイズ及び感度ばらつきの影響を受けやすい。そのため、APDのノイズ及び感度ばらつきを抑制する技術が検討されている。
 APDのノイズ抑制については、種々の検討が行われている。例えば、下記の特許文献1には、隣接する画素間に設けられた分離領域の側壁にホール蓄積領域を設けることで、アバランシェフォトダイオードの暗電流を抑制する技術が開示されている。
特開2018-201005号公報
 一方で、APDの画素アレイ内での感度ばらつき抑制については、十分な検討がされていなかった。
 そこで、本開示では、画素アレイ内での感度ばらつきをより抑制することが可能な、新規かつ改良された光検出器、及び光検出装置を提案する。
 本開示によれば、内部に光電変換部が設けられた半導体基板と、前記半導体基板の上に設けられ、前記光電変換部に対応する画素の光入射領域を画定する画素間遮光部と、前記半導体基板の前記光入射領域の上に設けられたオンチップレンズと、を備え、前記オンチップレンズの少なくとも前記画素の対角方向の縁端部は、前記光入射領域の上に落ち込んでいる、光検出器が提供される。
 また、本開示によれば、光検出器と、前記光検出器からの出力を信号処理する処理回路とを備え、前記光検出器は、内部に光電変換部が設けられた半導体基板と、前記半導体基板の上に設けられ、前記光電変換部に対応する画素の光入射領域を画定する画素間遮光部と、前記半導体基板の前記光入射領域の上に設けられたオンチップレンズと、を備え、前記オンチップレンズの少なくとも前記画素の対角方向の縁端部は、前記光入射領域の上に落ち込んでいる、光検出装置が提供される。
第1の実施形態に係る光検出器が備える画素アレイの断面構成を示す縦断面図である。 第1の実施形態に係る光検出器が備える画素アレイの他の断面構成を示す縦断面図である。 図1及び図2に示す断面構成と、画素アレイの平面上の切断線との対応関係を示す平面図である。 図1に示す断面構成と、第1の変形例における画素アレイの平面上の切断線との対応関係を示す平面図である。 画素アレイの中央部及び周辺部の各々でのオンチップレンズの形状を示す模式図である。 第2の実施形態におけるオンチップレンズと、凹凸形状部との位置関係の第1の様態を示す模式的な縦断面図である。 第2の実施形態におけるオンチップレンズと、凹凸形状部との位置関係の第2の様態を示す模式的な縦断面図である。 画素アレイの中央部及び周辺部の各々でのオンチップレンズの形状を示す模式図である。 第1又は第2の実施形態に係る光検出器を含む光検出装置の構成を示す模式図である。 図9で示した光検出装置を含む測距装置の構成を示す模式図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1.1.画素の構成
  1.2.第1の変形例
  1.3.第2の変形例
 2.第2の実施形態
 3.適用例
 <1.第1の実施形態>
 (1.1.画素の構成)
 まず、図1~図3を参照して、本開示の第1の一実施形態に係る光検出器の画素構成について説明する。図1は、本実施形態に係る光検出器が備える画素アレイPAの断面構成を示す縦断面図である。図2は、本実施形態に係る光検出器が備える画素アレイPAの他の断面構成を示す縦断面図である。図3は、図1及び図2に示す断面構成と、画素アレイPAの平面上の切断線との対応関係を示す平面図である。
 図1及び図2に示すように、画素アレイPAに平面配列された画素Pの各々は、配線層26と、半導体基板10と、オンチップレンズ34とが積層された構造を有する。図1及び図2に示す画素Pは、オンチップレンズ34の縁端部34Aの落ち込み位置が互いに異なる点を除いては実質的に同様の構成を備える。
 なお、画素Pの各々では、半導体基板10のオンチップレンズ34が設けられた側の面が光入射面10Aとなる。光入射面10Aは、半導体基板10の裏面研磨によって得られた面である。一方、光入射面10Aと反対側の半導体基板10の表面10Bには、配線層26が貼り合わせられる。すなわち、本実施形態に係る光検出器は、半導体基板10の裏面から入射した光を検出する、いわゆる裏面照射型の光センサである。
 配線層26は、絶縁膜24中に、第1配線25B、第2配線25D、及び第3配線25Fを含む複数の配線が埋設されることで構成される。第1配線25B、第2配線25D、及び第3配線25Fは、例えば、配線層26の厚み方向に延在する第1接続層25C及び第2接続層25Eによって互いに接続される。第1配線25Bは、配線層26の厚み方向に延在するコンタクト層25Aを介して、後述する光電変換部2のアノード又はカソードと電気的に接続される。第3配線25Fは、配線層26の表面側に露出することで、外部接続用の端子として機能する。
 コンタクト層25A、第1配線25B、第2配線25D、第3配線25F、第1接続層25C、及び第2接続層25Eは、例えば、銅(Cu)、銀(Ag)、金(Au)、アルミニウム(Al)、タングステン(W)、チタン(Ti)、又はタンタル(Ta)などの金属、又はこれらの金属化合物によって構成されてもよい。絶縁膜24は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)などの無機絶縁性材料で構成されてもよい。
 なお、図1及び図2に示す縦断面図では、第1配線25B、第2配線25D、及び第3配線25Fの3層の配線が絶縁膜24に埋設される例を示したが、絶縁膜24に埋設される配線の層数は特に限定されない。また、図1及び図2に示す縦断面図では、絶縁膜24が1つの層として構成される例を示したが、絶縁膜24は、第1配線25B、第2配線25D、第3配線25F、コンタクト層25A、第1接続層25C、及び第2接続層25Eの各々に対応して設けられた絶縁膜の積層体として構成されてもよい。
 半導体基板10は、例えば、シリコン(Si)などの半導体材料で構成される。半導体基板10の内部には、画素Pごとに光電変換部2が設けられ、隣接する画素Pの各々は、互いに画素分離溝30にて離隔される。
 画素分離溝30は、画素Pを囲むように、半導体基板10の厚み方向に掘り込まれて設けられる。画素分離溝30の内部には、画素分離膜TIが埋設される。画素分離膜TIは、例えば、タングステン(W)又はアルミニウム(Al)などの遮光性を有する金属膜32の外側を酸化シリコン(SiO)、酸化タンタル(Ta)、酸化ハフニウム(HfO)、又は酸化アルミニウム(Al)などの絶縁膜31で覆うことで構成されてもよい。また、金属膜32の内部には、空隙Vが設けられてもよい。画素分離膜TIは、隣接する画素Pを互いに電気的及び光学的に分離することができる。
 光電変換部2は、半導体基板10の内部に設けられ、高電界によって電子をアバランシェ増倍する増倍領域MRを有する。光電変換部2は、アバランシェフォトダイオード(APD)であってもよく、シングルフォトンアバランシェフォトダイオード(SPAD)であってもよい。
 具体的には、画素分離膜TIにて画素Pごとに分離された半導体基板10には、ウェル層11が設けられる。ウェル層11は、例えば、1×1014原子/cm以下の低濃度のn型又はp型の半導体領域である。ウェル層11は、低濃度のn型又はp型の半導体領域として構成されることで空乏化されやすくなるため、光電変換部2の光検出効率(Photon Detection Efficiency: PDE)をより高めることができる。
 ウェル層11の内部には、光入射面10A側から順に、p型半導体領域14及びn型半導体領域15がpn接合を構成するように設けられる。p型半導体領域14は、高濃度のp型の半導体領域(p+)であり、n型半導体領域15は、高濃度のn型の半導体領域(n+)である。p型半導体領域14及びn型半導体領域15に逆電圧が印加されることで増倍領域MRが構成される。
 n型半導体領域15と、コンタクト層25Aとの間には、カソード16が設けられる。具体的には、カソード16は、n型半導体領域15よりも高濃度のn型の半導体領域(n++)であり、n型半導体領域15とコンタクト層25Aとを電気的に接続するように設けられる。カソード16を介してn型半導体領域15には、コンタクト層25Aから所定のバイアス電圧が印加される。
 ウェル層11と画素分離膜TIとの間には、ホール(正孔)を蓄積するピニング層12が設けられる。ピニング層12は、p型の半導体領域であり、画素分離膜TIに沿ってウェル層11の側面を囲むように設けられる。例えば、ピニング層12は、画素分離膜TI側から比較的高濃度のp型の半導体領域(p+)と、比較的低濃度のp型半導体領域(p)とを順に積層した構造で設けられてもよい。ピニング層12は、画素分離膜TIとウェル層11との界面のフェルミ準位をピニングすることで、該界面における暗電流の発生を抑制することができる。
 さらに、ピニング層12には、アノード13を介してバイアス電圧が印加されてもよい。これによれば、ピニング層12は、ホール濃度を強化することができるため、より強固に画素分離膜TIとウェル層11との界面のフェルミ準位をピニングすることができる。
 ピニング層12と、コンタクト層25Aとの間には、アノード13が設けられる。具体的には、アノード13は、ピニング層12よりも高濃度のp型の半導体領域(p++)であり、ピニング層12とコンタクト層25Aとを電気的に接続するように設けられる。アノード13を介してピニング層12には、コンタクト層25Aから所定のバイアス電圧が印加される。
 上記の光電変換部2では、例えば、アノード13に強い負電圧が印加されることで、pn接合に逆電圧が印加される。これにより、p型半導体領域14とn型半導体領域15とのpn接合から空乏層が拡がり、高電界の増倍領域MRが形成される。光電変換部2は、入射光によって発生した電子を増倍領域MRでアバランシェ増倍することで、光入射面10Aに入射する光を高感度で検出することが可能である。
 ここで、半導体基板10の光入射面10A側には、画素分離膜TIに接して画素間遮光部33が設けられる。画素間遮光部33は、半導体基板10の光入射面10Aにて画素Pを囲むように設けられ、画素Pの光入射領域RSを画定する。画素間遮光部33は、光入射面10Aに斜めに入射した光の隣接する画素Pへの漏れ込みを抑制することで、画素Pの間でのクロストークを抑制することができる。画素間遮光部33は、例えば、タングステン(W)又はアルミニウム(Al)等の遮光性を有する金属で構成されてもよい。
 半導体基板10の光入射面10A側の光入射領域RSには、凹凸形状がアレイ状に配列された凹凸形状部36が設けられる。具体的には、凹凸形状部36は、四角錐の凹形状がアレイ状に配列されることで構成され、画素間遮光部33にて囲まれた光入射領域RSの内部に設けられる。凹凸形状部36は、凹凸形状による回折又は乱反射によって光電変換部2への入射光を拡散させることができるため、光電変換部2の内部での入射光の光路長をより長くすることができる。これによれば、凹凸形状部36は、光電変換部2の光検出効率(PDE)をより高めることができる。なお、このようなアレイ状の凹凸形状は、例えば、半導体基板10の光入射面10Aを結晶面に沿ってエッチングすることで形成される。
 また、半導体基板10の光入射面10Aには、凹凸形状部36の凹凸形状に沿って反射防止膜35が設けられる。反射防止膜35は、例えば、高誘電率(High-k)の絶縁性薄膜を半導体基板10側から徐々に屈折率が低下するように複数積層することで構成される。反射防止膜35は、入射光に対する反射率の変化を穏やかにすることで、入射光の反射を抑制することができる。反射防止膜35は、例えば、酸化シリコン(SiO)、酸化ハフニウム(HfO)、酸化アルミニウム(Al)、酸化チタン(TiO)、又はチタン酸ストロンチウム(SrTiO)の薄膜の積層体として構成されてもよい。例えば、反射防止膜35は、半導体基板10側から、HfOからなる第1反射防止膜35A、Alからなる第2反射防止膜35B、及びSiOからなる第3反射防止膜35Cを順に積層することで構成されてもよい。
 さらに、半導体基板10の光入射面10Aには、画素Pごとに反射防止膜35の上にオンチップレンズ34が設けられる。オンチップレンズ34は、例えば、ボウル形状を反転させたような凸形状で構成され、入射光を増倍領域MRへと集光することで、光電変換部2の光検出効率(PDE)をより高めることができる。オンチップレンズ34は、例えば、熱可塑性樹脂又は窒化シリコン等の光透過性を有する有機材料又は無機材料にて構成されてもよい。
 本実施形態に係る光検出器では、オンチップレンズ34の縁端部34Aは、光入射領域RS又は画素間遮光部33のいずれかに接するように落ち込んでいる。具体的には、図3では、オンチップレンズ34の画素Pの対辺方向の縁端部34Aは、画素間遮光部33の上に落ち込んでおり、オンチップレンズ34の画素Pの対角方向の縁端部34Aは、光入射領域RSに落ち込んでいる。すなわち、図1で示す断面は、図3のA-AA線で切断した断面に対応し、図2で示す断面は、図3のB-BB線又はC-CC線で切断した断面に対応する。
 光検出器では、光検出感度を高めるために、増倍領域MRへ入射光を集光するオンチップレンズ34の高さ及び開口をより拡大することが検討されている。しかしながら、縁端部34Aが画素間遮光部33と重なるまでオンチップレンズ34の高さ及び開口を拡大した場合、隣接する画素Pに斜めに入射する光がオンチップレンズ34の凸表面で反射されることで、隣接する画素Pに入射する光が減少することがあり得る。
 特に、斜めに入射する光が多くなる画素アレイPAの周辺部に設けられた画素Pでは、隣接する画素Pに入射する光のうちオンチップレンズ34で反射される光の割合が増加するため、入射光の減少によって画素Pの光検出感度が低下してしまう。このような場合、光検出器では、画素アレイPA内での位置によって画素Pへの入射光量がばらつくことで、画素アレイPA内の光検出感度がばらついてしまう。
 本実施形態に係る光検出器では、オンチップレンズ34は、少なくとも画素Pの対角方向で縁端部34Aが画素間遮光部33の内側の光入射領域RSに落ち込むように設けられる。これによれば、オンチップレンズ34は、少なくとも画素Pの対角方向で、開口が狭くなると共に隣接する画素Pから離れるため、隣接する画素Pに斜め入射する光の反射を抑制することができる。したがって、光検出器は、画素アレイPA内の採光ばらつきを抑制することができるため、画素アレイPA内の光検出感度のばらつきを抑制することができる。
 このような場合、図3に示すように、画素Pの上に設けられたオンチップレンズ34は、画素Pの対角方向で画素間遮光部33と重ならないように矩形形状を崩した平面形状にて設けられる。具体的には、オンチップレンズ34は、画素間遮光部33の矩形形状の角を画素Pの対角方向に丸めた平面形状にて設けられてもよい。
 (1.2.第1の変形例)
 上記では、オンチップレンズ34の画素Pの対辺方向の縁端部34Aが画素間遮光部33の上に落ち込み、オンチップレンズ34の画素Pの対角方向の縁端部34Aが光入射領域RSに落ち込む構成を示したが、本実施形態はかかる例示に限定されない。例えば、図4に示すように、オンチップレンズ34の画素Pの対辺方向及び対角方向の縁端部34Aは、いずれも光入射領域RSに落ち込んでもよい。図4は、図1に示す断面構成と、第1の変形例における画素アレイPAの平面上の切断線との対応関係を示す平面図である。
 図4では、オンチップレンズ34の画素Pの対角方向の縁端部34Aは、光入射領域RSに落ち込んでおり、オンチップレンズ34の画素Pの対辺方向の縁端部34Aも同様に光入射領域RSに落ち込んでいる。すなわち、図1で示す断面は、図4のA-AA線、B-BB線、又はC-CC線で切断した断面に対応する。
 第1の変形例では、オンチップレンズ34は、画素Pの対角方向及び対辺方向で縁端部34Aが画素間遮光部33の内側の光入射領域RSに落ち込むように設けられる。これによれば、オンチップレンズ34は、隣接する画素Pから全周に亘って離れるため、隣接する画素Pに斜めに入射する光の反射をさらに大きく抑制することができる。したがって、光検出器は、画素アレイPA内の採光ばらつきをより強く抑制することができるため、画素アレイPA内の光検出感度のばらつきをさらに抑制することができる。
 このような場合、図4に示すように、画素Pの上に設けられたオンチップレンズ34は、画素Pの全周に亘って画素間遮光部33と重ならない平面形状にて設けられる。具体的には、オンチップレンズ34は、画素間遮光部33の矩形形状よりも一回り小さい円又は矩形の平面形状にて設けられてもよい。
 (1.3.第2の変形例)
 本実施形態に係る光検出器では、図1で示した断面構成の画素Pが画素アレイPA内に少なくとも1つ以上存在していればよい。一方で、図5を参照して説明する第2の変形例では、光検出器は、図1で示した断面構成の画素Pの画素アレイPA内での配置を制御することで、画素アレイPA内での光検出感度のばらつきを抑制しつつ、画素Pの各々の光検出感度を高めることができる。図5は、画素アレイPAの中央部Ctr及び周辺部Edの各々でのオンチップレンズ34の形状を示す模式図である。
 図5に示すように、画素アレイPAの中央部Ctrでは、画素Pの対角方向及び対辺方向のオンチップレンズ34の縁端部34Aは、画素間遮光部33の上に落ち込んでもよい。一方で、画素アレイPAの周辺部Edでは、画素Pの少なくとも対角方向のオンチップレンズ34の縁端部34Aは、光入射領域RSに落ち込んでもよい。
 画素アレイPAの中央部Ctrでは、入射光Lsは、画素Pの各々に対して正面方向から入射するため、オンチップレンズ34の凸表面による隣接する画素Pへの入射光の反射は比較的少なくなる。そのため、画素アレイPAの中央部Ctrでは、オンチップレンズ34は、より多くの入射光を集光するために、縁端部34Aが画素間遮光部33の上に落ち込むまで開口を広げて設けられてもよい。
 一方、画素アレイPAの周辺部Edでは、入射光Loは、画素Pの各々に対して斜め方向から入射するため、オンチップレンズ34の凸表面による隣接する画素Pへの入射光の反射は比較的多くなる。そのため、画素アレイPAの周辺部Edでは、オンチップレンズ34は、隣接する画素Pへの入射光の反射をより抑制するために、縁端部34Aが光入射領域RSに落ち込むように、より狭い開口で設けられてもよい。
 なお、画素アレイPAの中央部Ctrとは、例えば、画素アレイPAの中心を基準にして画素アレイPAを1/2縮小した範囲であってもよい。また、画素アレイPAの周辺部Edとは、例えば、画素アレイPAの全域から中央部Ctrを除いた範囲であってもよい。例えば、画素アレイPAの形状が正方形である場合、中央部Ctrは、画素アレイPAと中心が同じであり、かつ画素アレイPAの辺の長さの1/2を辺の長さとする正方形領域であってもよい。同様に、周辺部Edは、画素アレイPAの全域から中央部Ctrを除いた、画素アレイPAの辺の長さの1/4を幅とする額縁領域であってもよい。
 第2の変形例では、オンチップレンズ34は、画素アレイPA内の画素Pの位置(すなわち、入射光の主な入射角度)に応じて、縁端部34Aの落ち込み位置が画素間遮光部33又は光入射領域RSのいずれかに制御される。すなわち、第2の変形例では、斜め入射する光が多い位置のオンチップレンズ34は、凸表面による隣接する画素Pへの入射光の反射が少なくなるように、縁端部34Aが光入射領域RSに落ち込み、開口が狭くなるように設けられる。一方で、正面入射する光が多い位置のオンチップレンズ34は、より多くの入射光を集光するために、縁端部34Aが画素間遮光部33に落ち込み、開口が広くなるように設けられる。
 したがって、第2の変形例では、光検出器は、画素アレイPAの中央部Ctrの画素Pの光検出感度を高めつつ、画素アレイPA内の中央部Ctrと周辺部Edとの間の画素Pの光検出感度のばらつきを抑制することができる。
 <2.第2の実施形態>
 続いて、図6及び図7を参照して、本開示の第2の実施形態に係る光検出器が備える画素アレイPAについて説明する。図6は、第2の実施形態におけるオンチップレンズ34と、凹凸形状部36との位置関係の第1の様態を示す模式的な縦断面図である。図7は、第2の実施形態におけるオンチップレンズ34と、凹凸形状部36との位置関係の第2の様態を示す模式的な縦断面図である。第2の実施形態では、第1の実施形態で説明した各構成に加えて、オンチップレンズ34の縁端部34Aの落ち込み位置と、凹凸形状部36との位置関係がさらに規定される。
 具体的には、第1の様態として、図6に示すように、オンチップレンズ34の縁端部34Aは、凹凸形状部36の上に落ち込んでもよい。すなわち、図6に示す第1の様態では、少なくとも画素Pの対角方向の切断面において、オンチップレンズ34が覆う平面領域は、凹凸形状部36に内包されてもよい。このような場合、光電変換部2には、凹凸形状部36にて散乱されない光が入り込みにくくなるため、よりノイズ及びばらつきの少ない光が入射するようになる。これによれば、光検出器は、光検出の時間軸方向のタイミングの揺らぎであるジッタの悪化を抑制することができる。
 一方で、第2の様態として、図7に示すように、オンチップレンズ34の縁端部34Aは、凹凸形状部36の外側の光入射領域RSの上に落ち込んでもよい。凹凸形状部36の外側の光入射領域RSは、凹凸形状部36と画素間遮光部33との間に設けられた額縁形状の平坦部である。すなわち、図7に示す第2の様態では、少なくとも画素Pの対角方向の切断面において、凹凸形状部36は、オンチップレンズ34が覆う平面領域に内包されてもよい。このような場合、光電変換部2には、オンチップレンズ34によってより多くの入射光が集光されることになる。これによれば、光検出器は、光検出効率(PDE)をより高めることが可能である。
 第2の実施形態によれば、光検出器は、オンチップレンズ34の縁端部34Aの落ち込み位置と、凹凸形状部36との位置関係を規定することで、ジッタ又は光検出効率をより向上させることが可能である。
 ここで、図8を参照して、第2の実施形態の変形例について説明する。第2の実施形態の変形例では、図6及び図7で示した画素Pの画素アレイPA内での配置を制御することで、光検出効率を高めつつ、光検出のジッタを抑制することができる。図8は、画素アレイPAの中央部Ctr及び周辺部Edの各々でのオンチップレンズ34の形状を示す模式図である。
 図8に示すように、画素アレイPAの中央部Ctrでは、入射光Lsは、画素Pの各々に対して正面方向から入射するため、光電変換部2には、ばらつきの少ない光が入射することになる。そのため、画素アレイPAの中央部Ctrでは、オンチップレンズ34は、より多くの入射光を集光するために、縁端部34Aが凹凸形状部36の外側の光入射領域RSの上に落ち込むように開口を広げて設けられてもよい。このような場合であっても、画素アレイPAの中央部Ctrに設けられた画素Pの光電変換部2には、比較的ノイズの少ない揃った光が入射するため、光検出器は、ジッタを悪化させずに光検出効率(PDE)をより高めることができる。
 一方、画素アレイPAの周辺部Edでは、入射光Loは、画素Pの各々に対して斜め方向から入射するため、光電変換部2には、入射角度が大きくばらついた光が入射することになる。そのため、画素アレイPAの周辺部Edでは、オンチップレンズ34は、より精度の高い入射光を集光するために、縁端部34Aが凹凸形状部36の内側に落ち込むように、より狭い開口で設けられてもよい。このような場合、画素アレイPAの周辺部Edに設けられた画素Pの光電変換部2には、比較的ノイズの少ない揃った光を入射させることができるため、光検出器は、ジッタの悪化を抑制することができる。
 なお、画素アレイPAの中央部Ctrとは、例えば、画素アレイPAの中心を基準にして画素アレイPAを1/2縮小した範囲であってもよい。また、画素アレイPAの周辺部Edとは、例えば、画素アレイPAの全域から中央部Ctrを除いた範囲であってもよい。例えば、画素アレイPAの形状が正方形である場合、中央部Ctrは、画素アレイPAと中心が同じであり、かつ画素アレイPAの辺の長さの1/2を辺の長さとする正方形領域であってもよい。同様に、周辺部Edは、画素アレイPAの全域から中央部Ctrを除いた、画素アレイPAの辺の長さの1/4を幅とする額縁領域であってもよい。
 第2の実施形態の変形例では、オンチップレンズ34は、画素アレイPA内の画素Pの位置(すなわち、入射光の主な入射角度)に応じて、縁端部34Aの落ち込み位置が光入射領域RS又は凹凸形状部36のいずれかに制御される。すなわち、第2の実施形態の変形例では、入射光のばらつきが大きい位置のオンチップレンズ34は、より精度の高い光を光電変換部2に入射させるために、縁端部34Aが凹凸形状部36に落ち込み、開口が狭くなるように設けられる。一方で、入射光のばらつきが小さい位置のオンチップレンズ34は、より多くの光を光電変換部2に入射させるために、縁端部34Aが凹凸形状部36の外側の光入射領域RSに落ち込み、開口が広くなるように設けられる。
 したがって、第2の実施形態の変形例によれば、光検出器は、画素アレイPAの中央部Ctrの画素Pの光検出効率を高めつつ、画素アレイPA内の中央部Ctr及び周辺部Edの画素Pの光検出のジッタを抑制することが可能である。
 <3.適用例>
 (光検出装置)
 図9は、第1又は第2の実施形態に係る光検出器を含む光検出装置1の構成を示す模式図である。図9に示すように、光検出装置1は、画素アレイPAと、クロック生成部110と、読出制御部120と、読出部130と、光検出制御部140とを備える。
 画素アレイPAは、上述した光を検出する複数の画素Pが行列状に配列される。クロック生成部110及び読出制御部120からの入力に基づいて、画素Pに含まれる光電変換部2の各々から読出部130に入射光に対応する信号電荷が出力される。画素アレイPAは、本開示における光検出器に対応する。
 光検出制御部140は、光検出装置1の各部の動作を制御する。具体的には、光検出制御部140は、クロック生成部110、読出制御部120、及び読出部130の動作を制御することで、光検出装置1の動作を制御することができる。
 クロック生成部110は、光検出装置1の各部の動作タイミングの基準となるマスタクロックを示すクロック信号を生成する。生成されたクロック信号は、画素アレイPAに含まれる画素Pの各々に出力される。
 読出制御部120は、画素アレイPAに含まれる画素Pの各々を選択走査することで、画素Pの各々から入射光に対応する信号電荷を読み出し、読出部130に出力させる。
 読出部130は、画素アレイPAから出力された信号電荷を各種デジタル信号処理等した後、光検出装置1の外部に光検出信号として出力する。
 (測距装置)
 図10は、図9で示した光検出装置1を含む測距装置200の構成を示す模式図である。図10に示すように、測距装置200は、発光部201と、光学系205と、光検出装置1と、制御部203とを備える。
 発光部201は、測距対象に対して光パルスLp0を出射する。発光部201は、制御部203からの指示に基づいて、発光及び非発光を交互に繰り返すことで光パルスLp0を出射してもよい。発光部201は、例えば、赤外線を出射するレーザ光源又はLED(Light Emitting Diode)光源を含んでもよい。
 光学系205は、レンズ等を含み、光検出装置1の受光面に光を結像させる。具体的には、光学系205は、発光部201から出射され、測距対象にて反射された光パルスLp1(例えば、赤外線)を光検出装置1の受光面に結像させる。
 光検出装置1は、制御部203からの指示に基づいて入射光を検出することで、測距対象までの距離に関する情報を外部に出力する。例えば、光検出装置1は、入射光の検出信号と基準信号との間の遅延時間に基づいて、測距対象までの距離に関する情報を導出してもよい。
 制御部203は、発光部201及び光検出装置1に制御信号を出力し、発光部201及び光検出装置1の動作を制御することにより、測距装置200の全体の動作を制御する。
 (移動体への適用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される光検出装置として実現されてもよい。
 図11は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図11に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図11の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図12は、撮像部12031の設置位置の例を示す図である。
 図12では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図12には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031、又は図示されない各種測距センサに適用され得る。撮像部12031又は測距センサに本開示に係る技術が適用されることにより、車両制御システムは、車両の外部環境をより高精度で測定及び認識することが可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 内部に光電変換部が設けられた半導体基板と、
 前記半導体基板の上に設けられ、前記光電変換部に対応する画素の光入射領域を画定する画素間遮光部と、
 前記半導体基板の前記光入射領域の上に設けられたオンチップレンズと、
を備え、
 前記オンチップレンズの少なくとも前記画素の対角方向の縁端部は、前記光入射領域の上に落ち込んでいる、光検出器。
(2)
 前記オンチップレンズの前記画素の対辺方向の前記縁端部は、前記画素間遮光部の上に落ち込んでいる、前記(1)に記載の光検出器。
(3)
 前記オンチップレンズの前記画素の対辺方向の前記縁端部は、前記光入射領域の上に落ち込んでいる、前記(1)に記載の光検出器。
(4)
 前記オンチップレンズの前記縁端部が前記光入射領域の上に落ち込んだ前記画素は、複数の前記画素を行列状に平面配列した画素アレイの少なくとも周辺部に設けられる、前記(1)~(3)のいずれか一項に記載の光検出器。
(5)
 前記光入射領域には、前記半導体基板の表面に凹凸形状がアレイ状に配列された凹凸形状部が設けられる、前記(1)~(4)のいずれか一項に記載の光検出器。
(6)
 前記凹凸形状は、四角錐の凹形状である、前記(5)に記載の光検出器。
(7)
 前記オンチップレンズの少なくとも前記対角方向の前記縁端部は、前記凹凸形状部の上に落ち込んでいる、前記(5)又は(6)に記載の光検出器。
(8)
 前記オンチップレンズの少なくとも前記対角方向の前記縁端部は、前記凹凸形状部の外の前記光入射領域の上に落ち込んでいる、前記(5)又は(6)に記載の光検出器。
(9)
 前記オンチップレンズの前記縁端部が前記凹凸形状部の上に落ち込んだ前記画素は、複数の前記画素を行列状に平面配列した画素アレイの周辺部に設けられ、
 前記オンチップレンズの前記縁端部が前記凹凸形状部の外の前記光入射領域の上に落ち込んだ前記画素は、前記画素アレイの中央部に設けられる、前記(5)又は(6)に記載の光検出器。
(10)
 前記光電変換部は、赤外線を光電変換する、前記(1)~(9)のいずれか一項に記載の光検出器。
(11)
 前記光電変換部は、シングルフォトンアバランシェダイオードである、前記(1)~(10)のいずれか一項に記載の光検出器。
(12)
 光検出器と、前記光検出器からの出力を信号処理する処理回路とを備え、
 前記光検出器は、
 内部に光電変換部が設けられた半導体基板と、
 前記半導体基板の上に設けられ、前記光電変換部に対応する画素の光入射領域を画定する画素間遮光部と、
 前記半導体基板の前記光入射領域の上に設けられたオンチップレンズと、
を備え、
 前記オンチップレンズの少なくとも前記画素の対角方向の縁端部は、前記光入射領域の上に落ち込んでいる、光検出装置。
 2    光電変換部
 10   半導体基板
 10A  光入射面
 10B  表面
 11   ウェル層
 12   ピニング層
 13   アノード
 14   p型半導体領域
 15   n型半導体領域
 16   カソード
 24   絶縁膜
 25A  コンタクト層
 25B  第1配線
 25C  第1接続層
 25D  第2配線
 25E  第2接続層
 25F  第3配線
 26   配線層
 30   画素分離溝
 33   画素間遮光部
 34   オンチップレンズ
 34A  縁端部
 35   反射防止膜
 35A  第1反射防止膜
 35B  第2反射防止膜
 35C  第3反射防止膜
 36   凹凸形状部
 Ctr  中央部
 Ed   周辺部
 MR   増倍領域
 P    画素
 PA   画素アレイ
 RS   光入射領域
 TI   画素分離膜
 V    空隙

Claims (12)

  1.  内部に光電変換部が設けられた半導体基板と、
     前記半導体基板の上に設けられ、前記光電変換部に対応する画素の光入射領域を画定する画素間遮光部と、
     前記半導体基板の前記光入射領域の上に設けられたオンチップレンズと、
    を備え、
     前記オンチップレンズの少なくとも前記画素の対角方向の縁端部は、前記光入射領域の上に落ち込んでいる、光検出器。
  2.  前記オンチップレンズの前記画素の対辺方向の前記縁端部は、前記画素間遮光部の上に落ち込んでいる、請求項1に記載の光検出器。
  3.  前記オンチップレンズの前記画素の対辺方向の前記縁端部は、前記光入射領域の上に落ち込んでいる、請求項1に記載の光検出器。
  4.  前記オンチップレンズの前記縁端部が前記光入射領域の上に落ち込んだ前記画素は、複数の前記画素を行列状に平面配列した画素アレイの少なくとも周辺部に設けられる、請求項1に記載の光検出器。
  5.  前記光入射領域には、前記半導体基板の表面に凹凸形状がアレイ状に配列された凹凸形状部が設けられる、請求項1に記載の光検出器。
  6.  前記凹凸形状は、四角錐の凹形状である、請求項5に記載の光検出器。
  7.  前記オンチップレンズの少なくとも前記対角方向の前記縁端部は、前記凹凸形状部の上に落ち込んでいる、請求項5に記載の光検出器。
  8.  前記オンチップレンズの少なくとも前記対角方向の前記縁端部は、前記凹凸形状部の外の前記光入射領域の上に落ち込んでいる、請求項5に記載の光検出器。
  9.  前記オンチップレンズの前記縁端部が前記凹凸形状部の上に落ち込んだ前記画素は、複数の前記画素を行列状に平面配列した画素アレイの周辺部に設けられ、
     前記オンチップレンズの前記縁端部が前記凹凸形状部の外の前記光入射領域の上に落ち込んだ前記画素は、前記画素アレイの中央部に設けられる、請求項5に記載の光検出器。
  10.  前記光電変換部は、赤外線を光電変換する、請求項1に記載の光検出器。
  11.  前記光電変換部は、シングルフォトンアバランシェダイオードである、請求項1に記載の光検出器。
  12.  光検出器と、前記光検出器からの出力を信号処理する処理回路とを備え、
     前記光検出器は、
     内部に光電変換部が設けられた半導体基板と、
     前記半導体基板の上に設けられ、前記光電変換部に対応する画素の光入射領域を画定する画素間遮光部と、
     前記半導体基板の前記光入射領域の上に設けられたオンチップレンズと、
    を備え、
     前記オンチップレンズの少なくとも前記画素の対角方向の縁端部は、前記光入射領域の上に落ち込んでいる、光検出装置。
PCT/JP2023/015347 2022-06-09 2023-04-17 光検出器、及び光検出装置 WO2023238513A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-093915 2022-06-09
JP2022093915 2022-06-09

Publications (1)

Publication Number Publication Date
WO2023238513A1 true WO2023238513A1 (ja) 2023-12-14

Family

ID=89118011

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/015347 WO2023238513A1 (ja) 2022-06-09 2023-04-17 光検出器、及び光検出装置

Country Status (1)

Country Link
WO (1) WO2023238513A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114728A (ja) * 2017-12-26 2019-07-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、距離計測装置、及び製造方法
WO2020175195A1 (ja) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
JP2020162100A (ja) * 2019-03-28 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 受光装置および測距モジュール
JP2020174158A (ja) * 2019-04-12 2020-10-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114728A (ja) * 2017-12-26 2019-07-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、距離計測装置、及び製造方法
WO2020175195A1 (ja) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
JP2020162100A (ja) * 2019-03-28 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 受光装置および測距モジュール
JP2020174158A (ja) * 2019-04-12 2020-10-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Similar Documents

Publication Publication Date Title
WO2019131122A1 (ja) 固体撮像装置、距離計測装置、及び製造方法
KR102663338B1 (ko) 촬상 소자 및 촬상 장치
JP7454549B2 (ja) センサチップ、電子機器、及び測距装置
JP7445397B2 (ja) 受光素子および電子機器
US20220181374A1 (en) Sensor chip and electronic apparatus
CN111052404B (zh) 雪崩光电二极管传感器和电子装置
WO2022158288A1 (ja) 光検出装置
CN114667607A (zh) 光接收元件和测距模块
WO2023238513A1 (ja) 光検出器、及び光検出装置
WO2020202888A1 (ja) センサチップおよび測距装置
CN116438805A (zh) 光接收元件和测距系统
WO2024075409A1 (en) Photodetection device
WO2023286403A1 (ja) 光検出装置および測距システム
JPWO2019087527A1 (ja) 固体撮像装置及び電子機器
WO2022269982A1 (ja) 受光素子
US20240072080A1 (en) Light detection device and distance measurement apparatus
WO2022244384A1 (ja) 光検出装置および測距装置
WO2023058556A1 (ja) 光検出装置及び電子機器
WO2024128103A1 (en) Light sensing device
WO2021100314A1 (ja) 固体撮像装置及び測距システム
WO2023189130A1 (ja) 光検出装置及び電子機器
WO2023127110A1 (ja) 光検出装置及び電子機器
WO2024048267A1 (ja) 光検出装置および測距装置
WO2023090277A1 (ja) 半導体装置及び光検出装置
US20230228875A1 (en) Solid-state imaging element, sensing system, and control method of solid-state imaging element

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23819500

Country of ref document: EP

Kind code of ref document: A1