WO2021100528A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2021100528A1
WO2021100528A1 PCT/JP2020/041789 JP2020041789W WO2021100528A1 WO 2021100528 A1 WO2021100528 A1 WO 2021100528A1 JP 2020041789 W JP2020041789 W JP 2020041789W WO 2021100528 A1 WO2021100528 A1 WO 2021100528A1
Authority
WO
WIPO (PCT)
Prior art keywords
contact
trench
region
semiconductor region
image sensor
Prior art date
Application number
PCT/JP2020/041789
Other languages
English (en)
French (fr)
Inventor
靖久 栃木
雄基 川原
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202080074083.2A priority Critical patent/CN114616670A/zh
Priority to JP2021558304A priority patent/JPWO2021100528A1/ja
Priority to US17/775,843 priority patent/US20220392944A1/en
Publication of WO2021100528A1 publication Critical patent/WO2021100528A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/0248Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof characterised by their semiconductor bodies
    • H01L31/0352Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof characterised by their semiconductor bodies characterised by their shape or by the shapes, relative sizes or disposition of the semiconductor regions
    • H01L31/035272Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof characterised by their semiconductor bodies characterised by their shape or by the shapes, relative sizes or disposition of the semiconductor regions characterised by at least one potential jump barrier or surface barrier
    • H01L31/035281Shape of the body
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier
    • H01L31/107Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier the potential barrier working in avalanche mode, e.g. avalanche photodiodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier
    • H01L31/107Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier the potential barrier working in avalanche mode, e.g. avalanche photodiodes
    • H01L31/1075Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier the potential barrier working in avalanche mode, e.g. avalanche photodiodes in which the active layers, e.g. absorption or multiplication layers, form an heterostructure, e.g. SAM structure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers

Definitions

  • This disclosure relates to a solid-state image sensor and an electronic device.
  • SPAD Single Photon Avalanche Diode
  • SPAD Single Photon Avalanche Diode
  • avalanche multiplication also called avalanche amplification
  • electrons accelerated by an electric field in the impurity diffusion region of a PN junction collide with a lattice atom and break the bond, and the newly generated electron collides with another lattice atom and the bond is formed. It is a phenomenon in which the current is multiplied by repeating cutting the child.
  • Such a SPAD is a distance measuring device that measures the distance from the time until the light emitted from the light emitting unit is reflected by the object and returned to the object, or a solid-state image sensor that converts the amount of incident light into an electric signal. It can be applied to such as.
  • the solid-state imaging device has a first trench provided on the first surface and a second trench provided along the bottom of the first trench.
  • a semiconductor substrate including the semiconductor substrate and a photoelectric conversion element provided on the semiconductor substrate are provided, and the photoelectric conversion element is provided in an element region defined by the first trench and the second trench in the semiconductor substrate.
  • a photoelectric conversion region that photoelectrically converts incident light to generate a charge a first semiconductor region that surrounds the photoelectric conversion region in the element region, and a first contact that contacts the first semiconductor region at the bottom of the first trench.
  • the first contact includes a third semiconductor region including a conductive type, a second contact provided on the first surface so as to be in contact with the third semiconductor region, and a second electrode in contact with the second contact. The second surface in contact with the first electrode is inclined with respect to the first surface.
  • connection wiring with respect to the anode which concerns on 1st Embodiment It is a figure which shows an example of the connection wiring with respect to the anode which concerns on 5th modification of 1st Embodiment. It is a figure which shows another example of the connection wiring with respect to the anode which concerns on 5th modification of 1st Embodiment. It is a figure which shows still another example of the connection wiring with respect to the anode which concerns on 5th modification of 1st Embodiment.
  • 6 is a vertical cross-sectional view showing an example of a cross-sectional structure of a surface perpendicular to the light incident surface of the SPAD pixel according to the sixth embodiment. It is a vertical cross-sectional view which shows the example of the cross-sectional structure of the plane perpendicular to the light incident plane of the SPAD pixel which concerns on 7th Embodiment.
  • FIG. 1 is a block diagram showing a schematic configuration example of an electronic device equipped with the solid-state image sensor according to the first embodiment.
  • the electronic device 1 includes, for example, an image pickup lens 30, a solid-state image pickup device 10, a storage unit 40, and a processor 50.
  • the image pickup lens 30 is an example of an optical system that collects incident light and forms an image on the light receiving surface of the solid-state image sensor 10.
  • the light receiving surface may be a surface on which the photoelectric conversion elements in the solid-state image sensor 10 are arranged.
  • the solid-state image sensor 10 photoelectrically converts the incident light to generate image data. Further, the solid-state image sensor 10 executes predetermined signal processing such as noise removal and white balance adjustment on the generated image data.
  • the storage unit 40 is composed of, for example, a flash memory, a DRAM (Dynamic Random Access Memory), a SRAM (Static Random Access Memory), or the like, and records image data or the like input from the solid-state imaging device 10.
  • the processor 50 may include, for example, an application processor that is configured by using a CPU (Central Processing Unit) or the like and executes an operating system, various application software, or the like, a GPU (Graphics Processing Unit), a baseband processor, or the like.
  • the processor 50 executes various processes as necessary for the image data input from the solid-state image sensor 10 and the image data read from the storage unit 40, executes display to the user, and performs a predetermined network. It is sent to the outside via.
  • FIG. 2 is a block diagram showing a schematic configuration example of a CMOS (Complementary Metal-Oxide-Semiconductor) type solid-state image sensor (hereinafter, simply referred to as an image sensor) according to the first embodiment.
  • CMOS Complementary Metal-Oxide-Semiconductor
  • the CMOS type image sensor is an image sensor created by applying or partially using a CMOS process.
  • the so-called back-illuminated image sensor 10 in which the surface of the semiconductor substrate opposite to the element-forming surface is the light-incident surface is exemplified, but the device-forming surface is not limited to the back-illuminated type. It is also possible to use a so-called surface irradiation type in which is a light incident surface.
  • the image sensor 10 includes a SPAD array unit 11, a timing control circuit 15, a drive circuit 12, and an output circuit 13.
  • the SPAD array unit 11 includes a plurality of SPAD pixels 20 arranged in a matrix.
  • a pixel drive line LD vertical direction in the drawing
  • an output signal line LS horizontal direction in the drawing
  • One end of the pixel drive line LD is connected to the output end corresponding to each column of the drive circuit 12, and one end of the output signal line LS is connected to the input end corresponding to each line of the output circuit 13.
  • the drive circuit 12 includes a shift register, an address decoder, and the like, and drives each SPAD pixel 20 of the SPAD array unit 11 at the same time for all pixels, in column units, or the like. Therefore, the drive circuit 12 is at least a circuit that applies a quench voltage V_QCH described later to each SPAD pixel 20 in the selection row in the SPAD array unit 11, and a selection control voltage V_SEL described later to each SPAD pixel 20 in the selection row. Includes a circuit to apply. Then, the drive circuit 12 applies the selection control voltage V_SEL to the pixel drive line LD corresponding to the row to be read, thereby selecting the SPAD pixels 20 used for detecting the incident of photons on a row-by-row basis.
  • the signal (referred to as a detection signal) V_OUT output from each SPAD pixel 20 in the row selected and scanned by the drive circuit 12 is input to the output circuit 13 through each of the output signal lines LS.
  • the output circuit 13 outputs the detection signal V_OUT input from each SPAD pixel 20 as a pixel signal to the external storage unit 40 or the processor 50.
  • the timing control circuit 15 includes a timing generator and the like that generate various timing signals, and controls the drive circuit 12 and the output circuit 13 based on the various timing signals generated by the timing generator.
  • FIG. 3 is a circuit diagram showing a schematic configuration example of a SPAD pixel according to the first embodiment.
  • the SPAD pixel 20 includes a photodiode 21 as a light receiving element and a readout circuit 22 for detecting that a photon is incident on the photodiode 21.
  • the photodiode 21 generates an avalanche current when photons are incident in a state where a reverse bias voltage V_SPAD equal to or higher than the breakdown voltage (breakdown voltage) is applied between the anode and the cathode.
  • V_SPAD reverse bias voltage
  • the readout circuit 22 includes a quench resistor 23, a digital converter 25, an inverter 26, a buffer 27, and a selection transistor 24.
  • the quench resistor 23 is composed of, for example, an N-type MOSFET (Metal Oxide Semiconductor Field Effect Transistor, hereinafter referred to as an NMOS transistor), its drain is connected to the anode of the photodiode 21, and its source is via the selection transistor 24. It is grounded. Further, a preset quench voltage V_QCH for allowing the NMOS transistor to act as a quench resistor is applied to the gate of the NMOS transistor constituting the quench resistor 23 from the drive circuit 12 via the pixel drive line LD. ..
  • the photodiode 21 is SPAD.
  • the SPAD is an avalanche photodiode that operates in Geiger mode when a reverse bias voltage equal to or higher than the breakdown voltage (breakdown voltage) is applied between its anode and cathode, and can detect the incident of one photon.
  • the digital converter 25 includes a resistor 251 and an NMOS transistor 252.
  • the drain of the NMOS transistor 252 is connected to the power supply voltage VDD via the resistor 251 and its source is grounded. Further, the voltage at the connection point N1 between the anode of the photodiode 21 and the quench resistor 23 is applied to the gate of the NMOS transistor 252.
  • the inverter 26 includes a P-type MOSFET (hereinafter referred to as a MPa transistor) 261 and an NMOS transistor 262.
  • the drain of the NMOS transistor 261 is connected to the power supply voltage VDD, and the source of the epitaxial transistor 261 is connected to the drain of the NMOS transistor 262.
  • the drain of the NMOS transistor 262 is connected to the source of the NMOS transistor 261, and the source is grounded.
  • a voltage at the connection point N2 between the resistor 251 and the drain of the NMOS transistor 252 is applied to the gate of the MOSFET transistor 261 and the gate of the NMOS transistor 262, respectively.
  • the output of the inverter 26 is input to the buffer 27.
  • the buffer 27 is a circuit for impedance conversion, and when an output signal is input from the inverter 26, the input output signal is impedance-converted and output as a detection signal V_OUT.
  • the selection transistor 24 is, for example, an NMOS transistor, and its drain is connected to the source of the NMOS transistor constituting the quench resistor 23, and the source is grounded.
  • the selection transistor 24 is connected to the drive circuit 12, and when the selection control voltage V_SEL from the drive circuit 12 is applied to the gate of the selection transistor 24 via the pixel drive line LD, the selection transistor 24 changes from an off state to an on state. ..
  • the readout circuit 22 illustrated in FIG. 3 operates as follows, for example. That is, first, during the period in which the selective control voltage V_SEL is applied from the drive circuit 12 to the selective transistor 24 and the selective transistor 24 is in the ON state, the photodiode 21 has a reverse bias voltage V_SPAD equal to or higher than the breakdown voltage (breakdown voltage). Is applied. As a result, the operation of the photodiode 21 is permitted.
  • the NMOS transistor 261 changes from the off state to the on state
  • the NMOS transistor 262 changes from the on state to the off state
  • the voltage at the connection point N3 changes to 0V. Changes from to the power supply voltage VDD.
  • the high level detection signal V_OUT is output from the buffer 27.
  • the avalanche current is generated when the photon is incident on the photodiode 21, and the avalanche current is stopped and the NMOS transistor 252 is turned off from the timing when the NMOS transistor 252 is turned on.
  • a high-level detection signal V_OUT is output until the timing becomes.
  • the output detection signal V_OUT is input to the output circuit 13.
  • FIG. 4 is a diagram showing a layout example of the color filter according to the first embodiment.
  • the color filter array 60 includes, for example, a configuration in which patterns (hereinafter referred to as unit patterns) 61, which are units of repetition in a color filter array, are arranged in a two-dimensional lattice pattern.
  • Each unit pattern 61 includes, for example, a color filter 115R that selectively transmits light having a wavelength component of red (R), and two color filters 115G that selectively transmit light having a wavelength component of green (G). It has a so-called Bayer array configuration, which is composed of a total of four color filters including a color filter 115B that selectively transmits light having a wavelength component of blue (B).
  • the color filter array 60 is not limited to the Bayer array.
  • It is possible to adopt various color filter arrangements such as a 4 ⁇ 4 pixel white RGB type color filter arrangement including a color filter having various light transmission characteristics (hereinafter, also referred to as clear or white).
  • FIG. 5 is a diagram showing an example of a stacked structure of an image sensor according to the first embodiment.
  • the image sensor 10 has a structure in which a light receiving chip 71 and a circuit chip 72 are stacked one above the other.
  • the light receiving chip 71 is, for example, a semiconductor chip including a SPAD array unit 11 in which the photodiode 21 is arranged
  • the circuit chip 72 is, for example, a semiconductor chip in which the readout circuit 22 shown in FIG. 3 is arranged.
  • Peripheral circuits such as a timing control circuit 15, a drive circuit 12, and an output circuit 13 may be arranged on the circuit chip 72.
  • the bonding between the light receiving chip 71 and the circuit chip 72 for example, so-called direct bonding, in which the respective bonding surfaces are flattened and the two are bonded by intermolecular force, can be used.
  • the present invention is not limited to this, and for example, so-called Cu-Cu bonding in which copper (Cu) electrode pads formed on the bonding surfaces of each other are bonded to each other, or other bump bonding or the like can be used. ..
  • the light receiving chip 71 and the circuit chip 72 are electrically connected via, for example, a connecting portion such as a TSV (Through-Silicon Via) penetrating the semiconductor substrate.
  • a connecting portion such as a TSV (Through-Silicon Via) penetrating the semiconductor substrate.
  • TSVs for example, a so-called twin TSV method in which two TSVs, a TSV provided on the light receiving chip 71 and a TSV provided from the light receiving chip 71 to the circuit chip 72, are connected on the outer surface of the chip, or a light receiving light
  • a so-called shared TSV method or the like in which both are connected by a TSV penetrating from the chip 71 to the circuit chip 72 can be adopted.
  • FIG. 6 is a vertical cross-sectional view showing an example of a cross-sectional structure of a surface perpendicular to the light incident surface of the SPAD pixel according to the first embodiment.
  • FIG. 7 is a horizontal cross-sectional view showing an example of the cross-sectional structure of the AA plane in FIG. Note that FIG. 6 focuses on the cross-sectional structure of the photodiode 21.
  • the photodiode 21 of the SPAD pixel 20 is provided on, for example, the semiconductor substrate 101 constituting the light receiving chip 71.
  • the semiconductor substrate 101 is divided into a plurality of element regions by, for example, a lattice-shaped element separating portion 110 as seen from the light incident surface (see, for example, FIG. 7).
  • the photodiode 21 is provided in each element region partitioned by the element separation unit 110.
  • the element separation unit 110 may include an anode electrode 122 and an insulating film 109 in the first trench, which will be described later.
  • Each photodiode 21 includes a photoelectric conversion region 102, a P-type semiconductor region 104, an N-type semiconductor region 103, a P + type semiconductor region 105, an N + type semiconductor region 106, a cathode contact 107, and an anode contact 108. To be equipped.
  • the photoelectric conversion region 102 is, for example, an N-type well region or a region containing a donor having a low concentration, and photoelectrically converts incident light to generate electron-hole pairs (hereinafter referred to as electric charges).
  • the P-type semiconductor region 104 is, for example, a region including a P-type acceptor, and is provided in a region surrounding the photoelectric conversion region 102 as shown in FIGS. 6 and 7.
  • the P-type semiconductor region 104 forms an electric field for guiding the electric charge generated in the photoelectric conversion region 102 to the N-type semiconductor region 103 by applying the reverse bias voltage V_SPAD to the anode contact 108 described later.
  • the N-type semiconductor region 103 is, for example, a region containing a donor having a higher concentration than the photoelectric conversion region 102. As shown in FIGS. 6 and 7, the N-type semiconductor region 103 is arranged in the central portion of the photoelectric conversion region 102, and takes in the electric charge generated in the photoelectric conversion region 102 and guides it to the P + type semiconductor region 105.
  • the N-type semiconductor region 103 is not an essential configuration and may be omitted.
  • the P + type semiconductor region 105 is, for example, a region containing an acceptor having a higher concentration than the P-type semiconductor region 104, and a part of the region is in contact with the P-type semiconductor region 104.
  • the N + type semiconductor region 106 is, for example, a region containing a donor having a higher concentration than the N ⁇ type semiconductor region 103, and is in contact with the P + type semiconductor region 105.
  • the P + type semiconductor region 105 and the N + type semiconductor region 106 form a PN junction and function as an amplification region for accelerating the inflowing electric charge to generate an avalanche current.
  • the cathode contact 107 is, for example, a region containing a donor having a higher concentration than the N + type semiconductor region 106, and is provided in a region in contact with the N + type semiconductor region 106.
  • the anode contact 108 is, for example, a region containing an acceptor having a higher concentration than the P + type semiconductor region 105.
  • the anode contact 108 is provided in a region in contact with the outer circumference of the P-type semiconductor region 104.
  • the width of the anode contact 108 may be, for example, about 40 nm (nanometers).
  • the anode contact 108 is a trench provided in a grid pattern on the surface (lower surface in the drawing) side of the semiconductor substrate 101 along the element separation portion 110 (hereinafter referred to as a thirth). It is provided on the bottom surface of (1 trench). Due to such a structure, as will be described later, the forming position of the anode contact 108 is shifted in the height direction with respect to the forming position of the cathode contact 107 and the N + type semiconductor region 106.
  • the surface (lower surface in the drawing) side of the semiconductor substrate 101 is covered with the insulating film 109.
  • the film thickness (thickness in the substrate width direction) of the insulating film 109 in the first trench depends on the voltage value of the reverse bias voltage V_SPAD applied between the anode and the cathode, but may be, for example, about 150 nm.
  • the insulating film 109 is provided with openings for exposing the cathode contact 107 and the anode contact 108 on the surface of the semiconductor substrate 101, and the respective openings are provided with the cathode electrode 121 in contact with the cathode contact 107 and the anode in contact with the anode contact 108.
  • the electrode 122 is provided.
  • the element separation portion 110 for partitioning each photodiode 21 is provided in a trench (hereinafter, referred to as a second trench) that penetrates the semiconductor substrate 101 from the front surface to the back surface.
  • the second trench is connected to the first trench on the surface side of the semiconductor substrate 101.
  • the inner diameter of the second trench is narrower than the inner diameter of the first trench, and the anode contact 108 is formed in the stepped portion formed by the inner diameter.
  • Each element separation unit 110 includes an insulating film 112 that covers the inner surface of the second trench and a light-shielding film 111 that fills the inside of the second trench.
  • the film thickness (thickness in the substrate width direction) of the insulating film 112 depends on the voltage value of the reverse bias voltage V_SPAD applied between the anode and the cathode, but may be, for example, about 10 nm to 20 nm.
  • the film thickness of the light-shielding film 111 (thickness in the width direction of the substrate) depends on the material used for the light-shielding film 111, but may be, for example, about 150 nm.
  • the light-shielding film 111 and the anode electrode 122 can be formed in the same process. Further, by using the same conductive material as the light-shielding film 111 and the anode electrode 122 for the cathode electrode 121, the light-shielding film 111, the anode electrode 122, and the cathode electrode 121 can be formed in the same process.
  • Tungsten (W) or the like can be used as the conductive material having such a light-shielding property.
  • W tungsten
  • various changes are made as long as it is a conductive material having the property of reflecting or absorbing visible light or light required for each element, such as aluminum (Al), aluminum alloy, and copper (Cu). May be done.
  • the light-shielding film 111 in the second trench is not limited to the conductive material, and for example, a high-refractive index material having a higher refractive index than the semiconductor substrate 101 or a low-refractive index having a lower refractive index than the semiconductor substrate 101. It is also possible to use a refractive index material or the like.
  • a conductive material such as copper (Cu) may be used instead of the conductive material having the light-shielding property.
  • FFTI Front Full Trench Isolation
  • DTI Deep Trench Isolation
  • RDTI Reverse
  • the material of the light-shielding film 111 may be embedded in the second trench from the back surface side of the semiconductor substrate 101.
  • the upper portions of the cathode electrode 121 and the anode electrode 122 project to the surface (lower surface in the drawing) of the insulating film 109.
  • a wiring layer 120 is provided on the surface (lower surface in the drawing) of the insulating film 109.
  • the wiring layer 120 includes an interlayer insulating film 123 and wiring 124 provided in the interlayer insulating film 123.
  • the wiring 124 is in contact with, for example, the cathode electrode 121 projecting from the surface (lower surface in the drawing) of the insulating film 109. Although omitted in FIG. 6, the wiring layer 120 is also provided with wiring that comes into contact with the anode electrode 122.
  • connection pad 125 is exposed on the surface (lower surface in the drawing) of the wiring layer 120.
  • the connection pad 125 may be a part of the wiring 124.
  • the wiring 124 is also made of copper (Cu).
  • the wiring layer 130 in the circuit chip 72 is joined to the surface of the wiring layer 120.
  • the wiring layer 130 includes an interlayer insulating film 131 and wiring 132 provided in the interlayer insulating film 131.
  • the wiring 132 is electrically connected to a circuit element 142 such as a readout circuit 22 formed on the semiconductor substrate 141. Therefore, the cathode electrode 121 of the semiconductor substrate 101 is connected to the readout circuit 22 shown in FIG. 3 via the wiring 124, the connection pads 125 and 135, and the wiring 132.
  • a copper (Cu) connection pad 135 is exposed on the surface (upper surface in the drawing) of the wiring layer 130.
  • Cu-Cu bonding By joining the connection pad 135 to the connection pad 125 exposed on the surface of the wiring layer 120 of the light receiving chip 71 (Cu-Cu bonding), the light receiving chip 71 and the circuit chip 72 are electrically and mechanically connected. Will be done.
  • connection pad 135 may be a part of the wiring 132.
  • the wiring 132 is also made of copper (Cu).
  • a pinning layer 113 and a flattening film 114 are provided on the back surface (upper surface in the drawing) of the semiconductor substrate 101. Further, a color filter 115 and an on-chip lens 116 for each SPAD pixel 20 are provided on the flattening film 114.
  • the pinning layer 113 is, for example, a fixed charge film composed of a hafnium oxide (HfO 2 ) film or an aluminum oxide (Al 2 O 3) film containing an acceptor having a predetermined concentration.
  • the flattening film 114 is an insulating film made of an insulating material such as silicon oxide (SiO 2 ) or silicon nitride (SiN), and flattens the surface on which the upper color filter 115 and the on-chip lens 116 are formed. It is a film for forming.
  • the anode contact 108 is arranged at the bottom of the first trench formed on the surface side of the semiconductor substrate 101.
  • the anode contact 108 is arranged at a position deeper than the cathode contact 107 and the N + type semiconductor region 106 from the surface (lower surface in the drawing) of the semiconductor substrate 101. That is, in the present embodiment, when the surface (lower surface in the drawing) of the semiconductor substrate 101 is used as a reference, the forming position of the anode contact 108 is higher than the forming position of the cathode contact 107 and the N + type semiconductor region 106. It is off in the direction.
  • the height of the anode contact 108 from the surface of the semiconductor substrate 101 is different from the height of the N + type semiconductor region 106 from the surface of the semiconductor substrate 101.
  • the height of the anode contact 108 from the surface of the semiconductor substrate 101 is higher than the height of the N + type semiconductor region 106 from the surface of the semiconductor substrate 101.
  • the size of the SPAD pixel 20 in the lateral direction (direction parallel to the incident surface). It is possible to increase the distance from the anode contact 108 to the cathode contact 107 and / or the N + type semiconductor region 106 without increasing the size.
  • FIGS. 8 to 20 are process cross-sectional views showing a method of manufacturing the solid-state image sensor according to the first embodiment.
  • the photoelectric conversion region 102 is partitioned by appropriately ion-injecting donors and acceptors into a predetermined region of the semiconductor substrate 101 containing a donor having a low concentration as a whole.
  • a part of the type semiconductor region 104 (P-type semiconductor region 104a), an N-type semiconductor region 103, a P + type semiconductor region 105, and an N + type semiconductor region 106 are formed.
  • the ion implantation may be performed from the surface (upper surface in the drawing) of the semiconductor substrate 101, for example. Further, after the ion implantation, annealing for damage recovery at the time of ion implantation and improvement of the profile of the implanted dopant may be performed once or in a plurality of times.
  • a mask M1 having a grid-like opening A1 is formed on the surface of the semiconductor substrate 101, and the semiconductor substrate 101 is placed on the mask M1 with anisotropy such as RIE (Reactive Ion Etching).
  • anisotropy such as RIE (Reactive Ion Etching).
  • RIE Reactive Ion Etching
  • a grid-like first trench T1 is formed along the boundary portion of the adjacent SPAD pixels 20.
  • the depth of the first trench T1 may be such that the bottom surface thereof is located at least at a level deeper than the lower surface of the P-type semiconductor region 105 and reaches the P-type semiconductor region 104a.
  • the depth of the first trench T1 may be set deep within a range in which process accuracy higher than necessary can be ensured.
  • the surface of the semiconductor substrate 101 and the inside of the first trench T1 are used.
  • An insulating film 109A covering the surface is formed.
  • an insulating material such as silicon oxide (SiO 2 ), silicon nitride (SiN), silicon carbide (SiC), or aluminum oxide (Al 2 O 3) can be used. Further, the insulating film 109A may have a single-layer structure or a laminated structure.
  • the material of the insulating film 109A is silicon oxide ( It is preferable to use an insulating material having high withstand voltage performance such as SiO 2).
  • the semiconductor substrate 101 reaches from the front surface side to the vicinity of the back surface.
  • 2 Trench T2 is formed.
  • anisotropic dry etching that can obtain a sufficiently high selectivity with respect to the semiconductor substrate 101 can be used. Thereby, it is possible to etch the lattice-shaped region in which the element separation portion 110 is formed in the semiconductor substrate 101 while using the insulating film 109A formed on the inner side surface of the first trench T1 and the upper surface of the semiconductor substrate 101 as a mask. It becomes.
  • the insulating film 109A in the first trench T1 is thinned by isotropic etching such as wet etching, so that the outer periphery of the P-type semiconductor region 104a is formed on the bottom of the first trench T1. Expose the part. At that time, the insulating film 109A on the surface of the semiconductor substrate 101 may be thinned.
  • a mask M2 having an opening A2 above the N + type semiconductor region 106 is formed on the insulating film 109A, and the insulating film 109A is anisotropy such as RIE from above the mask M2.
  • RIE etching by dry etching, an opening A3 that exposes a part of the upper surface of the semiconductor substrate 101 is formed.
  • the inner side surface and the bottom surface of the opening A3 and the first trench T1 are formed on the insulating film 109A.
  • the insulating film 109B covering the inner surface of the second trench T2 is formed isotropically.
  • the insulating film 109A and the insulating film 109B are collectively referred to as the insulating film 109.
  • the trench formed by the surface of the insulating film 109B in the opening A3 is referred to as a trench T4
  • the trench formed by the surface of the insulating film 109B in the trench T3 is referred to as a trench T5.
  • the insulating film 109B may be omitted.
  • the details will be described in the first modification described later, but in addition to the anode contact 108, the anode electrode 122 and the P-type semiconductor region 104a are brought into contact with each other in the second trench T2. Therefore, it is possible to realize a contact with low resistance.
  • the insulating film 109B when the insulating film 109B is formed, it is possible to reduce the damage to the semiconductor substrate 101 due to ion implantation at the time of contact formation, which will be described later.
  • a mask M3 covering the trench T4 located above the N + type semiconductor region 106 is formed, and acceptors are ion-implanted at a high concentration from above the mask M3 and the insulating film 109.
  • the mask M3 and the insulating film 109 function as masks, so that the bottom portion of the trench T5, which is a region where the thickness of the insulating film 109 is thin, in other words, the upper outer periphery of the P-type semiconductor region 104 (see, for example, FIG. ), An anode contact 108 containing a high concentration of acceptors is formed.
  • a mask M4 covering the trench T5 formed in a grid pattern is formed, and the donor is concentrated on the mask M4 and the insulating film 109. Ion implantation.
  • the bottom of the trench T4 which is a region where the film thickness of the insulating film 109 is thin, in other words, the semiconductor substrate 101 located on the N + type semiconductor region 106.
  • a cathode contact 107 containing a high concentration of donor is formed.
  • the formation of the anode contact 108 and the cathode contact 107 is not limited to the ion implantation method, and various methods such as solid phase diffusion and plasma doping can be used.
  • the entire surface of the insulating film 109 is etched back to remove the insulating film 109 at the bottom of the trench T4 and expose the cathode contact 107.
  • the insulating film 109 at the bottom of the trench T5 is removed to expose the anode contact 108.
  • the details will be described in the second modification described later, but by forming a mask having a predetermined opening pattern by using photolithography or the like, the insulating film 109 is removed and the anode contact 108 is formed.
  • the exposed area may be limited.
  • the insulating film 109 When the insulating film 109 is completely etched back, it is possible to secure a contact area between the anode contact 108 and the anode electrode 122, so that a low resistance contact can be formed. Further, since the anode contact 108 and the anode electrode 122 can be brought into contact with each other so as to surround the outer circumference of the P-type semiconductor region 104a, a uniform electric field can be formed in the photoelectric conversion region 102.
  • the contact portion between the anode contact 108 and the anode electrode 122 can be controlled, so that the distribution of the electric field formed in the photoelectric conversion region 102 is controlled. Etc. are possible.
  • the insulating film 109 remaining in the second trench T2 after the insulating film 109 is thinned is used as the insulating film 112 of the element separating portion 110.
  • a titanium (Ti) / titanium nitride (TiN) film is formed on the exposed surfaces of the cathode contact 107 and the anode contact 108, and annealing is performed at about 500 ° C. to 800 ° C. in that state.
  • silicon (Si) and titanium (Ti) react with each other on the exposed surfaces of the cathode contact 107 and the anode contact 108 to form a titanium silicide layer.
  • the contact between the cathode contact 107 and the cathode electrode 121 and the contact between the anode contact 108 and the anode electrode 122 are ohmic contact. Therefore, it is possible to reduce the resistance of those connections. As a result, the contact area between the anode contact 108 and the anode electrode 122 can be reduced, so that the pixel size can be reduced and the resolution can be increased.
  • a Co / TiN film may be used instead of the Ti / TiN film. Even in that case, since the cobalt silicide layer is formed on the surfaces (contact surfaces) of the cathode contact 107 and the anode contact 108, the cathode contact 107 and the cathode electrode 121 and the anode contact 108 and the anode electrode 122 are in ohmic contact. It becomes possible to make it.
  • cathode contact 107 and the cathode electrode 121, and the anode contact 108 and the anode electrode 122 can be brought into ohmic contact by using various silicides such as nickel silicide instead of titanium silicide and cobalt silicide. is there.
  • a light-shielding film 111 is formed in the first trench T1 and a cathode electrode 121 in contact with the cathode contact 107 is formed in the trench T4. Further, an anode electrode 122 in contact with the anode contact 108 is formed in the second trench T2.
  • the materials of the light-shielding film 111, the cathode electrode 121, and the anode electrode 122 are required for visible light and each element, such as aluminum (Al), aluminum alloy, and copper (Cu), in addition to tungsten (W). It is possible to use various conductive materials having the property of reflecting or absorbing light.
  • the light-shielding film 111 When the same material is used for the light-shielding film 111, the cathode electrode 121, and the anode electrode 122, it is possible to form them all at once.
  • the light-shielding film 111 and the cathode electrode 121 and the anode electrode 122 when different materials are used for the light-shielding film 111 and the cathode electrode 121 and the anode electrode 122, the light-shielding film 111 is first formed, and then the cathode electrode 121 and the anode electrode 122 are formed by using a lift-off method or the like. To do.
  • the layer 120 is formed.
  • copper (Cu) connecting pads 125 and 127 that are exposed on the surface of the interlayer insulating film 123 are formed.
  • the second trench T2 is penetrated so that the light-shielding film 111 in the second trench T2 reaches the back surface of the semiconductor substrate 101.
  • CMP Chemical Mechanical Polishing
  • the like may be used to reduce the thickness of the semiconductor substrate 101.
  • the acceptor is ion-implanted into the entire back surface of the semiconductor substrate 101.
  • the P-type semiconductor region 104 surrounding the photoelectric conversion region 102 is completed.
  • the light receiving chip 71 in the image sensor 10 is formed by sequentially forming the pinning layer 113, the flattening film 114, the color filter 115, and the on-chip lens 116 on the back surface of the semiconductor substrate 101. Then, by laminating the separately prepared circuit chip 72 and the light receiving chip 71, an image sensor 10 having a cross-sectional structure as illustrated in FIG. 6 is manufactured.
  • the position of the anode contact 108 and the position of the cathode contact 107 and / or the N + type semiconductor region 106 are shifted in the height direction.
  • the distance from the anode contact 108 to the cathode contact 107 and / or the N + type semiconductor region 106 without increasing the size of the SPAD pixel 20 in the lateral direction (direction parallel to the incident surface). Can be lengthened.
  • FIG. 21 is a vertical sectional view showing a cross-sectional structure example of a surface perpendicular to the light incident surface of the SPAD pixel according to the first modification.
  • the second trench in the second trench T2 has a structure similar to the cross-sectional structure described with reference to FIG. 6 and the like in the first embodiment.
  • the insulating film 112 (corresponding to the insulating film 109B) in (corresponding) is omitted.
  • FIG. 22 is a horizontal cross-sectional view showing a cross-sectional structure example of a surface parallel to the light incident surface of the SPAD pixel according to the second modification. Note that FIG. 22 is a surface corresponding to FIG. 7.
  • the SPAD pixel 20b according to the second modification has a structure similar to the cross-sectional structure described with reference to FIG. 7 and the like in the first embodiment, and the forming region of the anode contact 108A is P.
  • a part of the outer periphery of the type semiconductor region 104 is restricted to contact with the P-type semiconductor region 104.
  • the forming region of the anode contact 108A is limited to the four corners of the rectangular region separated by the element separating portion 110.
  • FIG. 23 is a vertical cross-sectional view showing a cross-sectional structure example of a surface perpendicular to the light incident surface of the SPAD pixel according to the third modification.
  • the P + type semiconductor region 105A and the N + type semiconductor have the same structure as the cross-sectional structure described with reference to FIG. 6 and the like in the first embodiment.
  • the region 106A extends until it comes into contact with the insulating film 109 formed in the first trench.
  • FIG. 24 is a vertical sectional view showing an example of a cross-sectional structure of a surface perpendicular to the light incident surface of the SPAD pixel according to the fourth modified example.
  • the diameter of the first trench is expanded in the same structure as the cross-sectional structure described with reference to FIG. 6 and the like in the first embodiment.
  • the insulating film 109D in the first trench is widened to at least contact the P + type semiconductor region 105A.
  • FIG. 25 is a diagram showing an example of connection wiring to the anode according to the first embodiment. As shown in FIG. 25, in the first embodiment, the wiring 152 for applying the reverse bias voltage V_SPAD was connected to each SPAD pixel 20 anode electrode 122 on a one-to-one basis.
  • the anode electrode 122 is continuous between the plurality of SPAD pixels 20.
  • all the SPAD pixels 20 arranged in the SPAD array unit 11 are electrically connected.
  • wiring 152 is provided for every other SPAD pixel 20
  • wiring 152 is provided for every other SPAD pixel 20. It is also possible to thin out the arrangement of the wiring 152.
  • wiring 152 is provided for at least one of the SPAD pixels 20Z located on the outermost periphery of the SPAD array unit 11, and wiring 152 is provided for the other SPAD pixels 20 and 20Z. It is also possible to have a configuration in which is not provided.
  • the cathode is N-type and the anode is P-type is illustrated, but the present invention is not limited to such a combination, and the cathode is P-type and the anode is N-type. It is possible to make various deformations such as
  • the SPAD pixels 20, 20a, 20b, 20c and 20d according to the first embodiment and its modifications described above are not limited to the electronic device 1 as an imaging device for acquiring image data such as a color image, and are not limited to, for example, an object. It can also be used in an electronic device as a distance measuring device for measuring the distance to.
  • FIG. 29 is a vertical cross-sectional view showing an example of a cross-sectional structure of a surface perpendicular to the light incident surface of the SPAD pixel according to the second embodiment.
  • the SPAD pixel 220 has a structure similar to the cross-sectional structure described with reference to FIG. 6 and the like in the first embodiment, in which the color filter 115 is omitted.
  • the position of the anode contact 108 and the position of the cathode contact 107 and / or the N + type semiconductor region 106 are as in the first embodiment.
  • the distance from the anode contact 108 to the cathode contact 107 and / or the N + type semiconductor region 106 can be increased without increasing the size of the SPAD pixel 220 in the lateral direction (direction parallel to the incident surface). It can be lengthened. As a result, it is possible to suppress the occurrence of the tunnel effect without increasing the pixel size, so that it is possible to stably generate the avalanche amplification while suppressing the decrease in resolution.
  • the FFTI type element separation unit 110 in which the second trench penetrates the semiconductor substrate 101 from the front surface side to the back surface side is exemplified, but as described above, the element separation unit 110 is the FFTI. It is not limited to the type.
  • FIG. 30 is a vertical cross-sectional view showing an example of a cross-sectional structure of a surface perpendicular to the light incident surface of the SPAD pixel according to the third embodiment.
  • the SPAD pixel 320 has a structure similar to the cross-sectional structure described with reference to FIG. 6 and the like in the first embodiment, and the FFTI type element separation unit 110 is replaced with the DTI type element separation unit 310. It has a replaced structure.
  • the DTI type element separation unit 310 is an insulating film that covers the inner side surface and the bottom surface of the second trench in the second trench formed so as not to reach the back surface from the front surface side (lower surface side in the drawing) of the semiconductor substrate 101.
  • a light-shielding film 311 that fills the inside of the second trench whose inner surface is covered with the insulating film 312 is provided.
  • Such an element separation unit 310 can be realized, for example, by forming a shallow second trench or using a thick semiconductor substrate 101.
  • the DTI type element separation unit 310 formed from the surface side of the semiconductor substrate 101 is used. This makes it possible to simplify the process of thinning the semiconductor substrate 101 from the back surface side.
  • the DTI type element separation unit 310 formed from the front surface side of the semiconductor substrate 101, the P-type semiconductor region 104 is not separated for each SPAD pixel 320 on the back surface side of the semiconductor substrate 101.
  • the variation in how the electric field is applied for each SPAD pixel 320 due to the variation in the contact resistance between the P-type semiconductor region 104 and the anode contact 108 is suppressed, and the electric field for each SPAD pixel 320 is leveled. It is also possible to improve the yield of the image sensor 10.
  • FIG. 31 is a vertical cross-sectional view showing an example of a cross-sectional structure of a surface perpendicular to the light incident surface of the SPAD pixel according to the fourth embodiment.
  • the SPAD pixel 420 has, for example, a structure in which the anode contact 408 is provided at the bottom of the second trench in the same configuration as the SPAD pixel 320 described with reference to FIG. 30 in the third embodiment. To be equipped with.
  • the light-shielding film 311 electrically continuous with the anode electrode 122 is electrically connected to the P-type semiconductor region 104 on the back surface side of the semiconductor substrate 101 via the anode contact 408 at the bottom of the second trench. Connected to.
  • the contact resistance between the P-type semiconductor region 104 and the anode contact 108 can be further reduced, and the variation in the contact resistance can be suppressed. Further suppression is possible.
  • the electric field for each SPAD pixel 320 is further leveled, so that the yield of the image sensor 10 can be further improved.
  • the DTI type element separation unit 310 provided in the second trench formed from the surface side of the semiconductor substrate 101 has been exemplified.
  • the RDTI type element separation portion provided in the second trench formed from the back surface side of the semiconductor substrate 101 is exemplified.
  • FIG. 32 is a vertical cross-sectional view showing an example of a cross-sectional structure of a surface perpendicular to the light incident surface of the SPAD pixel according to the fifth embodiment.
  • the SPAD pixel 520 has, for example, a structure similar to the cross-sectional structure described with reference to FIG. 30 in the third embodiment, in which the FFTI type element separation unit 110 has the RDTI type element separation unit 510.
  • the anode contact 108 is replaced with the anode contact 508.
  • the RDTI type element separation unit 510 is an insulating film 512 that covers the inner side surface and the bottom surface of the second trench in the second trench formed so as not to reach the front surface from the back surface side (upper surface side in the drawing) of the semiconductor substrate 101. And a light-shielding film 511 that fills the inside of the second trench whose inner surface is covered with the insulating film 512.
  • the anode electrode 122 and the element separation portion 520 are separated, it is possible to form the anode contact 508 on the entire back surface of the anode electrode 122. As a result, the contact resistance between the P-type semiconductor region 104 and the anode contact 108 can be further reduced, so that the SPAD pixel 520 with better characteristics can be realized.
  • the second trench can be formed from the back surface side of the semiconductor substrate 101, as compared with the case of forming the DTI type element separation portion 310 according to the third or fourth embodiment, for example, as compared with the case where the second trench is formed. It is possible to simplify the process of forming the element separating portion 520.
  • a plurality of SPAD pixels 20R, 20G and 20B (hereinafter, when the SPAD pixels 20R, 20G and 20B are not distinguished, their reference numerals are 20) are each (the present).
  • it is divided into SPAD pixels 620R, 620G or 620B (hereinafter, when the SPAD pixels 620R, 620G and 620B are not distinguished, the reference numeral is 620).
  • a plurality of SPAD pixels 620, 620G or 620B share one color filter 115R, 115G or 115B.
  • the element separation unit 110 it is not necessary to provide the element separation unit 110 between the SPAD pixels 620 obtained by dividing one SPAD pixel 20.
  • the P-type semiconductor region 104 may be arranged between the SPAD pixels 620 instead of the element separation unit 110.
  • the pixel pitch can be reduced as compared with the case where the element separation unit 110 is provided, so that the image sensor 10 can be further miniaturized.
  • the element separation portions 110 and 510 in the above-described embodiment and its modification are not limited to the semiconductor substrate 101, and may penetrate to, for example, the color filter 115.
  • the anode contact 108 is provided at the stepped portion between the first trench T1 and the second trench T2.
  • a configuration for increasing the contact area between the anode contact and the anode electrode in such a structure will be described.
  • FIG. 37 is a vertical cross-sectional view showing an example of the cross-sectional structure of the surface perpendicular to the light incident surface of the SPAD pixel according to the ninth embodiment.
  • FIG. 38 is a horizontal cross-sectional view showing an example of the cross-sectional structure of the AA plane in FIG. 37.
  • the boundary between the photoelectric conversion region 102 and the P-type semiconductor region 104 is slightly different from the drawings so far for convenience of subsequent explanation.
  • the upper surface of the photoelectric conversion region 102 that is, the surface of the semiconductor substrate 101 facing the surface (lower surface in the drawing) is drawn at the same height as the bottom of the first trench.
  • the side surface of the P-type semiconductor region 104 is drawn further inward than the inner end portion of the anode contact 908.
  • the lower end of the anode electrode 922 included in the SPAD pixel 920 according to the ninth embodiment is not horizontal but inclined with respect to the surface of the semiconductor substrate 101. More specifically, the lower end portion of the anode electrode 922 is directed toward the central portion to which the light-shielding film 111 in the second trench is connected from the end portion in the width direction of the anode electrode 922 in the depth direction of the semiconductor substrate 101. That is, it is inclined toward the second trench side. Therefore, the distance from the center portion in the width direction of the anode electrode 922 to the surface of the semiconductor substrate 101 is farther than the distance from the end portion in the width direction of the anode electrode 922 to the surface of the semiconductor substrate 101.
  • the anode contact 908 provided at the stepped portion between the first trench and the second trench contacts the inclined lower end portion of the anode electrode 922. That is, the anode contact 908 and the anode electrode 922 have an inclined contact surface. As a result, the anode contact 908 and the anode electrode are more than the case where the contact surface between the anode contact 108 and the anode electrode 122 is horizontal with respect to the surface of the semiconductor substrate 101, for example, as in the SPAD pixel 20 of the first embodiment. The contact area with 922 becomes large.
  • the following manufacturing method can be adopted.
  • FIG. 39 is a process sectional view showing a method of manufacturing the solid-state image sensor according to the ninth embodiment.
  • the connection portion T5s with the second trench T2 at the bottom of the trench T5. Has a structure with an inclination.
  • the acceptor is ion-implanted into the bottom of the trench T5 from above the insulating film 109 at a high concentration, and then the entire surface of the insulating film 109 is etched back to form the trench T5. It shows a state in which the insulating film 109 at the bottom is removed.
  • the connection portion with the second trench T2 protruding at an angle close to a right angle is dropped on the shoulder, and the trench T5 A portion of the bottom can be tilted and the anode contact 908 can be exposed.
  • anode electrode 922 that contacts the anode contact 908 on an inclined surface in the first trench T1 whose side surface is covered with the insulating film 109.
  • the surface in contact between the anode contact 908 and the anode electrode 922 is inclined with respect to the surface of the semiconductor substrate 101. Therefore, according to the present embodiment, it is possible to increase the contact area between the anode contact 908 and the anode electrode 922 and reduce the contact resistance.
  • the first trench and the second trench are extended so as to surround the element region while taking a detoured path. That is, in this example in which the photodiodes 21 are arranged in a grid pattern, the length of one side of the first trench and the second trench is longer than the pitch of the photodiode 21.
  • the first trench and the second trench surrounding the element region have redundancy in the stretching direction, so that the contact area between the anode contact and the anode electrode can be increased.
  • FIG. 40 is a horizontal sectional view showing a cross-sectional structure example of a surface parallel to the light incident surface of the SPAD pixel according to the first modification of the ninth embodiment. Note that FIG. 40 is a surface corresponding to FIG. 38.
  • the SPAD pixel 920a according to the first modification has a structure similar to the cross-sectional structure described with reference to FIG. 38 and the like in the ninth embodiment, and has a zigzag shape in the stretching direction of each side.
  • the first trench T1a to have is provided.
  • the second trench provided along the bottom of the first trench T1a also has a zigzag shape in the extending direction of each side.
  • the anode electrode 922a provided in the first trench T1a has a zigzag shape in the stretching direction of each side along the first trench T1a.
  • the light-shielding film provided in the second trench also has a zigzag shape in the stretching direction of each side.
  • the anode contact 908a has a zigzag shape in the stretching direction of each side along the anode electrode 922a and comes into contact with the anode electrode 922a.
  • the stretching distance per side of the first trench T1a becomes longer than in the case where one side of the first trench is linear as in the SPAD pixel 920 of the ninth embodiment, and the anode contact 908a and the anode The contact area with the electrode 922a can be increased.
  • FIG. 41 is a horizontal sectional view showing a cross-sectional structure example of a surface parallel to the light incident surface of the SPAD pixel according to the second modification of the ninth embodiment. Note that FIG. 41 is a surface corresponding to FIG. 38.
  • the SPAD pixel 920b according to the second modification has a structure similar to the cross-sectional structure described with reference to FIG. 38 in the ninth embodiment, and has a crank shape in the extending direction of each side.
  • the first trench T1b to have is provided.
  • the second trench provided along the bottom of the first trench T1b also has a crank shape in the extending direction of each side.
  • the anode electrode 922b provided in the first trench T1b has a crank shape in the extending direction of each side along the first trench T1b.
  • the light-shielding film provided in the second trench also has a crank shape in the stretching direction of each side.
  • the anode contact 908b has a crank shape in the extending direction of each side along the anode electrode 922b and comes into contact with the anode electrode 922b.
  • the stretching distance per side of the first trench T1b becomes longer than in the case where one side of the first trench is linear as in the SPAD pixel 920 of the ninth embodiment, and the anode contact 908b and the anode The contact area with the electrode 922b can be increased.
  • FIG. 42 is a horizontal sectional view showing a cross-sectional structure example of a surface parallel to the light incident surface of the SPAD pixel according to the third modification of the ninth embodiment. Note that FIG. 42 is a surface corresponding to FIG. 38.
  • the SPAD pixel 920c according to the third modification has the same structure as the cross-sectional structure described with reference to FIG. 38 and the like in the ninth embodiment, and has the same structure as the first modification.
  • a first trench T1a having a zigzag shape in the extending direction of the side, an anode electrode 922a, and an anode contact 908a are provided.
  • the second trench and the light-shielding film also have a zigzag shape in the stretching direction of each side, as in the first modification.
  • the P-type semiconductor region 904c has a zigzag shape in the stretching direction of each side along the anode contact 908a and comes into contact with the anode contact 908a.
  • the effective region of the photoelectric conversion region 102 which is a sensitivity region to light, can be increased as compared with the case where one side of the P-type semiconductor region is linear, for example, as in the SPAD pixel 920a according to the first modification. it can.
  • the anode contact and the anode electrode may have other shapes such as a meandering shape and a wavy shape as long as the distance between the anode contact and the anode electrode can be increased to increase the contact area between them.
  • the configuration of the first to third modifications is applied to the configuration of the ninth embodiment, that is, the configuration in which the anode contact 908 and the anode electrode 922 are in contact with each other on an inclined surface. Not limited to this.
  • the configuration of the first to third modifications may be applied to a configuration in which the contact surface between the anode contact 108 and the anode electrode 122 is horizontal, as in the configuration of the first embodiment, for example.
  • the insulating film 112 is not formed in the second trench, and the anode contact 108 is also in contact with the light-shielding film 111 formed of, for example, a conductive material. There is. If the configurations of the first to third modifications are applied to such a configuration, the contact area between the anode contact and the light-shielding film is added to the contact area between the anode contact and the anode electrode, and the contact resistance is further reduced. Can be done.
  • the solid-state image sensor described above includes various electronic devices such as an image pickup device such as a digital still camera or a digital video camera, a mobile phone having an image pickup function, or another device having an image pickup function. Can be applied to.
  • an image pickup device such as a digital still camera or a digital video camera
  • a mobile phone having an image pickup function or another device having an image pickup function. Can be applied to.
  • FIG. 43 is a block diagram showing a configuration example of an imaging device as an electronic device to which the present technology is applied.
  • the image pickup device 8201 shown in FIG. 43 includes an optical system 8202, a shutter device 8203, a solid-state image pickup device 8204, a drive circuit 8205, a signal processing circuit 8206, a monitor 8207, and a memory 8208, and displays still images and moving images. It is possible to take an image.
  • the optical system 8202 is configured to have one or a plurality of lenses, and guides the light (incident light) from the subject to the solid-state image sensor 8204 to form an image on the light receiving surface of the solid-state image sensor 8204.
  • the shutter device 8203 is arranged between the optical system 8202 and the solid-state image sensor 8204, and controls the light irradiation period and the light-shielding period of the solid-state image sensor 8204 according to the control of the drive circuit 1005.
  • the solid-state image sensor 8204 is configured by a package including the above-mentioned solid-state image sensor.
  • the solid-state image sensor 8204 accumulates signal charges for a certain period of time according to the light imaged on the light receiving surface via the optical system 8202 and the shutter device 8203.
  • the signal charge accumulated in the solid-state image sensor 8204 is transferred according to the drive signal (timing signal) supplied from the drive circuit 8205.
  • the drive circuit 8205 outputs a drive signal for controlling the transfer operation of the solid-state image sensor 8204 and the shutter operation of the shutter device 8203 to drive the solid-state image sensor 8204 and the shutter device 8203.
  • the signal processing circuit 8206 performs various signal processing on the signal charge output from the solid-state image sensor 8204.
  • the image (image data) obtained by performing signal processing on the signal processing circuit 8206 is supplied to the monitor 8207 for display, or supplied to the memory 8208 for storage (recording).
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure includes any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machines, agricultural machines (tractors), and the like. It may be realized as a device mounted on the body.
  • FIG. 44 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via the communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an external information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. ..
  • the communication network 7010 connecting these plurality of control units conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores a program executed by the microcomputer or parameters used for various arithmetics, and a drive circuit that drives various control target devices. To be equipped.
  • Each control unit is provided with a network I / F for communicating with other control units via the communication network 7010, and is connected to devices or sensors inside or outside the vehicle by wired communication or wireless communication.
  • a communication I / F for performing communication is provided. In FIG.
  • control unit 7600 As the functional configuration of the integrated control unit 7600, the microcomputer 7610, the general-purpose communication I / F 7620, the dedicated communication I / F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F 7660, the audio image output unit 7670, The vehicle-mounted network I / F 7680 and the storage unit 7690 are shown.
  • Other control units also include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the vehicle condition detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 may include, for example, a gyro sensor that detects the angular velocity of the axial rotation motion of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, or steering wheel steering. Includes at least one of the sensors for detecting angular velocity, engine speed, wheel speed, and the like.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110 to control an internal combustion engine, a drive motor, an electric power steering device, a braking device, and the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as head lamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 7200 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 7200 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the battery control unit 7300 controls the secondary battery 7310, which is the power supply source of the drive motor, according to various programs. For example, information such as the battery temperature, the battery output voltage, or the remaining capacity of the battery is input to the battery control unit 7300 from the battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals to control the temperature of the secondary battery 7310 or the cooling device provided in the battery device.
  • the vehicle outside information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle exterior information detection unit 7420 is used to detect, for example, the current weather or an environment sensor for detecting the weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the ambient information detection sensors is included.
  • the environment sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 45 shows an example of the installation positions of the image pickup unit 7410 and the vehicle exterior information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, 7918 are provided, for example, at at least one of the front nose, side mirrors, rear bumpers, back door, and upper part of the windshield of the vehicle interior of the vehicle 7900.
  • the image pickup unit 7910 provided on the front nose and the image pickup section 7918 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the imaging units 7912 and 7914 provided in the side mirrors mainly acquire images of the side of the vehicle 7900.
  • the image pickup unit 7916 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 45 shows an example of the shooting range of each of the imaging units 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided on the side mirrors, respectively
  • the imaging range d indicates the imaging range d.
  • the imaging range of the imaging unit 7916 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, 7916, a bird's-eye view image of the vehicle 7900 as viewed from above can be obtained.
  • the vehicle exterior information detection units 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, side, corners of the vehicle 7900 and the upper part of the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle exterior information detection units 7920, 7926, 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield in the vehicle interior of the vehicle 7900 may be, for example, a lidar device.
  • These out-of-vehicle information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, or the like.
  • the vehicle outside information detection unit 7400 causes the image pickup unit 7410 to capture an image of the outside of the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the connected vehicle exterior information detection unit 7420. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a lidar device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the vehicle exterior information detection unit 7400 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform an environment recognition process for recognizing rainfall, fog, road surface conditions, etc., based on the received information.
  • the vehicle outside information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.
  • the vehicle exterior information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a vehicle, an obstacle, a sign, a character on the road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and synthesizes the image data captured by different imaging units 7410 to generate a bird's-eye view image or a panoramic image. May be good.
  • the vehicle exterior information detection unit 7400 may perform the viewpoint conversion process using the image data captured by different imaging units 7410.
  • the in-vehicle information detection unit 7500 detects the in-vehicle information.
  • a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that captures the driver, a biosensor that detects the driver's biological information, a microphone that collects sound in the vehicle interior, and the like.
  • the biosensor is provided on, for example, the seat surface or the steering wheel, and detects the biometric information of the passenger sitting on the seat or the driver holding the steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and may determine whether the driver is dozing or not. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device such as a touch panel, a button, a microphone, a switch or a lever, which can be input-operated by a passenger. Data obtained by recognizing the voice input by the microphone may be input to the integrated control unit 7600.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. You may.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information by gesture. Alternatively, data obtained by detecting the movement of the wearable device worn by the passenger may be input. Further, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on the information input by the passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600. By operating the input unit 7800, the passenger or the like inputs various data to the vehicle control system 7000 and instructs the processing operation.
  • the storage unit 7690 may include a ROM (Read Only Memory) for storing various programs executed by the microcomputer, and a RAM (Random Access Memory) for storing various parameters, calculation results, sensor values, and the like. Further, the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution) or LTE-A (LTE-Advanced).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution-Advanced
  • Bluetooth® may be implemented.
  • the general-purpose communication I / F 7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a business-specific network) via, for example, a base station or an access point. You may. Further, the general-purpose communication I / F7620 uses, for example, P2P (Peer To Peer) technology, and is a terminal existing in the vicinity of the vehicle (for example, a terminal of a driver, a pedestrian, or a store, or an MTC (Machine Type Communication) terminal). You may connect with.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I / F7630 uses a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of lower layer IEEE802.11p and upper layer IEEE1609. May be implemented.
  • Dedicated communication I / F7630 typically includes vehicle-to-vehicle (Vehicle to Vehicle) communication, road-to-vehicle (Vehicle to Infrastructure) communication, vehicle-to-home (Vehicle to Home) communication, and pedestrian-to-pedestrian (Vehicle to Pedertian) communication. ) Carry out V2X communication, a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), executes positioning, and executes positioning, and the latitude, longitude, and altitude of the vehicle. Generate location information including.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives radio waves or electromagnetic waves transmitted from a radio station or the like installed on the road, and acquires information such as the current position, traffic jam, road closure, or required time.
  • the function of the beacon receiving unit 7650 may be included in the above-mentioned dedicated communication I / F 7630.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 existing in the vehicle.
  • the in-vehicle device I / F7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • the in-vehicle device I / F7660 is connected via a connection terminal (and a cable if necessary) (not shown), USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface, or MHL (Mobile High)).
  • a wired connection such as -definition Link
  • MHL Mobile High-definition Link
  • the in-vehicle device 7760 includes, for example, at least one of a mobile device or a wearable device owned by a passenger, or an information device carried in or attached to a vehicle. Further, the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I / F 7660 is a control signal to and from these in-vehicle devices 7760. Or exchange the data signal.
  • the in-vehicle network I / F7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the vehicle-mounted network I / F7680 transmits and receives signals and the like according to a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680. Based on the information acquired in the above, the vehicle control system 7000 is controlled according to various programs. For example, the microcomputer 7610 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. May be good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. Cooperative control may be performed for the purpose of.
  • the microcomputer 7610 automatically travels autonomously without relying on the driver's operation by controlling the driving force generator, steering mechanism, braking device, etc. based on the acquired information on the surroundings of the vehicle. Coordinated control for the purpose of driving or the like may be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 has information acquired via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680. Based on the above, three-dimensional distance information between the vehicle and an object such as a surrounding structure or a person may be generated, and local map information including the peripheral information of the current position of the vehicle may be created. Further, the microcomputer 7610 may predict a danger such as a vehicle collision, a pedestrian or the like approaching or entering a closed road based on the acquired information, and may generate a warning signal.
  • the warning signal may be, for example, a signal for generating a warning sound or turning on a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passengers of the vehicle or outside the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are exemplified as output devices.
  • the display unit 7720 may include, for example, at least one of an onboard display and a heads-up display.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices other than these devices, such as headphones, wearable devices such as eyeglass-type displays worn by passengers, and projectors or lamps.
  • the display device displays the results obtained by various processes performed by the microcomputer 7610 or the information received from other control units in various formats such as texts, images, tables, and graphs. Display visually.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, or the like into an analog signal and outputs it audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • the vehicle control system 7000 may include another control unit (not shown).
  • the other control unit may have a part or all of the functions carried out by any of the control units. That is, as long as information is transmitted and received via the communication network 7010, predetermined arithmetic processing may be performed by any control unit.
  • a sensor or device connected to one of the control units may be connected to the other control unit, and the plurality of control units may send and receive detection information to and from each other via the communication network 7010. .
  • a computer program for realizing each function of the electronic device 1 according to the present embodiment described with reference to FIG. 1 can be mounted on any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via, for example, a network without using a recording medium.
  • the electronic device 1 in the vehicle control system 7000 described above, can be applied to the integrated control unit 7600 of the application example shown in FIG. 44.
  • the storage unit 40 and the processor 50 of the electronic device 1 correspond to the microcomputer 7610, the storage unit 7690, and the vehicle-mounted network I / F 7680 of the integrated control unit 7600.
  • the present invention is not limited to this, and the vehicle control system 7000 may correspond to the host 80 in FIG.
  • the components of the electronic device 1 according to the present embodiment described with reference to FIG. 1 is a module for the integrated control unit 7600 shown in FIG. 44 (for example, an integrated circuit composed of one die). It may be realized in a circuit module). Alternatively, the electronic device 1 according to the present embodiment described with reference to FIG. 1 may be realized by a plurality of control units of the vehicle control system 7000 shown in FIG.
  • FIG. 46 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 46 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing blood vessels, and the like of tissues.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator.
  • Recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 47 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape and color of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication was performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the endoscope 11100, the imaging unit 11402 of the camera head 11102, and the like among the configurations described above.
  • By applying the technique according to the present disclosure to the image pickup unit 11402 and the like it is possible to acquire high-luminance image data while suppressing a decrease in resolution.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • a semiconductor substrate including a first trench provided on a first surface and a second trench provided along the bottom of the first trench, and a semiconductor substrate.
  • a photoelectric conversion element provided on the semiconductor substrate is provided.
  • the photoelectric conversion element is A photoelectric conversion region provided in the element region defined by the first trench and the second trench in the semiconductor substrate to photoelectrically convert incident light to generate an electric charge, and a photoelectric conversion region.
  • Area and A second contact provided on the first surface so as to be in contact with the third semiconductor region, A second electrode in contact with the second contact is provided.
  • the second surface in which the first contact and the first electrode are in contact is inclined with respect to the first surface.
  • Solid-state image sensor (2) The second surface is inclined toward the second trench side from the widthwise end portion of the first electrode toward the center portion.
  • (3) The first trench and the second trench extend so as to surround the element region while taking a detoured path.
  • (4) The distance of the first contact from the first surface is longer than the distance of the third semiconductor region from the first surface.
  • the first contact is in contact with the first semiconductor region so as to surround the outer periphery of the first semiconductor region.
  • a light-shielding film provided inside the second trench is further provided.
  • the light-shielding film is made of the same material as the first electrode.
  • An insulating film provided between the light-shielding film and the first semiconductor region is further provided.
  • the solid-state image sensor according to (6) or (7) above. (9) A semiconductor substrate including a first trench provided on a first surface and a second trench provided along the bottom of the first trench, and a semiconductor substrate.
  • a photoelectric conversion element provided on the semiconductor substrate is provided.
  • the photoelectric conversion element is A photoelectric conversion region provided in the element region defined by the first trench and the second trench in the semiconductor substrate to photoelectrically convert incident light to generate an electric charge, and a photoelectric conversion region.
  • Area and A second contact provided on the first surface so as to be in contact with the third semiconductor region, A second electrode in contact with the second contact is provided.
  • the first trench and the second trench extend so as to surround the element region while taking a detoured path.
  • the first trench and the second trench have at least one of a zigzag shape, a crank shape, and a meandering shape in the stretching direction.
  • the first electrode extends so as to surround the element region while taking a detoured path along the first trench.
  • the first contact extends so as to surround the outer periphery of the first semiconductor region while taking a detoured path along the first electrode, and comes into contact with the first electrode.
  • the first semiconductor region extends so as to surround the photoelectric conversion region while taking a detoured path along the first contact, and comes into contact with the first contact.
  • (14) There are a plurality of photoelectric conversion elements, The plurality of photoelectric conversion elements are arranged in a grid pattern. The pitches of the plurality of photoelectric conversion elements are equal in the first direction and the second direction orthogonal to the first direction. The length of one side of the first trench and the second trench surrounding the element region is longer than the pitch of the plurality of photoelectric conversion elements.
  • a light-shielding film provided inside the second trench is further provided.
  • (16) The light-shielding film is made of the same material as the first electrode.
  • the light-shielding film is in contact with the first semiconductor region.
  • An insulating film provided between the light-shielding film and the first semiconductor region is further provided.
  • (19) Solid-state image sensor and An optical system that forms an image of incident light on the light receiving surface of the solid-state image sensor, A processor that controls the solid-state image sensor is provided.
  • the solid-state image sensor A semiconductor substrate including a first trench provided on a first surface and a second trench provided along the bottom of the first trench, and a semiconductor substrate.
  • a photoelectric conversion element provided on the semiconductor substrate is provided.
  • the photoelectric conversion element is A photoelectric conversion region provided in the element region defined by the first trench and the second trench in the semiconductor substrate to photoelectrically convert incident light to generate an electric charge, and a photoelectric conversion region.
  • a third semiconductor that is in contact with the second semiconductor region in the element region and is provided between the second semiconductor region and the first surface and has a second conductive type opposite to the first conductive type.
  • Solid-state image sensor and An optical system that forms an image of incident light on the light receiving surface of the solid-state image sensor, A processor that controls the solid-state image sensor is provided.
  • the solid-state image sensor A semiconductor substrate including a first trench provided on a first surface and a second trench provided along the bottom of the first trench, and a semiconductor substrate.
  • a photoelectric conversion element provided on the semiconductor substrate is provided.
  • the photoelectric conversion element is A photoelectric conversion region provided in the element region defined by the first trench and the second trench in the semiconductor substrate to photoelectrically convert incident light to generate an electric charge, and a photoelectric conversion region.
  • Area and A second contact provided on the first surface so as to be in contact with the third semiconductor region, A second electrode in contact with the second contact is provided.
  • the first trench and the second trench extend so as to surround the element region while taking a detoured path. Electronics.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

実施形態に係る固体撮像装置は、半導体基板におけるトレンチで区画された素子領域内に設けられた光電変換領域と、光電変換領域を囲む第1半導体領域と、トレンチの底部で第1半導体領域と接触する第1コンタクトと、第1トレンチ内で第1コンタクトと接する第1電極と、第1半導体領域と接する領域に設けられ、第1半導体領域と同じ第1導電型を備える第2半導体領域と、第2半導体領域と接する領域であって第2半導体領域と第1面との間に設けられ、第1導電型と反対の第2導電型を備える第3半導体領域と、第3半導体領域と接するように第1面に設けられた第2コンタクトと、第2コンタクトと接する第2電極と、を備え、第1コンタクトと第1電極とが接する第2面は、第1面に対して傾斜している。

Description

固体撮像装置及び電子機器
 本開示は、固体撮像装置及び電子機器に関する。
 近年、光電変換により発生した電荷をなだれ増倍(アバランシェ増幅ともいう)によって増幅して電気信号として出力するSPAD(Single Photon Avalanche Diode)が開発されている。アバランシェ増幅とは、PN接合の不純物拡散領域において電界により加速された電子が格子原子と衝突してその結合手を切り、これにより新たに発生した電子がさらに別の格子原子と衝突してその結合子を切ることを繰り返すことで電流が増倍されていく現象である。
 このようなSPADは、発光部から出射した光が物体で反射して帰ってくるまでの時間から物体までの距離を測定する測距装置や、入射光の光量を電気信号に変換する固体撮像装置等に応用することが可能である。
 アバランシェ増幅によって生じる大きな電流をSPAD画素内から排出するためには、低抵抗且つオーミック接触のコンタクトを形成することが望ましい。半導体基板に形成された不純物拡散領域に対して低抵抗且つオーミック接触のコンタクトを形成する方法としては、接触部に高濃度不純物領域を形成することが一般的に知られている。
特開2015-41746号公報
 ここで、アバランシェ増幅を発生させるほどの電界強度を得るには、PN接合に逆バイアス方向の高電圧を印加する必要があるが、PN接合領域からコンタクトまでの距離が近いと、これらの間に強い電界が形成されてトンネル効果が発生してしまう。このようなトンネル効果が発生すると、光電変換により発生した電子-正孔対がトンネル電流によってすぐさま再結合してしまうため、アバランシェ増幅を発生させることができないという課題が発生する。
 トンネル効果の発生を回避するためには、不純物拡散領域の最外周にコンタクトを配置して、PN接合領域からコンタクトまでの距離を広げる方法が考えられる。しかしながら、この場合、コンタクトと電極との接触面積を大きくとることが困難である。このため、コンタクト抵抗が高いことに起因する電圧降下により、感度(PDE:Photon Detection Efficiency)が低下してしまう。PDE低下を抑制するため電圧値を上げれば、消費電力が増加してしまう。
 そこで本開示では、コンタクトの高抵抗化を抑制してPDEを向上させることが可能な固体撮像装置及び電子機器を提案する。
 上記の課題を解決するために、本開示に係る一形態の固体撮像装置は、第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、前記半導体基板に設けられた光電変換素子と、を備え、前記光電変換素子は、前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、前記素子領域内において前記光電変換領域を囲む第1半導体領域と、前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、前記第1トレンチ内で前記第1コンタクトと接する第1電極と、前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、前記第2コンタクトと接する第2電極と、を備え、前記第1コンタクトと前記第1電極とが接する第2面は、前記第1面に対して傾斜している。
第1の実施形態に係る固体撮像装置を搭載した電子機器の概略構成例を示すブロック図である。 第1の実施形態に係るイメージセンサの概略構成例を示すブロック図である。 第1の実施形態に係るSPAD画素の概略構成例を示す回路図である。 第1の実施形態に係るカラーフィルタのレイアウト例を示す図である。 第1の実施形態に係るイメージセンサの積層構造例を示す図である。 第1の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 図6におけるA-A面の断面構造例を示す水平断面図である。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その1)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その2)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その3)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その4)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その5)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その6)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その7)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その8)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その9)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その10)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その11)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その12)。 第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である(その13)。 第1の実施形態の第1の変形例に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第1の実施形態の第2の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。 第1の実施形態の第3の変形例に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第1の実施形態の第4の変形例に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第1の実施形態に係るアノードに対する接続配線の一例を示す図である。 第1の実施形態の第5の変形例に係るアノードに対する接続配線の一例を示す図である。 第1の実施形態の第5の変形例に係るアノードに対する接続配線の他の一例を示す図である。 第1の実施形態の第5の変形例に係るアノードに対する接続配線のさらに他の一例を示す図である。 第2の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第3の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第4の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第5の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第6の実施形態に係るSPAF画素の平面レイアウト例を示す平面図である。 第6の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第7の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第8の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 第9の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。 図37におけるA-A面の断面構造例を示す水平断面図である。 第9の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である。 第9の実施形態の第1の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。 第9の実施形態の第2の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。 第9の実施形態の第3の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。 本技術を適用した固体撮像素子を利用した撮像装置および電子機器の構成を説明する図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1.1 電子機器
   1.2 固体撮像装置
   1.3 SPAD画素
   1.4 SPAD画素の概略動作例
   1.5 カラーフィルタのレイアウト例
   1.6 固体撮像装置の積層構造例
   1.7 SPAD画素の断面構造例
   1.8 アノードコンタクトとカソードコンタクト及び/又はN+型半導体領域との位置関係
   1.9 製造方法
   1.10 作用・効果
   1.11 変形例
    1.11.1 第1の変形例
    1.11.2 第2の変形例
    1.11.3 第3の変形例
    1.11.4 第4の変形例
    1.11.5 第5の変形例
  2.第2の実施形態
  3.第3の実施形態
  4.第4の実施形態
  5.第5の実施形態
  6.第6の実施形態
  7.第7の実施形態
  8.第8の実施形態
  9.第9の実施形態
   9.1 SPAD画素の断面構造例
   9.2 作用・効果
   9.3 変形例
    9.3.1 第1の変形例
    9.3.2 第2の変形例
    9.3.3 第3の変形例
  10.電子機器への適用例
  11.移動体への応用例
  12.内視鏡手術システムへの応用例
  13.付記
 1.第1の実施形態
 まず、第1の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 1.1 電子機器
 図1は、第1の実施形態に係る固体撮像装置を搭載した電子機器の概略構成例を示すブロック図である。図1に示すように、電子機器1は、例えば、撮像レンズ30と、固体撮像装置10と、記憶部40と、プロセッサ50とを備える。
 撮像レンズ30は、入射光を集光してその像を固体撮像装置10の受光面に結像する光学系の一例である。受光面とは、固体撮像装置10における光電変換素子が配列する面であってよい。固体撮像装置10は、入射光を光電変換して画像データを生成する。また、固体撮像装置10は、生成した画像データに対し、ノイズ除去やホワイトバランス調整等の所定の信号処理を実行する。
 記憶部40は、例えば、フラッシュメモリやDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等で構成され、固体撮像装置10から入力された画像データ等を記録する。
 プロセッサ50は、例えば、CPU(Central Processing Unit)等を用いて構成され、オペレーティングシステムや各種アプリケーションソフトウエア等を実行するアプリケーションプロセッサや、GPU(Graphics Processing Unit)やベースバンドプロセッサなどが含まれ得る。プロセッサ50は、固体撮像装置10から入力された画像データや記憶部40から読み出した画像データ等に対し、必要に応じた種々処理を実行したり、ユーザへの表示を実行したり、所定のネットワークを介して外部へ送信したりする。
 1.2 固体撮像装置
 図2は、第1の実施形態に係るCMOS(Complementary Metal-Oxide-Semiconductor)型の固体撮像装置(以下、単にイメージセンサという)の概略構成例を示すブロック図である。ここで、CMOS型のイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成されたイメージセンサである。なお、本実施形態では、半導体基板における素子形成面とは反対側の面が光入射面である、いわゆる裏面照射型のイメージセンサ10を例示するが、裏面照射型に限定されず、素子形成面が光入射面である、いわゆる表面照射型とすることも可能である。
 図2に示すように、イメージセンサ10は、SPADアレイ部11と、タイミング制御回路15と、駆動回路12と、出力回路13とを備える。
 SPADアレイ部11は、行列状に配列する複数のSPAD画素20を備える。複数のSPAD画素20に対しては、列ごとに画素駆動線LD(図面中の上下方向)が接続され、行ごとに出力信号線LS(図面中の左右方向)が接続される。画素駆動線LDの一端は、駆動回路12の各列に対応した出力端に接続され、出力信号線LSの一端は、出力回路13の各行に対応した入力端に接続される。
 駆動回路12は、シフトレジスタやアドレスデコーダなどを含み、SPADアレイ部11の各SPAD画素20を、全画素同時や列単位等で駆動する。そこで、駆動回路12は、少なくとも、SPADアレイ部11内の選択列における各SPAD画素20に、後述するクエンチ電圧V_QCHを印加する回路と、選択列における各SPAD画素20に、後述する選択制御電圧V_SELを印加する回路とを含む。そして、駆動回路12は、読出し対象の列に対応する画素駆動線LDに選択制御電圧V_SELを印加することで、フォトンの入射を検出するために用いるSPAD画素20を列単位で選択する。
 駆動回路12によって選択走査された列の各SPAD画素20から出力される信号(検出信号という)V_OUTは、出力信号線LSの各々を通して出力回路13に入力される。出力回路13は、各SPAD画素20から入力された検出信号V_OUTを画素信号として、外部の記憶部40又はプロセッサ50へ出力する。
 タイミング制御回路15は、各種のタイミング信号を生成するタイミングジェネレータ等を含み、タイミングジェネレータで生成された各種のタイミング信号を基に、駆動回路12及び出力回路13を制御する。
 1.3 SPAD画素
 図3は、第1の実施形態に係るSPAD画素の概略構成例を示す回路図である。図3に示すように、SPAD画素20は、受光素子としてのフォトダイオード21と、フォトダイオード21にフォトンが入射したことを検出する読出し回路22とを備える。フォトダイオード21は、そのアノードとカソードとの間に降伏電圧(ブレークダウン電圧)以上の逆バイアス電圧V_SPADが印加されている状態でフォトンが入射すると、アバランシェ電流を発生する。
 読出し回路22は、クエンチ抵抗23と、デジタル変換器25と、インバータ26と、バッファ27と、選択トランジスタ24とを備える。クエンチ抵抗23は、例えば、N型のMOSFET(Metal Oxide Semiconductor Field Effect Transistor。以下、NMOSトランジスタという)で構成され、そのドレインがフォトダイオード21のアノードに接続され、そのソースが選択トランジスタ24を介して接地されている。また、クエンチ抵抗23を構成するNMOSトランジスタのゲートには、当該NMOSトランジスタをクエンチ抵抗として作用させるために予め設定されているクエンチ電圧V_QCHが、駆動回路12から画素駆動線LDを介して印加される。
 本実施形態において、フォトダイオード21はSPADである。SPADは、そのアノードとカソードとの間に降伏電圧(ブレークダウン電圧)以上の逆バイアス電圧が印加されるとガイガーモードで動作するアバランシェフォトダイオードであり、1つのフォトンの入射を検出可能である。
 デジタル変換器25は、抵抗251とNMOSトランジスタ252とを備える。NMOSトランジスタ252は、そのドレインが抵抗251を介して電源電圧VDDに接続され、そのソースが接地されている。また、NMOSトランジスタ252のゲートには、フォトダイオード21のアノードとクエンチ抵抗23との接続点N1の電圧が印加される。
 インバータ26は、P型のMOSFET(以下、PMOSトランジスタという)261とNMOSトランジスタ262とを備える。PMOSトランジスタ261は、そのドレインが電源電圧VDDに接続され、そのソースがNMOSトランジスタ262のドレインに接続されている。NMOSトランジスタ262は、そのドレインがPMOSトランジスタ261のソースに接続され、そのソースが接地されている。PMOSトランジスタ261のゲート及びNMOSトランジスタ262のゲートには、それぞれ抵抗251とNMOSトランジスタ252のドレインとの接続点N2の電圧が印加される。インバータ26の出力は、バッファ27に入力される。
 バッファ27は、インピーダンス変換のための回路であり、インバータ26から出力信号を入力すると、その入力した出力信号をインピーダンス変換し、検出信号V_OUTとして出力する。
 選択トランジスタ24は、例えば、NMOSトランジスタであり、そのドレインがクエンチ抵抗23を構成するNMOSトランジスタのソースに接続され、そのソースが接地されている。選択トランジスタ24は、駆動回路12に接続されており、選択トランジスタ24のゲートに駆動回路12からの選択制御電圧V_SELが画素駆動線LDを介して印加されると、オフ状態からオン状態に変化する。
 1.4 SPAD画素の概略動作例
 図3に例示した読出し回路22は、例えば、以下のように動作する。すなわち、まず、駆動回路12から選択トランジスタ24に選択制御電圧V_SELが印加されて選択トランジスタ24がオン状態となっている期間、フォトダイオード21には降伏電圧(ブレークダウン電圧)以上の逆バイアス電圧V_SPADが印加される。これにより、フォトダイオード21の動作が許可される。
 一方、駆動回路12から選択トランジスタ24に選択制御電圧V_SELが印加されておらず、選択トランジスタ24がオフ状態となっている期間、逆バイアス電圧V_SPADがフォトダイオード21に印加されないことから、フォトダイオード21の動作が禁止される。
 選択トランジスタ24がオン状態であるときにフォトダイオード21にフォトンが入射すると、フォトダイオード21においてアバランシェ電流が発生する。それにより、クエンチ抵抗23にアバランシェ電流が流れ、接続点N1の電圧が上昇する。接続点N1の電圧がNMOSトランジスタ252のオン電圧よりも高くなると、NMOSトランジスタ252がオン状態になり、接続点N2の電圧が電源電圧VDDから0Vに変化する。そして、接続点N2の電圧が電源電圧VDDから0Vに変化すると、PMOSトランジスタ261がオフ状態からオン状態に変化すると共にNMOSトランジスタ262がオン状態からオフ状態に変化し、接続点N3の電圧が0Vから電源電圧VDDに変化する。その結果、バッファ27からハイレベルの検出信号V_OUTが出力される。
 その後、接続点N1の電圧が上昇し続けると、フォトダイオード21のアノードとカソードとの間に印加されている電圧が降伏電圧よりも小さくなり、それにより、アバランシェ電流が止まって、接続点N1の電圧が低下する。そして、接続点N1の電圧がNMOSトランジスタ252のオン電圧よりも低くなると、NMOSトランジスタ252がオフ状態になり、バッファ27からの検出信号V_OUTの出力が停止する(ローレベル)。
 このように、読出し回路22は、フォトダイオード21にフォトンが入射してアバランシェ電流が発生し、これによりNMOSトランジスタ252がオン状態になったタイミングから、アバランシェ電流が止まってNMOSトランジスタ252がオフ状態になるタイミングまでの期間、ハイレベルの検出信号V_OUTを出力する。出力された検出信号V_OUTは、出力回路13に入力される。
 1.5 カラーフィルタのレイアウト例
 上述したように、各SPAD画素20のフォトダイオード21に対しては、特定波長の光を選択的に透過させるカラーフィルタが配置される。図4は、第1の実施形態に係るカラーフィルタのレイアウト例を示す図である。
 図4に示すように、カラーフィルタアレイ60は、例えば、カラーフィルタ配列における繰返しの単位となるパターン(以下、単位パターンという)61が2次元格子状に配列した構成を備える。
 各単位パターン61は、例えば、赤色(R)の波長成分の光を選択的に透過するカラーフィルタ115Rと、緑色(G)の波長成分の光を選択的に透過する2つのカラーフィルタ115Gと、青色(B)の波長成分の光を選択的に透過するカラーフィルタ115Bとの計4つのカラーフィルタより構成された、いわゆるベイヤー配列の構成を備えている。
 なお、本開示において、カラーフィルタアレイ60は、ベイヤー配列に限定されない。例えば、単位パターンが3×3画素のX-Trans(登録商標)型のカラーフィルタ配列や、4×4画素のクワッドベイヤー配列や、RGB三原色それぞれのカラーフィルタに加えて可視光領域に対してブロードな光透過特性を持つカラーフィルタ(以下、クリア又はホワイトともいう)を含む4×4画素のホワイトRGB型のカラーフィルタ配列など、種々のカラーフィルタ配列を採用することが可能である。
 1.6 固体撮像装置の積層構造例
 図5は、第1の実施形態に係るイメージセンサの積層構造例を示す図である。図5に示すように、イメージセンサ10は、受光チップ71と回路チップ72とが上下に積層された構造を備える。受光チップ71は、例えば、フォトダイオード21が配列するSPADアレイ部11を備える半導体チップであり、回路チップ72は、例えば、図3に示す読出し回路22が配列する半導体チップである。なお、回路チップ72には、タイミング制御回路15や駆動回路12や出力回路13などの周辺回路が配置されてもよい。
 受光チップ71と回路チップ72との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu-Cu接合や、その他、バンプ接合などを用いることも可能である。
 また、受光チップ71と回路チップ72とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、受光チップ71に設けられたTSVと受光チップ71から回路チップ72にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、受光チップ71から回路チップ72まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。
 ただし、受光チップ71と回路チップ72との接合にCu-Cu接合やバンプ接合を用いた場合には、Cu-Cu接合部やバンプ接合部を介して両者が電気的に接続される。
 1.7 SPAD画素の断面構造例
 図6は、第1の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。図7は、図6におけるA-A面の断面構造例を示す水平断面図である。なお、図6では、フォトダイオード21の断面構造に着目している。
 図6に示すように、SPAD画素20のフォトダイオード21は、例えば、受光チップ71を構成する半導体基板101に設けられる。半導体基板101は、例えば、光入射面から見た形状が格子状の素子分離部110により、複数の素子領域に区画されている(例えば、図7参照)。フォトダイオード21は、素子分離部110により区画された各素子領域に設けられている。なお、素子分離部110には、後述する第1トレンチ内のアノード電極122及び絶縁膜109が含まれてもよい。
 各フォトダイオード21は、光電変換領域102と、P型半導体領域104と、N-型半導体領域103と、P+型半導体領域105と、N+型半導体領域106と、カソードコンタクト107と、アノードコンタクト108とを備える。
 光電変換領域102は、例えば、N型のウェル領域又は低い濃度のドナーを含む領域であり、入射光を光電変換して電子-正孔対(以下、電荷という)を発生させる。
 P型半導体領域104は、例えば、P型のアクセプタを含む領域であり、図6及び図7に示すように、光電変換領域102を囲む領域に設けられる。このP型半導体領域104は、後述するアノードコンタクト108に逆バイアス電圧V_SPADが印加されることで、光電変換領域102で発生した電荷をN-型半導体領域103へ導くための電界を形成する。
 N-型半導体領域103は、例えば、光電変換領域102よりも高い濃度のドナーを含む領域である。このN-型半導体領域103は、図6及び図7に示すように、光電変換領域102の中央部分に配置され、光電変換領域102で発生した電荷を取り込んでP+型半導体領域105へ導く。なお、N-型半導体領域103は必須の構成ではなく、省略されてもよい。
 P+型半導体領域105は、例えば、P型半導体領域104よりも高い濃度のアクセプタを含む領域であり、その一部がP型半導体領域104と接触している。また、N+型半導体領域106は、例えば、N-型半導体領域103よりも高い濃度のドナーを含む領域であり、P+型半導体領域105と接触している。
 これらP+型半導体領域105及びN+型半導体領域106は、PN接合を形成し、流れ込んだ電荷を加速してアバランシェ電流を発生させる増幅領域として機能する。
 カソードコンタクト107は、例えば、N+型半導体領域106よりも高い濃度のドナーを含む領域であり、N+型半導体領域106と接触する領域に設けられている。
 アノードコンタクト108は、例えば、P+型半導体領域105よりも高い濃度のアクセプタを含む領域である。このアノードコンタクト108は、P型半導体領域104の外周と接触する領域に設けられている。アノードコンタクト108の幅は、例えば、40nm(ナノメートル)程度であってよい。このように、アノードコンタクト108をP型半導体領域104の外周全体にわたって接触させることで、光電変換領域102に均一な電界を形成することが可能となる。
 また、アノードコンタクト108は、図6及び図7に示すように、半導体基板101の表面(図面中、下面)側に素子分離部110に沿って格子状に設けられたトレンチ(これを以下、第1トレンチという)の底面に設けられている。このような構造により、後述するように、アノードコンタクト108の形成位置が、カソードコンタクト107及びN+型半導体領域106の形成位置に対して、高さ方向にずらされている。
 半導体基板101の表面(図面中、下面)側は、絶縁膜109により覆われている。第1トレンチ内における絶縁膜109の膜厚(基板幅方向の厚さ)は、アノード-カソード間に印加する逆バイアス電圧V_SPADの電圧値にも依るが、例えば、150nm程度であってもよい。
 絶縁膜109には、半導体基板101表面のカソードコンタクト107及びアノードコンタクト108を露出させる開口が設けられており、それぞれの開口に、カソードコンタクト107と接触するカソード電極121及びアノードコンタクト108と接触するアノード電極122が設けられている。
 各フォトダイオード21を区画する素子分離部110は、半導体基板101を表面から裏面にかけて貫通するトレンチ(これを以下、第2トレンチという)内に設けられている。第2トレンチは、半導体基板101の表面側において第1トレンチと繋がっている。第2トレンチの内径は、第1トレンチの内径よりも狭く、それにより形成される段差部分に、アノードコンタクト108が形成されている。
 各素子分離部110は、第2トレンチの内側面を覆う絶縁膜112と、第2トレンチ内を埋める遮光膜111とを備える。絶縁膜112の膜厚(基板幅方向の厚さ)は、アノード-カソード間に印加する逆バイアス電圧V_SPADの電圧値にも依るが、例えば、10nm~20nm程度であってもよい。また、遮光膜111の膜厚(基板幅方向の厚さ)は、遮光膜111に使用する材料等に依存するが、例えば、150nm程度であってもよい。
 ここで、遮光膜111及びアノード電極122に遮光性を有する導電材料を用いることで、遮光膜111とアノード電極122とを同一工程で形成することが可能となる。さらに、カソード電極121にも遮光膜111及びアノード電極122と同じ導電材料を用いることで、遮光膜111とアノード電極122とカソード電極121とを同一工程で形成することが可能となる。
 このような遮光性を有する導電材料には、例えば、タングステン(W)などを用いることができる。ただし、タングステン(W)に限定されず、アルミニウム(Al)やアルミニウム合金や銅(Cu)など、可視光や素子ごとに必要な光を反射又は吸収する性質を持つ導電材料であれば、種々変更されてよい。
 ただし、第2トレンチ内の遮光膜111には、導電材料に限定されず、例えば、半導体基板101よりも高い屈折率を備える高屈折率材料や、半導体基板101よりも低い屈折率を備える低屈折率材料などを用いることも可能である。
 また、カソード電極121に用いる材料には、遮光性が要求されないため、遮光性を有する導電材料に代えて、銅(Cu)などの導電材料が用いられてもよい。
 なお、本実施形態では、第2トレンチが半導体基板101を表面側から貫通する、いわゆるFFTI(Front Full Trench Isolation)型の素子分離部110を例示するが、これに限定されず、第2トレンチが半導体基板101を裏面及び/又は表面側から貫通するFTI(Full Trench Isolation)型や、第2トレンチが半導体基板101の表面又は裏面から中腹にかけて形成されたDTI(Deep Trench Isolation)型又はRDTI(Reverse Deep Trench Isolation)型の素子分離部を採用することも可能である。
 第2トレンチが半導体基板101を裏面側から貫通するFTI型とした場合には、第2トレンチ内には、半導体基板101の裏面側から遮光膜111の材料が埋め込まれてもよい。
 カソード電極121及びアノード電極122の上部は、絶縁膜109の表面(図面中、下面)に突出している。絶縁膜109の表面(図面中、下面)には、例えば、配線層120が設けられている。
 配線層120は、層間絶縁膜123と、層間絶縁膜123中に設けられた配線124とを備える。配線124は、例えば、絶縁膜109の表面(図面中、下面)に突出しているカソード電極121と接触している。なお、図6では省略されているが、配線層120には、アノード電極122と接触する配線も設けられている。
 配線層120の表面(図面中、下面)には、例えば、銅(Cu)製の接続パッド125が露出している。この接続パッド125は、配線124の一部であってもよい。その場合、配線124も銅(Cu)製である。
 配線層120の表面は、回路チップ72における配線層130が接合される。配線層130は、層間絶縁膜131と、層間絶縁膜131中に設けられた配線132とを備える。配線132は、半導体基板141に形成された読出し回路22等の回路素子142と電気的に接続されている。したがって、半導体基板101のカソード電極121は、配線124、接続パッド125及び135、並びに、配線132を介して、図3に示す読出し回路22に接続されている。
 また、配線層130の表面(図面中、上面)には、例えば、銅(Cu)製の接続パッド135が露出している。この接続パッド135を、受光チップ71の配線層120表面に露出している接続パッド125と接合(Cu-Cu接合)することで、受光チップ71と回路チップ72とが電気的及び機械的に接続される。
 この接続パッド135は、配線132の一部であってもよい。その場合、配線132も銅(Cu)製である。
 また、半導体基板101の裏面(図面中、上面)には、ピニング層113と、平坦化膜114とが設けられている。さらに、平坦化膜114上には、SPAD画素20ごとのカラーフィルタ115及びオンチップレンズ116が設けられている。
 ピニング層113は、例えば、所定濃度のアクセプタを含む酸化ハフニウム(HfO)膜や酸化アルミニウム(Al)膜より構成された固定電荷膜である。平坦化膜114は、例えば、酸化シリコン(SiO)や窒化シリコン(SiN)などの絶縁材料で構成された絶縁膜であり、上層のカラーフィルタ115やオンチップレンズ116が形成される面を平坦化するための膜である。
 以上のような構造において、カソードコンタクト107とアノードコンタクト108との間にブレークダウン電圧以上の逆バイアス電圧V_SPADを印加すると、P型半導体領域104とN+型半導体領域106との間の電位差により、光電変換領域102で発生した電荷をN-型半導体領域103へ導く電界が形成される。加えて、P+型半導体領域105とN+型半導体領域106との間のPN接合領域に、進入した電荷を加速してアバランシェ電流を発生させる強電界が形成される。それにより、フォトダイオード21のアバランシェフォトダイオードとしての動作が許可される。
 1.8 アノードコンタクトとカソードコンタクト及び/又はN+型半導体領域との位置関係
 つづいて、本実施形態におけるアノードコンタクト108とカソードコンタクト107及び/又はN+型半導体領域106との位置関係について説明する。
 上述したように、本実施形態では、アノードコンタクト108が、半導体基板101の表面側に形成された第1トレンチの底部に配置される。これにより、本実施形態では、アノードコンタクト108が、カソードコンタクト107及びN+型半導体領域106よりも半導体基板101の表面(図面中、下面)から深い位置に配置される。すなわち、本実施形態では、半導体基板101の表面(図面中、下面)を基準とした場合、アノードコンタクト108の形成位置が、カソードコンタクト107及びN+型半導体領域106の形成位置に対して、高さ方向にずれている。
 言い換えれば、アノードコンタクト108の半導体基板101の表面からの高さは、N+型半導体領域106の半導体基板101の表面からの高さとは異なる。具体例では、アノードコンタクト108の半導体基板101の表面からの高さは、N+型半導体領域106の半導体基板101の表面からの高さよりも高い。
 このように、アノードコンタクト108の形成位置とカソードコンタクト107及びN+型半導体領域106の形成位置とを高さ方向にずらずことで、SPAD画素20の横方向(入射面と平行な方向)のサイズを大きくすることなく、アノードコンタクト108からカソードコンタクト107及び/又はN+型半導体領域106までの距離を長くすることが可能となる。
 それにより、画素サイズを増加させることなくトンネル効果の発生を抑制することが可能となるため、解像度の低下を抑制しつつ安定してアバランシェ増幅を発生させることが可能となる。
 1.9 製造方法
 つづいて、本実施形態に係るイメージセンサ10の製造方法について、図面を参照して詳細に説明する。なお、以下の説明では、受光チップ71の製造方法に着目する。
 図8~図20は、第1の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である。
 本製造方法では、まず、図8に示すように、全体的に低い濃度のドナーを含む半導体基板101における所定の領域にドナー及びアクセプタを適宜イオン注入することで、光電変換領域102を区画するP型半導体領域104の一部(P型半導体領域104a)と、N-型半導体領域103と、P+型半導体領域105と、N+型半導体領域106とを形成する。なお、イオン注入は、例えば、半導体基板101の表面(図面中、上面)から行なわれてよい。また、イオン注入後には、イオン注入時のダメージ回復及び注入されたドーパントのプロファイル改善のためのアニーリングが1回又は複数回に分けて実行されてよい。
 次に、図9に示すように、半導体基板101の表面に、格子状の開口A1を有するマスクM1を形成し、このマスクM1の上から半導体基板101を例えばRIE(Reactive Ion Etching)などの異方性ドライエッチングにより彫り込むことで、隣接するSPAD画素20の境界部分に沿った格子状の第1トレンチT1を形成する。なお、第1トレンチT1の深さは、その底面が少なくともP+型半導体領域105の下面よりも深いレベルに位置し、且つ、P型半導体領域104aに達する深さであってよい。
 なお、第1トレンチT1の半導体基板101表面からの深さが深いほど、アノードコンタクト108からN+型半導体領域106及びカソードコンタクト107までの距離を確保することが好ましい。ただし、第1トレンチT1を深くしすぎると、プロセス精度が悪化して歩留りが低下する可能性がある。したがって、第1トレンチT1の深さは、必要以上のプロセス精度を確保できる範囲内で深く設定されるとよい。
 次に、図10に示すように、マスクM1を除去した後、例えば、スパッタリングやCVD(Chemical Vapor Deposition)法などの成膜技術を用いることで、半導体基板101の表面及び第1トレンチT1の内表面を覆う絶縁膜109Aを形成する。なお、絶縁膜109Aには、酸化シリコン(SiO)や窒化シリコン(SiN)や炭化シリコン(SiC)や酸化アルミニウム(Al)などの絶縁材料を用いることができる。また、絶縁膜109Aは、単層構造であってもよいし、積層構造であってもよい。上述したように、アノード電極122には高電圧の逆バイアス電圧V_SPADが印加されるため、絶縁膜109Aに高い耐圧性能を要求されることに鑑みると、絶縁膜109Aの材料には、酸化シリコン(SiO)などの高い耐圧性能を備える絶縁材料を用いることが好適である。
 次に、図11に示すように、第1トレンチT1内の絶縁膜109A表面が形成するトレンチT11の底面を基板厚方向に彫り込むことで、半導体基板101の表面側から裏面付近にまで達する第2トレンチT2を形成する。なお、第2トレンチT2の形成には、例えば、半導体基板101に対して十分に高い選択比を得られる異方性ドライエッチングを用いることができる。それにより、第1トレンチT1の内側面及び半導体基板101の上面に形成された絶縁膜109Aをマスクとして用いつつ半導体基板101における素子分離部110が形成される格子状の領域をエッチングすることが可能となる。
 次に、図12に示すように、第1トレンチT1内の絶縁膜109Aを例えばウェットエッチングなどの等方性エッチングにより薄膜化することで、第1トレンチT1の底部にP型半導体領域104aの外周部分を露出させる。その際、半導体基板101の表面上の絶縁膜109Aが薄膜化されてもよい。
 次に、図13に示すように、N+型半導体領域106の上方に開口A2を有するマスクM2を絶縁膜109A上に形成し、このマスクM2の上から絶縁膜109Aを例えばRIEなどの異方性ドライエッチングによりエッチングすることで、半導体基板101上面の一部を露出させる開口A3を形成する。
 次に、図14に示すように、マスクM2を除去した後、例えば、CVD法などの成膜技術を用いることで、絶縁膜109A上、開口A3の内側面及び底面、並びに、第1トレンチT1及び第2トレンチT2の内表面を覆う絶縁膜109Bを等方的に形成する。以降の説明では、絶縁膜109Aと絶縁膜109Bとをまとめて、絶縁膜109とする。また、開口A3内の絶縁膜109B表面が形成するトレンチをトレンチT4とし、トレンチT3内の絶縁膜109B表面が形成するトレンチをトレンチT5とする。
 なお、絶縁膜109Bは、省略されてもよい。絶縁膜109Bを省略した場合、その詳細については後述する第1の変形例において触れるが、アノードコンタクト108に加えて、第2トレンチT2内においてもアノード電極122とP型半導体領域104aとを接触させることが可能となるため、低抵抗のコンタクトを実現することが可能となる。
 一方、絶縁膜109Bを形成した場合、後述するコンタクト形成時のイオン注入によって半導体基板101が受けるダメージを低減することが可能となる。
 次に、図15に示すように、N+型半導体領域106の上方に位置するトレンチT4を覆うマスクM3を形成し、このマスクM3及び絶縁膜109の上からアクセプタを高濃度にイオン注入する。その際、マスクM3及び絶縁膜109がマスクとして機能することで、絶縁膜109の膜厚が薄い領域であるトレンチT5の底部、言い換えれば、P型半導体領域104の上部外周(例えば、図7参照)に、高濃度のアクセプタを含むアノードコンタクト108が形成される。
 次に、図16に示すように、マスクM3を除去した後、例えば、格子状に形成されたトレンチT5を覆うマスクM4を形成し、このマスクM4及び絶縁膜109の上からドナーを高濃度にイオン注入する。その際、マスクM4及び絶縁膜109がマスクとして機能することで、絶縁膜109の膜厚が薄い領域であるトレンチT4の底部、言い換えれば、N+型半導体領域106の上に位置する半導体基板101の一部に、高濃度のドナーを含むカソードコンタクト107が形成される。
 なお、アノードコンタクト108及びカソードコンタクト107の形成には、イオン注入法に限定されず、固相拡散やプラズマドーピング等の種々の方法を用いることが可能である。
 次に、図17に示すように、マスクM4を除去した後、例えば、絶縁膜109の表面を全面エッチバックすることで、トレンチT4底部の絶縁膜109を除去してカソードコンタクト107を露出させるとともに、トレンチT5底部の絶縁膜109を除去してアノードコンタクト108を露出させる。
 その際、その詳細については後述する第2の変形例において触れるが、フォトリソグラフィなどを用いて所定の開口パターンを有するマスクを形成しておくことで、絶縁膜109を除去してアノードコンタクト108を露出させる領域を制限してもよい。
 絶縁膜109を全面エッチバックする場合、アノードコンタクト108とアノード電極122との接触面積を確保することが可能となるため、低抵抗のコンタクトを形成することができる。また、アノードコンタクト108とアノード電極122とをP型半導体領域104aの外周を囲むように接触させることが可能となるため、光電変換領域102に均一な電界を形成することが可能となる。
 一方、絶縁膜109を除去する領域を制限する場合、アノードコンタクト108とアノード電極122との接触部分を制御することが可能となるため、光電変換領域102に形成される電界の分布を制御すること等が可能となる。
 なお、本実施形態において、絶縁膜109を薄膜化した後に第2トレンチT2内に残る絶縁膜109は、素子分離部110の絶縁膜112として利用される。
 つづいて、カソードコンタクト107及びアノードコンタクト108の露出した表面に例えばチタニウム(Ti)/窒化チタニウム(TiN)膜を成膜し、その状態で500℃~800℃程度のアニーリングを行なう。それにより、カソードコンタクト107及びアノードコンタクト108それぞれの露出した表面において、シリコン(Si)とチタニウム(Ti)とが反応してチタンシリサイド層が形成される。
 このように、カソードコンタクト107及びアノードコンタクト108の表面(接触面)をシリサイド化することで、カソードコンタクト107とカソード電極121との接触、及び、アノードコンタクト108とアノード電極122との接触をオーミック接触とすることが可能となるため、それらの接続を低抵抗化することが可能となる。それにより、アノードコンタクト108とアノード電極122との接触面積を小さくすることが可能となるため、画素サイズを縮小して解像度を上げることが可能となる。
 なお、Ti/TiN膜の代わりに、Co/TiN膜が用いられてもよい。その場合でも、カソードコンタクト107及びアノードコンタクト108それぞれの表面(接触面)にコバルトシリサイド層が形成されるため、カソードコンタクト107とカソード電極121と、及び、アノードコンタクト108とアノード電極122とをオーミック接触させることが可能となる。
 その他、チタンシリサイドやコバルトシリサイドに代えて、ニッケルシリサイド等、種々のシリサイドを用いることでも、カソードコンタクト107とカソード電極121と、及び、アノードコンタクト108とアノード電極122とをオーミック接触させることが可能である。
 次に、図18に示すように、例えば、リフトオフ法などを用いることで、第1トレンチT1内に遮光膜111を形成するとともに、トレンチT4内にカソードコンタクト107と接触するカソード電極121を形成し、さらに、第2トレンチT2内にアノードコンタクト108と接触するアノード電極122を形成する。
 遮光膜111、カソード電極121及びアノード電極122の材料には、上述したように、タングステン(W)の他、アルミニウム(Al)やアルミニウム合金や銅(Cu)など、可視光や素子ごとに必要な光に対して反射又は吸収する性質を持つ種々の導電材料を用いることが可能である。
 遮光膜111と、カソード電極121及びアノード電極122とに同じ材料を用いた場合、これらを一括に形成することが可能である。一方、遮光膜111と、カソード電極121及びアノード電極122とに異なる材料を用いた場合、先に遮光膜111を形成し、その後、リフトオフ法などを用いて、カソード電極121及びアノード電極122を形成する。
 次に、カソード電極121及びアノード電極122が形成された絶縁膜109上に、カソード電極121に接続された配線124と、アノード電極122に接続された配線126と、層間絶縁膜123とを含む配線層120を形成する。また、層間絶縁膜123の表面に露出する銅(Cu)製の接続パッド125及び127を形成する。
 次に、図19に示すように、半導体基板101を裏面から薄厚化することで、第2トレンチT2内の遮光膜111が半導体基板101の裏面に達するように、第2トレンチT2を貫通させる。半導体基板101の薄厚化には、例えば、CMP(Chemical Mechanical Polishing)などが用いられてよい。
 次に、半導体基板101の裏面全体にアクセプタをイオン注入する。これにより、図20に示すように、光電変換領域102を囲むP型半導体領域104が完成する。
 その後、半導体基板101の裏面に、ピニング層113、平坦化膜114、カラーフィルタ115及びオンチップレンズ116を順次形成することで、イメージセンサ10における受光チップ71が形成される。そして、別途用意した回路チップ72と受光チップ71とを貼り合わせることで、図6に例示したような断面構造を備えるイメージセンサ10が作製される。
 1.10 作用・効果
 以上のように、本実施形態では、アノードコンタクト108の位置とカソードコンタクト107及び/又はN+型半導体領域106の位置とが高さ方向にずらされている。それにより、本実施形態によれば、SPAD画素20の横方向(入射面と平行な方向)のサイズを大きくすることなく、アノードコンタクト108からカソードコンタクト107及び/又はN+型半導体領域106までの距離を長くすることが可能となる。その結果、画素サイズを増加させることなくトンネル効果の発生を抑制することが可能となるため、解像度の低下を抑制しつつ安定してアバランシェ増幅を発生させることが可能となる。
 1.11 変形例
 つづいて、第1の実施形態に係るSPAD画素20の変形例について、幾つか具体例を挙げて説明する。
 1.11.1 第1の変形例
 図21は、第1の変形例に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。
 図21に示すように、第1の変形例に係るSPAD画素20aでは、第1の実施形態において図6等を用いて説明した断面構造と同様の構造において、第2トレンチ(第2トレンチT2に相当)内の絶縁膜112(絶縁膜109Bに相当)が省略されている。
 このように、素子分離部110における絶縁膜112を省略することで、第1の実施形態でも触れたように、アノードコンタクト108に加えて、第2トレンチ内においてもアノード電極122とP型半導体領域104とを接触させることが可能となるため、低抵抗のコンタクトを実現することが可能となる。
 1.11.2 第2の変形例
 図22は、第2の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。なお、図22は、図7と対応する面である。
 図22に示すように、第2の変形例に係るSPAD画素20bは、第1の実施形態において図7等を用いて説明した断面構造と同様の構造において、アノードコンタクト108Aの形成領域が、P型半導体領域104の外周の一部でP型半導体領域104と接触するように制限されている。具体例では、アノードコンタクト108Aの形成領域が、素子分離部110によって区切られた矩形領域の四隅に制限されている。
 このように、アノードコンタクト108Aの形成領域を制限することで、第1の実施形態でも触れたように、アノードコンタクト108とアノード電極122との接触部分を制御することが可能となるため、光電変換領域102に形成される電界の分布を制御すること等が可能となる。
 1.11.3 第3の変形例
 図23は、第3の変形例に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。
 図23に示すように、第3の変形例に係るSPAD画素20cでは、第1の実施形態において図6等を用いて説明した断面構造と同様の構造において、P+型半導体領域105A及びN+型半導体領域106Aが、第1トレンチ内に形成された絶縁膜109に接するまで広がっている。
 このように、P+型半導体領域105A及びN+型半導体領域106Aを第1トレンチで挟まれた領域全体に拡大することで、アバランシェ増幅を発生させる領域を広げることが可能となるため、量子効率を向上することが可能となる。
 また、P+型半導体領域105Aを第1トレンチで挟まれた領域全体に拡大することで、アノードコンタクト108付近で発生した電荷が直接、N+型半導体領域106A又はカソードコンタクト107へ流れ込むことを防止できるため、アバランシェ増幅に寄与しない電荷を低減して量子効率を向上することも可能となる。
 1.11.4 第4の変形例
 図24は、第4の変形例に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。
 図24に示すように、第4の変形例に係るSPAD画素20dでは、第1の実施形態において図6等を用いて説明した断面構造と同様の構造において、第1トレンチが拡径されることで、第1トレンチ内の絶縁膜109Dが少なくともP+型半導体領域105Aと接する程度に広がっている。
 このように、第1トレンチを拡径して絶縁膜109DをP+型半導体領域105Aと接触させることで、アノードコンタクト108付近で発生した電荷が直接、N+型半導体領域106A又はカソードコンタクト107へ流れ込むことを防止できるため、アバランシェ増幅に寄与しない電荷を低減して量子効率を向上することが可能となる。
 1.11.5 第5の変形例
 第5の変形例では、上述した実施形態及びその変形例におけるアノードに対する接続配線について、幾つか例を挙げる。なお、以下の説明では、簡略化のため、第1の実施形態をベースとした場合を例示する。
 図25は、第1の実施形態に係るアノードに対する接続配線の一例を示す図である。図25に示すように、第1の実施形態では、各SPAD画素20アノード電極122に対して、一対一に、逆バイアス電圧V_SPADを印加するための配線152が接続されていた。
 ただし、例えば、図7を参照しても分かるように、アノード電極122は、複数のSPAD画素20間で連続している。例えば、SPADアレイ部11に配列する全てのSPAD画素20で電気的に繋がっている。
 そのため、各SPAD画素20アノード電極122に対して一対一に配線152を設ける構成は必須ではない。
 例えば、図26に例示するように、1つ置きのSPAD画素20に対して配線152を設けたり、図27に例示するように、2つ置きのSPAD画素20に対して配線152を設けたりするなど、配線152の配置を間引きすることも可能である。
 若しくは、図28に例示するように、SPADアレイ部11の最外周に位置するSPAD画素20Zのうちの少なくとも1つに対して配線152を設け、その他のSPAD画素20及び20Zに対しては配線152を設けない構成とすることも可能である。
 このように、配線152を間引きすることで、配線パターンを簡略化することが可能となるため、製造プロセスの簡略化や製造コストの削減等を実現することが可能となる。
 なお、上述した実施形態及びその変形例では、カソードをN型とし、アノードをP型とした場合を例示したが、このような組合せに限定されず、カソードをP型とし、アノードをN型とするなど、種々変形することが可能である。
 2.第2の実施形態
 次に、第2の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 上述した第1の実施形態及びその変形例に係るSPAD画素20、20a、20b、20c及び20dは、カラー画像などの画像データを取得する撮像装置としての電子機器1に限定されず、例えば、物体までの距離を測定する測距装置としての電子機器にも用いることが可能である。
 図29は、第2の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。図29に示すように、SPAD画素220は、第1の実施形態において図6等を用いて説明した断面構造と同様の構造において、カラーフィルタ115が省略された構造を備える。
 このように、SPAD画素220を測距装置としての電子機器に用いた場合でも、第1の実施形態と同様に、アノードコンタクト108の位置とカソードコンタクト107及び/又はN+型半導体領域106の位置とを高さ方向にずらすことで、SPAD画素220の横方向(入射面と平行な方向)のサイズを大きくすることなく、アノードコンタクト108からカソードコンタクト107及び/又はN+型半導体領域106までの距離を長くすることが可能となる。その結果、画素サイズを増加させることなくトンネル効果の発生を抑制することが可能となるため、解像度の低下を抑制しつつ安定してアバランシェ増幅を発生させることが可能となる。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。
 3.第3の実施形態
 次に、第3の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 上述した実施形態及びその変形例では、第2トレンチが半導体基板101を表面側から裏面側まで貫通するFFTI型の素子分離部110を例示したが、上述したように、素子分離部110は、FFTI型に限定されるものではない。
 図30は、第3の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。図30に示すように、SPAD画素320は、第1の実施形態において図6等を用いて説明した断面構造と同様の構造において、FFTI型の素子分離部110がDTI型の素子分離部310に置き換えられた構造を備える。
 DTI型の素子分離部310は、半導体基板101の表面側(図面中、下面側)から裏面に達しない程度に形成された第2トレンチ内に、第2トレンチの内側面及び底面を覆う絶縁膜312と、内表面が絶縁膜312で覆われた第2トレンチ内を埋める遮光膜311とを備える。
 このような素子分離部310は、例えば、第2トレンチを浅く形成したり、厚い半導体基板101を使用したりすることで実現することができる。
 このように、本実施形態によれば、半導体基板101の表面側から形成されたDTI型の素子分離部310が用いられる。これにより、半導体基板101を裏面側から薄厚化する工程を容易化することが可能となる。
 また、半導体基板101の表面側から形成されたDTI型の素子分離部310を用いることで、半導体基板101の裏面側において、P型半導体領域104がSPAD画素320ごとに分離されない構造となる。それにより、P型半導体領域104とアノードコンタクト108との間のコンタクト抵抗のばらつきによるSPAD画素320ごとの電界のかかり方のばらつきが抑制されて、SPAD画素320ごとの電界が平準化されるため、イメージセンサ10の歩留りを向上することも可能となる。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。
 4.第4の実施形態
 次に、第4の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 図31は、第4の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。図31に示すように、SPAD画素420は、例えば、第3の実施形態において図30を用いて説明したSPAD画素320と同様の構成において、第2トレンチの底部にアノードコンタクト408が設けられた構造を備える。
 このような構造によれば、アノード電極122と電気的に連続する遮光膜311が、第2トレンチ底部のアノードコンタクト408を介して、半導体基板101の裏面側で、P型半導体領域104と電気的に接続される。それにより、P型半導体領域104とアノードコンタクト108との間のコンタクト抵抗をより低減できるとともに、コンタクト抵抗のばらつきを抑制することも可能となるため、SPAD画素320ごとの電界のかかり方のばらつきをさらに抑制することが可能となる。その結果、SPAD画素320ごとの電界がさらに平準化されるため、イメージセンサ10の歩留りをより向上することが可能となる。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。
 5.第5の実施形態
 次に、第5の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 上述した第3及び第4の実施形態では、半導体基板101の表面側から形成された第2トレンチ内に設けられたDTI型の素子分離部310を例示した。これに対し、第5の実施形態では、半導体基板101の裏面側から形成された第2トレンチ内に設けられたRDTI型の素子分離部を例示する。
 図32は、第5の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。図32に示すように、SPAD画素520は、例えば、第3の実施形態において図30を用いて説明した断面構造と同様の構造において、FFTI型の素子分離部110がRDTI型の素子分離部510に置き換えられるとともに、アノードコンタクト108がアノードコンタクト508に置き換えられた構造を備える。
 RDTI型の素子分離部510は、半導体基板101裏面側(図面中、上面側)から表面に達しない程度に形成された第2トレンチ内に、第2トレンチの内側面及び底面を覆う絶縁膜512と、内表面が絶縁膜512で覆われた第2トレンチ内を埋める遮光膜511とを備える。
 このような構造によれば、アノード電極122と素子分離部520とが分離されるため、アノード電極122の裏面全体にアノードコンタクト508を形成することが可能となる。それにより、P型半導体領域104とアノードコンタクト108との間のコンタクト抵抗をより低減することが可能となるため、より特性の良好なSPAD画素520を実現することが可能となる。
 また、第2トレンチを半導体基板101の裏面側から形成することが可能であるため、例えば、第3又は第4の実施形態に係るDTI型の素子分離部310を形成する場合と比較して、素子分離部520の形成工程を容易化することが可能となる。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。
 6.第6の実施形態
 次に、第6の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 上述した実施形態及びその変形例では、例えば、ベイヤー配列のカラーフィルタアレイ60を構成する1つのカラーフィルタ115R、115G又は115Bに対して、1つのフォトダイオード21を設けた場合を例示した。ただし、アバランシェフォトダイオードを用いてフォトンカウンティングを行なう場合、一回のアバランシェ増幅時に複数のフォトンが1つのフォトダイオード21に入射したとしても、そのフォトンの入射は一回分としてカウントされる。そのため、入射したフォトンの数をより正確にカウントするためには、1つのフォトダイオードが占める面積を小さくする方が好適である。また、照度が高い場合には、1つのフォトダイオードが占める面積を小さくすることで、各SPAD画素20のダイナミックレンジを拡大することが可能である。
 そこで第6の実施形態では、図33に例示するように、SPAD画素20R、20G及び20B(以下、SPAD画素20R、20G及び20Bを区別しない場合、その符号を20とする)をそれぞれ複数(本例では、2×2画素の4つ)のSPAD画素620R、620G又は620B(以下、SPAD画素620R、620G及び620Bを区別しない場合、その符号を620とする)に分割する。若しくは、複数のSPAD画素620、620G又は620Bで1つのカラーフィルタ115R、115G又は115Bを共有する。
 このように、1つのSPAD画素20を複数のSPAD画素620に分割することで、1つのSPAD画素620あたりの面積を縮小することが可能となるため、入射したフォトンの数をより正確にカウントすることが可能となる。また、1つのフォトダイオードが占める面積が縮小されるため、各SPAD画素20のダイナミックレンジを拡大することも可能となる。
 なお、図34に例示するように、1つのSPAD画素20を分割したSPAD画素620間には、素子分離部110を設けなくてもよい。その場合、素子分離部110の代わりに、P型半導体領域104がSPAD画素620間に配置されてよい。それにより、素子分離部110を設ける場合と比較して画素ピッチを縮小することが可能となるため、イメージセンサ10をより小型化することが可能となる。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。
 7.第7の実施形態
 次に、第7の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 上述した第6の実施形態では、1つのSPAD画素20から分割した複数のSPAD画素620間にP型半導体領域104を配置した場合を例示したが、このような構造に限定されない。
 例えば、図35に例示するように、隣接するSPAD画素620にトレンチを設け、このトレンチ内を絶縁膜710で埋め込んだ構造とすることも可能である。
 このような構造によれば、隣接するSPAD画素620間での光のクロストークを抑制することが可能となるため、入射したフォトンの数をより正確にカウントすることが可能となる。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。
 8.第8の実施形態
 次に、第8の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 上述した実施形態及びその変形例における素子分離部110及び510は、図36に例示するように、半導体基板101に限られず、例えば、カラーフィルタ115上まで貫通していてもよい。
 このように、素子分離部110がカラーフィルタ115を貫通してその上部に突出している構造とすることで、隣接するSPAD画素20間のクロストークを低減することが可能となる。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。
 9.第9の実施形態
 次に、第9の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 上述した実施形態及びその変形例では、例えばアノードコンタクト108が第1トレンチT1と第2トレンチT2との段差部に設けられる。第9の実施形態では、このような構造において、アノードコンタクトとアノード電極との接触面積を増大させる構成について説明する。
 9.1 SPAD画素の断面構造例
 図37は、第9の実施形態に係るSPAD画素の光入射面と垂直な面の断面構造例を示す垂直断面図である。図38は、図37におけるA-A面の断面構造例を示す水平断面図である。
 なお、図37及び図38では、この後の説明の便宜上、光電変換領域102とP型半導体領域104との境界を、これまでの図面とは若干異ならせている。例えば、光電変換領域102の上面、つまり、半導体基板101の表面(図面中、下面)側に向いた面を、第1トレンチの底部と同じ高さに描いている。また、P型半導体領域104の側面を、アノードコンタクト908の内側の端部よりも更に内側に描いている。
 図37に示すように、第9の実施形態に係るSPAD画素920が備えるアノード電極922の下端部は、半導体基板101の表面に対して水平ではなく傾斜している。より具体的には、アノード電極922の下端部は、アノード電極922の幅方向の端部から、第2トレンチ内の遮光膜111が接続される中央部へ向かうにつれて、半導体基板101の深さ方向、つまり、第2トレンチ側へと傾斜している。このため、アノード電極922の幅方向の端部から半導体基板101の表面までの距離より、アノード電極922の幅方向の中央部から半導体基板101の表面までの距離の方が遠くなっている。
 また、第1トレンチと第2トレンチとの段差部に設けられるアノードコンタクト908は、アノード電極922の傾斜した下端部に接触する。つまり、アノードコンタクト908とアノード電極922とは傾斜した接触面を有する。これにより、例えば第1の実施形態のSPAD画素20のように、アノードコンタクト108とアノード電極122との接触面が半導体基板101の表面に対して水平である場合よりも、アノードコンタクト908とアノード電極922との接触面積が大きくなる。
 このような構造を得るには、例えば以下の製造方法を採ることができる。
 図39は、第9の実施形態に係る固体撮像装置の製造方法を示すプロセス断面図である。図39に示すように、第9の実施形態では、第1の実施形態において図17を用いて説明した断面構造と同様の製造段階において、トレンチT5の底部の第2トレンチT2との接続部T5sが傾斜を有する構造を備える。
 より具体的には、図39が示す断面構造は、絶縁膜109の上からトレンチT5の底部にアクセプタを高濃度にイオン注入した後、絶縁膜109の表面を全面エッチバックすることで、トレンチT5底部の絶縁膜109を除去した状態を示している。このとき、絶縁膜109のエッチバックを、例えば第1の実施形態における場合よりも長く行うことで、直角に近い角度で突出していた第2トレンチT2との接続部を肩落ちさせて、トレンチT5底部の一部を傾斜させるとともに、アノードコンタクト908を露出させることができる。
 その後、トレンチT5内に導電材料を充填することで、側面が絶縁膜109に覆われた第1トレンチT1内に、アノードコンタクト908と傾斜面で接触するアノード電極922を形成することができる。
 9.2 作用・効果
 以上のように、本実施形態では、アノードコンタクト908とアノード電極922とが接する面が、半導体基板101の表面に対して傾斜している。これにより、本実施形態によれば、アノードコンタクト908とアノード電極922との接触面積を大きくとって、コンタクト抵抗を下げることが可能である。
 フォトダイオードに光が照射されると、アノードコンタクトとアノード電極とには大きな電流が流れる。このとき、アノードコンタクトにおけるコンタクト抵抗が高いと電圧降下が起きてしまう。
 本実施形態では、このような電圧降下を抑制することができ、PDEを向上させることが可能である。また、降下した電圧を補うために電圧値を上げる必要が無いので、固体撮像装置の低電力化を図ることが可能である。なお、フォトダイオードの微細化が進行すれば、コンタクト抵抗低減の効果が更に高まることが期待される。
 9.3 変形例
 つづいて、第9の実施形態に係るSPAD画素920の変形例について、幾つか具体例を挙げて説明する。
 変形例に係るSPAD画素においては、第1トレンチ及び第2トレンチが、迂曲した経路を取りつつ素子領域を囲むように延伸している。つまり、フォトダイオード21がグリッド状に配置される本例においては、第1トレンチ及び第2トレンチの一辺の長さが、フォトダイオード21のピッチよりも長くなる。
 このように、素子領域を囲む第1トレンチ及び第2トレンチが、延伸方向において冗長性を有することで、アノードコンタクトとアノード電極との接触面積を増大させることができる。
 9.3.1 第1の変形例
 図40は、第9の実施形態の第1の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。なお、図40は、図38と対応する面である。
 図40に示すように、第1の変形例に係るSPAD画素920aは、第9の実施形態において図38等を用いて説明した断面構造と同様の構造において、各辺の延伸方向においてジグザグ形状を有する第1トレンチT1aを備える。そして、第1トレンチT1aの底部に沿って設けられる第2トレンチもまた、各辺の延伸方向においてジグザグ形状を有する。
 第1トレンチT1a内に設けられるアノード電極922aは、第1トレンチT1aに沿って、各辺の延伸方向においてジグザグ形状を有する。そして、第2トレンチ内に設けられる遮光膜もまた、各辺の延伸方向においてジグザグ形状を有する。
 アノードコンタクト908aは、アノード電極922aに沿って各辺の延伸方向においてジグザグ形状を有し、アノード電極922aと接触する。これにより、例えば第9の実施形態のSPAD画素920のように、第1トレンチの一辺が直線状である場合よりも、第1トレンチT1aの一辺あたりの延伸距離が長くなり、アノードコンタクト908aとアノード電極922aとの接触面積を大きくすることができる。
 9.3.2 第2の変形例
 図41は、第9の実施形態の第2の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。なお、図41は、図38と対応する面である。
 図41に示すように、第2の変形例に係るSPAD画素920bは、第9の実施形態において図38等を用いて説明した断面構造と同様の構造において、各辺の延伸方向においてクランク形状を有する第1トレンチT1bを備える。そして、第1トレンチT1bの底部に沿って設けられる第2トレンチもまた、各辺の延伸方向においてクランク形状を有する。
 第1トレンチT1b内に設けられるアノード電極922bは、第1トレンチT1bに沿って、各辺の延伸方向においてクランク形状を有する。そして、第2トレンチ内に設けられる遮光膜もまた、各辺の延伸方向においてクランク形状を有する。
 アノードコンタクト908bは、アノード電極922bに沿って各辺の延伸方向においてクランク形状を有し、アノード電極922bと接触する。これにより、例えば第9の実施形態のSPAD画素920のように、第1トレンチの一辺が直線状である場合よりも、第1トレンチT1bの一辺あたりの延伸距離が長くなり、アノードコンタクト908bとアノード電極922bとの接触面積を大きくすることができる。
 9.3.3 第3の変形例
 図42は、第9の実施形態の第3の変形例に係るSPAD画素の光入射面と並行な面の断面構造例を示す水平断面図である。なお、図42は、図38と対応する面である。
 図42に示すように、第3の変形例に係るSPAD画素920cは、第9の実施形態において図38等を用いて説明した断面構造と同様の構造において、第1の変形例と同様、各辺の延伸方向においてジグザグ形状の第1トレンチT1a、アノード電極922a、アノードコンタクト908aを備える。そして、第2トレンチ及び遮光膜もまた、第1の変形例と同様、各辺の延伸方向においてジグザグ形状を有する。
 P型半導体領域904cは、アノードコンタクト908aに沿って各辺の延伸方向においてジグザグ形状を有し、アノードコンタクト908aと接触する。これにより、例えば第1の変形例に係るSPAD画素920aのように、P型半導体領域の一辺が直線状である場合よりも、光に対する感度領域である光電変換領域102の有効領域を増やすことができる。
 以上のように、第1~第3の変形例においては、少なくともアノードコンタクトとアノード電極とが、各辺の延伸方向においてジグザグ形状またはクランク形状を有する場合について説明した。しかし、アノードコンタクト及びアノード電極の距離を長くとってこれらの接触面積を大きくすることができれば、アノードコンタクト及びアノード電極は、蛇行形状、波型形状等のその他の形状を有していてもよい。
 また、上記においては、第1~第3の変形例の構成を第9の実施形態の構成、つまり、アノードコンタクト908とアノード電極922とが傾斜面で接触する構成に適用することとしたが、これに限られない。第1~第3の変形例の構成を、例えば第1の実施形態の構成のように、アノードコンタクト108とアノード電極122との接触面が水平である構成に適用してもよい。
 また例えば、第1の実施形態の第1の変形例の構成では、第2トレンチ内に絶縁膜112が形成されず、アノードコンタクト108は、例えば導電材料で形成される遮光膜111とも接触している。このような構成に第1~第3の変形例の構成を適用すれば、アノードコンタクトとアノード電極との接触面積に、アノードコンタクトと遮光膜との接触面積が加わって、コンタクト抵抗を更に下げることができる。その際、アノードコンタクトとアノード電極との接触面が水平であると、アノードコンタクトとアノード電極との接触面積は小さくなるが、アノードコンタクトと遮光膜との接触面積は大きくなる。そこで、アノードコンタクトとアノード電極および遮光膜との接触面積がより大きくなるよう、アノードコンタクトとアノード電極との接触面が水平である構成、または、傾斜している構成のいずれかを、適宜、選択すればよい。
 10.電子機器への適用例
 上述した固体撮像素子は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図43は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図43に示される撮像装置8201は、光学系8202、シャッタ装置8203、固体撮像素子8204、駆動回路8205、信号処理回路8206、モニタ8207、およびメモリ8208を備えて構成され、静止画像および動画像を撮像可能である。
 光学系8202は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像素子8204に導き、固体撮像素子8204の受光面に結像させる。
 シャッタ装置8203は、光学系8202および固体撮像素子8204の間に配置され、駆動回路1005の制御に従って、固体撮像素子8204への光照射期間および遮光期間を制御する。
 固体撮像素子8204は、上述した固体撮像素子を含むパッケージにより構成される。固体撮像素子8204は、光学系8202およびシャッタ装置8203を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子8204に蓄積された信号電荷は、駆動回路8205から供給される駆動信号(タイミング信号)に従って転送される。
 駆動回路8205は、固体撮像素子8204の転送動作、および、シャッタ装置8203のシャッタ動作を制御する駆動信号を出力して、固体撮像素子8204およびシャッタ装置8203を駆動する。
 信号処理回路8206は、固体撮像素子8204から出力された信号電荷に対して各種の信号処理を施す。信号処理回路8206が信号処理を施すことにより得られた画像(画像データ)は、モニタ8207に供給されて表示されたり、メモリ8208に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置8201においても、上述した固体撮像素子8204に代えて、固体撮像素子1を適用することにより、全画素で低ノイズによる撮像を実現させることが可能となる。
 11.移動体への応用例
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図44は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図44に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図44では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図45は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図45には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図44に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図44の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図44に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、図1を用いて説明した本実施形態に係る電子機器1の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、図1を用いて説明した本実施形態に係る電子機器1は、図44に示した応用例の統合制御ユニット7600に適用することができる。例えば、電子機器1の記憶部40及びプロセッサ50は、統合制御ユニット7600のマイクロコンピュータ7610、記憶部7690、車載ネットワークI/F7680に相当する。ただし、これに限定されず、車両制御システム7000が図1におけるホスト80に相当してもよい。
 また、図1を用いて説明した本実施形態に係る電子機器1の少なくとも一部の構成要素は、図44に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1を用いて説明した本実施形態に係る電子機器1が、図44に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
 12.内視鏡手術システムへの応用例
 また、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図46は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図46では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図47は、図46に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102の撮像部11402等に適用され得る。撮像部11402等に本開示に係る技術を適用することにより、解像度の低下を抑制しつつ高輝度の画像データを取得することが可能となる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
13.付記
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
 前記半導体基板に設けられた光電変換素子と、を備え、
 前記光電変換素子は、
 前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
 前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
 前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
 前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
 前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
 前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
 前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
 前記第2コンタクトと接する第2電極と、を備え、
 前記第1コンタクトと前記第1電極とが接する第2面は、前記第1面に対して傾斜している、
固体撮像装置。
(2)
 前記第2面は、前記第1電極の幅方向の端部から中央部へ向かうにつれて前記第2トレンチ側へと傾斜している、
前記(1)に記載の固体撮像装置。
(3)
 前記第1トレンチ及び前記第2トレンチは、迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
前記(1)または(2)に記載の固体撮像装置。
(4)
 前記第1コンタクトの前記第1面からの距離は、前記第3半導体領域の前記第1面からの距離よりも長い、
前記(1)~(3)のいずれかに記載の固体撮像装置。
(5)
 前記第1コンタクトは、前記第1半導体領域の外周を囲むように前記第1半導体領域と接する、
前記(1)~(4)のいずれかに記載の固体撮像装置。
(6)
 前記第2トレンチの内部に設けられた遮光膜をさらに備える、
前記(1)~(5)のいずれかに記載の固体撮像装置。
(7)
 前記遮光膜は、前記第1電極と同じ材料である、
前記(6)に記載の固体撮像装置。
(8)
 前記遮光膜と前記第1半導体領域との間に設けられた絶縁膜をさらに備える、
前記(6)または(7)に記載の固体撮像装置。
(9)
 第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
 前記半導体基板に設けられた光電変換素子と、を備え、
 前記光電変換素子は、
 前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
 前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
 前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
 前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
 前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
 前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
 前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
 前記第2コンタクトと接する第2電極と、を備え、
 前記第1トレンチ及び前記第2トレンチは、迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
固体撮像装置。
(10)
 前記第1トレンチ及び前記第2トレンチは、延伸方向においてジグザグ形状、クランク形状、及び蛇行形状の少なくともいずれかの形状を有する、
前記(9)に記載の固体撮像装置。
(11)
 前記第1電極は、前記第1トレンチに沿って迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
前記(9)または(10)に記載の固体撮像装置。
(12)
 前記第1コンタクトは、前記第1電極に沿って迂曲した経路を取りつつ前記第1半導体領域の外周を囲むように延伸して、前記第1電極と接する、
前記(11)に記載の固体撮像装置。
(13)
 前記第1半導体領域は、前記第1コンタクトに沿って迂曲した経路を取りつつ前記光電変換領域を囲むように延伸して、前記第1コンタクトと接する、
前記(12)に記載の固体撮像装置。
(14)
 前記光電変換素子は複数あって、
 前記複数の光電変換素子はグリッド状に配置され、
 前記複数の光電変換素子のピッチは、第1方向および前記第1方向に直交する第2方向において等しく、
 前記素子領域を囲む前記第1トレンチ及び前記第2トレンチの一辺の長さは、前記複数の光電変換素子のピッチよりも長い、
前記(9)~(13)のいずれかに記載の固体撮像装置。
(15)
 前記第2トレンチの内部に設けられた遮光膜をさらに備える、
前記(9)~(14)のいずれかに記載の固体撮像装置。
(16)
 前記遮光膜は、前記第1電極と同じ材料である、
前記(15)に記載の固体撮像装置。
(17)
 前記遮光膜は、前記第1半導体領域と接する、
前記(15)または(16)に記載の固体撮像装置。
(18)
 前記遮光膜と前記第1半導体領域との間に設けられた絶縁膜をさらに備える、
前記(15)または(16)に記載の固体撮像装置。
(19)
 固体撮像装置と、
 入射光を前記固体撮像装置の受光面に結像する光学系と、
 前記固体撮像装置を制御するプロセッサと、を備え、
 前記固体撮像装置は、
 第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
 前記半導体基板に設けられた光電変換素子と、を備え、
 前記光電変換素子は、
 前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
 前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
 前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
 前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
 前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
 前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
 前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
 前記第2コンタクトと接する第2電極と、を備え、
 前記第1コンタクトと前記第1電極とが接する第2面は、前記第1面に対して傾斜している、
電子機器。
(20)
 固体撮像装置と、
 入射光を前記固体撮像装置の受光面に結像する光学系と、
 前記固体撮像装置を制御するプロセッサと、を備え、
 前記固体撮像装置は、
 第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
 前記半導体基板に設けられた光電変換素子と、を備え、
 前記光電変換素子は、
 前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
 前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
 前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
 前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
 前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
 前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
 前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
 前記第2コンタクトと接する第2電極と、を備え、
 前記第1トレンチ及び前記第2トレンチは、迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
電子機器。
 1 電子機器
 10 固体撮像装置
 11 SPADアレイ部
 12 駆動回路
 13 出力回路
 15 タイミング制御回路
 20、20a、20b、20c、20d、220、20B、20G、20R、620B、620G、620R、920、920a、920b、920c SPAD画素
 21 フォトダイオード
 22 読出し回路
 23 クエンチ抵抗
 24 選択トランジスタ
 25 デジタル変換器
 251 抵抗
 26 インバータ
 27 バッファ
 30 撮像レンズ
 40 記憶部
 50 プロセッサ
 60 カラーフィルタアレイ
 61 単位パターン
 71 受光チップ
 72 回路チップ
 101、141 半導体基板
 102 光電変換領域
 103 N-型半導体領域
 104、104a、904c P型半導体領域
 105、105A P+型半導体領域
 106、106A N+型半導体領域
 107 カソードコンタクト
 108、108A、408、508、908、908a、908b アノードコンタクト
 109、109A、109B、109D 絶縁膜
 110、310、510 素子分離部
 111、311、511 遮光膜
 112、312、512、710 絶縁膜
 113 ピニング層
 114 平坦化膜
 115、115R、115G、115B カラーフィルタ
 116 オンチップレンズ
 120、130 配線層
 121 カソード電極
 122、922、922a、922b アノード電極
 123、131 層間絶縁膜
 124、132 配線
 125、135 接続パッド
 142 回路素子
 252、262 NMOSトランジスタ
 261 PMOSトランジスタ
 A1、A2、A3 開口
 LD 画素駆動線
 LS 出力信号線
 M1、M2、M3、M4 マスク
 T1、T1a、T1b 第1トレンチ
 T2 第2トレンチ
 T3、T4、T5、T11 トレンチ

Claims (20)

  1.  第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
     前記半導体基板に設けられた光電変換素子と、を備え、
     前記光電変換素子は、
     前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
     前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
     前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
     前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
     前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
     前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
     前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
     前記第2コンタクトと接する第2電極と、を備え、
     前記第1コンタクトと前記第1電極とが接する第2面は、前記第1面に対して傾斜している、
    固体撮像装置。
  2.  前記第2面は、前記第1電極の幅方向の端部から中央部へ向かうにつれて前記第2トレンチ側へと傾斜している、
    請求項1に記載の固体撮像装置。
  3.  前記第1トレンチ及び前記第2トレンチは、迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
    請求項1に記載の固体撮像装置。
  4.  前記第1コンタクトの前記第1面からの距離は、前記第3半導体領域の前記第1面からの距離よりも長い、
    請求項1に記載の固体撮像装置。
  5.  前記第1コンタクトは、前記第1半導体領域の外周を囲むように前記第1半導体領域と接する、
    請求項1に記載の固体撮像装置。
  6.  前記第2トレンチの内部に設けられた遮光膜をさらに備える、
    請求項1に記載の固体撮像装置。
  7.  前記遮光膜は、前記第1電極と同じ材料である、
    請求項6に記載の固体撮像装置。
  8.  前記遮光膜と前記第1半導体領域との間に設けられた絶縁膜をさらに備える、
    請求項6に記載の固体撮像装置。
  9.  第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
     前記半導体基板に設けられた光電変換素子と、を備え、
     前記光電変換素子は、
     前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
     前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
     前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
     前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
     前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
     前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
     前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
     前記第2コンタクトと接する第2電極と、を備え、
     前記第1トレンチ及び前記第2トレンチは、迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
    固体撮像装置。
  10.  前記第1トレンチ及び前記第2トレンチは、延伸方向においてジグザグ形状、クランク形状、及び蛇行形状の少なくともいずれかの形状を有する、
    請求項9に記載の固体撮像装置。
  11.  前記第1電極は、前記第1トレンチに沿って迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
    請求項9に記載の固体撮像装置。
  12.  前記第1コンタクトは、前記第1電極に沿って迂曲した経路を取りつつ前記第1半導体領域の外周を囲むように延伸して、前記第1電極と接する、
    請求項11に記載の固体撮像装置。
  13.  前記第1半導体領域は、前記第1コンタクトに沿って迂曲した経路を取りつつ前記光電変換領域を囲むように延伸して、前記第1コンタクトと接する、
    請求項12に記載の固体撮像装置。
  14.  前記光電変換素子は複数あって、
     前記複数の光電変換素子はグリッド状に配置され、
     前記複数の光電変換素子のピッチは、第1方向および前記第1方向に直交する第2方向において等しく、
     前記素子領域を囲む前記第1トレンチ及び前記第2トレンチの一辺の長さは、前記複数の光電変換素子のピッチよりも長い、
    請求項9に記載の固体撮像装置。
  15.  前記第2トレンチの内部に設けられた遮光膜をさらに備える、
    請求項9に記載の固体撮像装置。
  16.  前記遮光膜は、前記第1電極と同じ材料である、
    請求項15に記載の固体撮像装置。
  17.  前記遮光膜は、前記第1半導体領域と接する、
    請求項15に記載の固体撮像装置。
  18.  前記遮光膜と前記第1半導体領域との間に設けられた絶縁膜をさらに備える、
    請求項15に記載の固体撮像装置。
  19.  固体撮像装置と、
     入射光を前記固体撮像装置の受光面に結像する光学系と、
     前記固体撮像装置を制御するプロセッサと、を備え、
     前記固体撮像装置は、
     第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
     前記半導体基板に設けられた光電変換素子と、を備え、
     前記光電変換素子は、
     前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
     前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
     前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
     前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
     前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
     前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
     前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
     前記第2コンタクトと接する第2電極と、を備え、
     前記第1コンタクトと前記第1電極とが接する第2面は、前記第1面に対して傾斜している、
    電子機器。
  20.  固体撮像装置と、
     入射光を前記固体撮像装置の受光面に結像する光学系と、
     前記固体撮像装置を制御するプロセッサと、を備え、
     前記固体撮像装置は、
     第1面に設けられた第1トレンチと、前記第1トレンチの底部に沿って設けられた第2トレンチとを備える半導体基板と、
     前記半導体基板に設けられた光電変換素子と、を備え、
     前記光電変換素子は、
     前記半導体基板における前記第1トレンチ及び前記第2トレンチで区画された素子領域内に設けられ、入射光を光電変換して電荷を発生させる光電変換領域と、
     前記素子領域内において前記光電変換領域を囲む第1半導体領域と、
     前記第1トレンチの底部で前記第1半導体領域と接する第1コンタクトと、
     前記第1トレンチ内で前記第1コンタクトと接する第1電極と、
     前記素子領域内であって前記第1半導体領域と接する領域に設けられ、前記第1半導体領域と同じ第1導電型を備える第2半導体領域と、
     前記素子領域内における前記第2半導体領域と接する領域であって前記第2半導体領域と前記第1面との間に設けられ、前記第1導電型と反対の第2導電型を備える第3半導体領域と、
     前記第3半導体領域と接するように前記第1面に設けられた第2コンタクトと、
     前記第2コンタクトと接する第2電極と、を備え、
     前記第1トレンチ及び前記第2トレンチは、迂曲した経路を取りつつ前記素子領域を囲むように延伸する、
    電子機器。
PCT/JP2020/041789 2019-11-19 2020-11-10 固体撮像装置及び電子機器 WO2021100528A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080074083.2A CN114616670A (zh) 2019-11-19 2020-11-10 固态摄像装置和电子设备
JP2021558304A JPWO2021100528A1 (ja) 2019-11-19 2020-11-10
US17/775,843 US20220392944A1 (en) 2019-11-19 2020-11-10 Solid-state image sensor and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019208998 2019-11-19
JP2019-208998 2019-11-19

Publications (1)

Publication Number Publication Date
WO2021100528A1 true WO2021100528A1 (ja) 2021-05-27

Family

ID=75980673

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/041789 WO2021100528A1 (ja) 2019-11-19 2020-11-10 固体撮像装置及び電子機器

Country Status (5)

Country Link
US (1) US20220392944A1 (ja)
JP (1) JPWO2021100528A1 (ja)
CN (1) CN114616670A (ja)
TW (1) TW202125795A (ja)
WO (1) WO2021100528A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013137A1 (ja) * 2021-08-03 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及びその製造方法、電子機器
GB2613061A (en) * 2021-09-22 2023-05-24 Canon Kk Photoelectric conversion apparatus

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441086B2 (ja) * 2020-03-23 2024-02-29 株式会社東芝 光検出器、光検出システム、ライダー装置、及び車
US20220093667A1 (en) * 2020-09-23 2022-03-24 Semiconductor Components Industries, Llc Global shutter sensor systems and related methods
FR3143855A1 (fr) * 2022-12-20 2024-06-21 Stmicroelectronics International N.V. Photodiode à avalanche
CN115831997B (zh) * 2023-01-10 2023-06-02 合肥晶合集成电路股份有限公司 一种背照式图像传感器及其制备方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261671A (ja) * 1996-03-27 1997-10-03 Toshiba Corp 積層型固体撮像装置及びそれを用いたカラーカメラ
JP2012178457A (ja) * 2011-02-25 2012-09-13 Sony Corp 固体撮像装置、および、その製造方法、電子機器
WO2017187957A1 (ja) * 2016-04-25 2017-11-02 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
WO2018139279A1 (ja) * 2017-01-30 2018-08-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および電子機器
WO2018174090A1 (ja) * 2017-03-22 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び信号処理装置
WO2018212175A1 (ja) * 2017-05-15 2018-11-22 ソニーセミコンダクタソリューションズ株式会社 光電変換素子および撮像素子
JP2018201005A (ja) * 2016-10-18 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 光検出器
US10204950B1 (en) * 2017-09-29 2019-02-12 Taiwan Semiconductor Manufacturing Company Ltd. SPAD image sensor and associated fabricating method
WO2019098035A1 (ja) * 2017-11-15 2019-05-23 ソニーセミコンダクタソリューションズ株式会社 光検出素子およびその製造方法
JP2020149937A (ja) * 2019-03-15 2020-09-17 株式会社半導体エネルギー研究所 二次電池の作製方法、保護回路の動作確認システム、及びマイクロショートを意図的に発生させる二次電池

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261671A (ja) * 1996-03-27 1997-10-03 Toshiba Corp 積層型固体撮像装置及びそれを用いたカラーカメラ
JP2012178457A (ja) * 2011-02-25 2012-09-13 Sony Corp 固体撮像装置、および、その製造方法、電子機器
WO2017187957A1 (ja) * 2016-04-25 2017-11-02 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
JP2018201005A (ja) * 2016-10-18 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 光検出器
WO2018139279A1 (ja) * 2017-01-30 2018-08-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および電子機器
WO2018174090A1 (ja) * 2017-03-22 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び信号処理装置
WO2018212175A1 (ja) * 2017-05-15 2018-11-22 ソニーセミコンダクタソリューションズ株式会社 光電変換素子および撮像素子
US10204950B1 (en) * 2017-09-29 2019-02-12 Taiwan Semiconductor Manufacturing Company Ltd. SPAD image sensor and associated fabricating method
WO2019098035A1 (ja) * 2017-11-15 2019-05-23 ソニーセミコンダクタソリューションズ株式会社 光検出素子およびその製造方法
JP2020149937A (ja) * 2019-03-15 2020-09-17 株式会社半導体エネルギー研究所 二次電池の作製方法、保護回路の動作確認システム、及びマイクロショートを意図的に発生させる二次電池

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013137A1 (ja) * 2021-08-03 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及びその製造方法、電子機器
GB2613061A (en) * 2021-09-22 2023-05-24 Canon Kk Photoelectric conversion apparatus

Also Published As

Publication number Publication date
JPWO2021100528A1 (ja) 2021-05-27
CN114616670A (zh) 2022-06-10
US20220392944A1 (en) 2022-12-08
TW202125795A (zh) 2021-07-01

Similar Documents

Publication Publication Date Title
WO2020203222A1 (ja) 固体撮像装置及び電子機器
KR102566061B1 (ko) 촬상 장치 및 신호 처리 장치
WO2021100528A1 (ja) 固体撮像装置及び電子機器
US20230033933A1 (en) Imaging element having p-type and n-type solid phase diffusion layers formed in a side wall of an interpixel light shielding wall
US11985443B2 (en) Solid-state image sensor
WO2018194030A1 (ja) 半導体素子およびその製造方法、並びに電子機器
US20220367558A1 (en) Semiconductor apparatus and method for manufacturing the same
KR102607473B1 (ko) 고체 촬상 소자, 고체 촬상 소자의 제조 방법 및 전자 기기
WO2022065131A1 (ja) 固体撮像装置、電子機器および固体撮像装置の製造方法
US20230143387A1 (en) Distance measuring system
US20220262832A1 (en) Semiconductor device and imaging device
US20220367539A1 (en) Imaging device
WO2023047632A1 (ja) 撮像装置及び電子機器
WO2023042462A1 (ja) 光検出装置、光検出装置の製造方法、及び電子機器
WO2023210238A1 (ja) 光検出装置及び電子機器
WO2022209365A1 (ja) 撮像装置、撮像装置の製造方法、及び、電子機器
WO2024142627A1 (en) Photodetector and electronic apparatus
WO2024095751A1 (ja) 光検出装置及び電子機器
JP2022047438A (ja) 固体撮像装置及び電子機器
WO2020059495A1 (ja) 撮像素子、半導体素子および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20888968

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021558304

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20888968

Country of ref document: EP

Kind code of ref document: A1