WO2021240988A1 - 測距装置 - Google Patents

測距装置 Download PDF

Info

Publication number
WO2021240988A1
WO2021240988A1 PCT/JP2021/013695 JP2021013695W WO2021240988A1 WO 2021240988 A1 WO2021240988 A1 WO 2021240988A1 JP 2021013695 W JP2021013695 W JP 2021013695W WO 2021240988 A1 WO2021240988 A1 WO 2021240988A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor layer
waveguide
photoelectric conversion
distance measuring
unit
Prior art date
Application number
PCT/JP2021/013695
Other languages
English (en)
French (fr)
Inventor
陽太郎 安
芳樹 蛯子
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202180029439.5A priority Critical patent/CN115428155A/zh
Priority to KR1020227038198A priority patent/KR20230015326A/ko
Priority to JP2022527538A priority patent/JPWO2021240988A1/ja
Priority to US17/998,551 priority patent/US20230204773A1/en
Priority to EP21813132.4A priority patent/EP4160686A4/en
Publication of WO2021240988A1 publication Critical patent/WO2021240988A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/1461Pixel-elements with integrated switching, control, storage or amplification elements characterised by the photosensitive area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/1443Devices controlled by radiation with at least one potential jump or surface barrier
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/1446Devices controlled by radiation in a repetitive configuration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0224Electrodes
    • H01L31/022408Electrodes for devices characterised by at least one potential jump barrier or surface barrier
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0232Optical elements or arrangements associated with the device
    • H01L31/02327Optical elements or arrangements associated with the device the optical elements being integrated or being directly associated to the device, e.g. back reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • H01L31/16Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the semiconductor device sensitive to radiation being controlled by the light source or sources
    • H01L31/165Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the semiconductor device sensitive to radiation being controlled by the light source or sources the semiconductor sensitive to radiation being characterised by at least one potential-jump or surface barrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures

Definitions

  • This disclosure relates to a distance measuring device.
  • a distance measuring device using an indirect ToF (indirect Time of Flight: iToF) method has been developed.
  • the indirect ToF distance measuring device indirectly calculates the distance from the distance measuring device to the object based on the phase difference between the irradiation light and the reflected light.
  • the distance measuring device using the conventional indirect ToF method has a photodiode in the silicon substrate, and it is not possible to obtain sufficient quantum efficiency Qe (sensitivity). Further, in a distance measuring device using a silicon substrate having a high infrared transmittance, it is necessary to make the silicon substrate a thick film in order to increase the quantum efficiency. However, if the silicon substrate is made thick, it becomes difficult to electrically or optically separate the adjacent pixels, and there is also a problem that the SNR (Signal-to-Noise Ratio) is deteriorated and the resolution is lowered.
  • SNR Signal-to-Noise Ratio
  • the present disclosure has been made in view of such a problem, and provides a ranging device capable of improving quantum efficiency and resolution.
  • the distance measuring device on one side of the present disclosure includes a semiconductor layer having a first surface and a second surface opposite to the first surface, a lens provided on the second surface side, and a first surface side.
  • the first and second charge storage units provided in the semiconductor layer, the photoelectric conversion unit which is in contact with the semiconductor layer on the first surface side and is made of a material different from the semiconductor layer, and the first and second charge storage units.
  • a first and second voltage application unit that applies a voltage to the semiconductor layer between the semiconductor layer and the photoelectric conversion unit, and a waveguide extending from the second surface to the photoelectric conversion unit in the semiconductor layer and made of a material different from that of the semiconductor layer. , Equipped with.
  • the area of the end face of the waveguide on the first surface side may be smaller than the area of the end face of the waveguide on the second surface side.
  • the waveguide has an area equal to or larger than the opening for passing incident light from the lens to the semiconductor layer on the end face on the second surface side, and equal to or less than the photoelectric conversion portion on the end face on the first surface side.
  • the side surface between the first surface and the second surface may be inclined from the direction perpendicular to the first surface or the second surface.
  • the refractive index of the waveguide may be higher than the refractive index of the semiconductor layer.
  • the refractive index of the waveguide may be lower than the refractive index of the lens.
  • a metal layer provided on the side surface of the waveguide may be further provided.
  • Silicon is used for the semiconductor layer, germanium, InGaAs, CIGS (CopperIndiumGalliumDiSelenide), Qdot (Quantumdot) are used for the photoelectric conversion part, and even if a resin material is used for the waveguide part. good.
  • a mixed layer provided between the photoelectric conversion unit and the semiconductor layer and in which the material of the photoelectric conversion unit and the material of the semiconductor layer are mixed may be further provided.
  • an additional waveguide provided on the waveguide is further provided, and the area of the first end surface of the waveguide on the first surface side is the second end surface of the waveguide on the second surface side.
  • the area of the third end face of the additional waveguide facing the second end face of the waveguide which is larger than the area of the third end face, is larger than the area of the fourth end face of the additional waveguide on the opposite side of the third end face. It may be small.
  • the first voltage application unit is a first gate electrode provided on the first surface between the first charge storage unit and the photoelectric conversion unit and insulated from the semiconductor layer
  • the second voltage application unit is a second.
  • a second gate electrode provided on the first surface between the charge storage unit and the photoelectric conversion unit and insulated from the semiconductor layer, provided on the first surface side, and connected to the first voltage application unit.
  • Two wirings and a third wiring provided on the first surface side and connected to the second voltage application unit may be further provided.
  • the first and second voltage application portions may be provided on the first surface of the semiconductor layer via an insulating film.
  • the first and second voltage application portions may be embedded in the semiconductor layer from the first surface of the semiconductor layer.
  • the first voltage application section is a first impurity layer adjacent to the first charge storage section on the first surface and has a different conductive type from the first charge storage section
  • the second voltage application section is the first surface.
  • a second wiring that is adjacent to the second charge storage section and has a different conductive type from the second charge storage section, is provided on the first surface side, and is connected to the first voltage application section.
  • a third wire provided on the first surface side and connected to the second voltage application unit may be further provided.
  • the photoelectric conversion unit may be smaller than the opening through which the incident light passes from the lens to the semiconductor layer when viewed from above the second surface of the semiconductor layer.
  • It is made of a material that is conductive and reflects light, and may further include a metal layer that covers the periphery of the photoelectric conversion portion other than the contact portion between the photoelectric conversion portion and the semiconductor layer.
  • the block diagram which shows the structural example of the distance measuring apparatus according to 1st Embodiment The block diagram which shows the schematic structure example of the light receiving element of the distance measuring apparatus according to 1st Embodiment.
  • the plan view which showed the arrangement example of the pixel circuit shown in FIG. The cross-sectional view which shows the structural example of the pixel by 1st Embodiment.
  • the timing diagram which shows an example of the operation of the distance measuring apparatus according to 1st Embodiment.
  • FIG. 5 is a cross-sectional view showing a configuration example of a pixel according to a fifth embodiment.
  • the cross-sectional view which shows the structural example of the pixel by 6th Embodiment.
  • the cross-sectional view which shows the structural example of the pixel by 7th Embodiment.
  • the schematic diagram which shows the structural example of the light receiving element according to 7th Embodiment.
  • the cross-sectional view which shows the structural example of the pixel by 8th Embodiment.
  • FIG. 5 is a cross-sectional view showing a configuration example of a pixel according to a fifth embodiment.
  • the cross-sectional view which shows the structural example of the pixel by 6th Embodiment.
  • the cross-sectional view which shows the structural example of the pixel by 7th Embodiment.
  • the schematic diagram which shows the structural example of the light receiving element according to 7th Embodiment.
  • FIG. 5 is a cross-sectional view showing a configuration example of a light receiving element according to a ninth embodiment.
  • FIG. 5 is a cross-sectional view showing a configuration example of a pixel according to the tenth embodiment.
  • the cross-sectional view which shows the structural example of the pixel by 11th Embodiment.
  • the plan view which showed an example of the layout of the pixel by this disclosure.
  • the plan view which showed the other example of the layout of the pixel by this disclosure.
  • the block diagram which shows the schematic configuration example of the vehicle control system which is an example of the mobile body control system to which the technique which concerns on this disclosure can be applied.
  • FIG. 1 is a block diagram showing a configuration example of a distance measuring device according to the first embodiment.
  • the distance measuring device 100 is a distance measuring device based on an indirect ToF (hereinafter, also referred to as iToF) method, and is used, for example, in an in-vehicle system mounted on a vehicle and measuring a distance to an object outside the vehicle. Further, the distance measuring device 100 may also be used for, for example, a system for identifying an individual such as face recognition.
  • iToF indirect ToF
  • the distance measuring device 100 includes a light receiving element 1, a light emitting element 2, a modulator 3, and a PLL (Phase Locked Loop) 4.
  • PLL4 generates a pulse signal.
  • the modulator 3 modulates the pulse signal from the PLL 4 to generate a control signal.
  • the frequency of the control signal may be, for example, 5 megaHz to 20 megaHz.
  • the light emitting element 2 emits light according to a control signal from the modulator.
  • the light emitting element 2 has a light emitting diode that emits infrared light having a wavelength in the range of 780 nm to 1000 nm as a light source, and generates irradiation light in synchronization with a control signal of a square wave or a sine wave.
  • the light generated by the light emitting element 2 may be, for example, short wave infrared light (SWIR (Short Wave Infrared Radiometer)) or the like.
  • SWIR Short Wave Infrared Radiometer
  • the irradiation light emitted from the light emitting element 2 is reflected by the object M and received by the light receiving element 1.
  • the reflected light received by the light receiving element 1 is delayed from the timing when the light emitting element 2 emits light according to the distance to the object M.
  • the delay time of the reflected light with respect to the irradiation light causes a phase difference between the irradiation light and the reflected light.
  • the distance measuring device 100 calculates the phase difference between the irradiation light and the reflected light, and obtains the distance (depth information) from the distance measuring device 100 to the object M based on the phase difference.
  • FIG. 2 is a block diagram showing a schematic configuration example of a light receiving element of the distance measuring device according to the first embodiment.
  • the light receiving element 1 is an element used in the distance measuring device 100 according to the iToFF method shown in FIG.
  • the light receiving element 1 receives the light (reflected light) that is reflected and returned by the irradiation light generated by the light emitting element 2 as a light source, and outputs a depth image expressing the distance information to the object as a depth value. do.
  • the light receiving element 1 has a pixel array unit 21 provided on a semiconductor substrate (not shown) and a peripheral circuit unit provided on the same semiconductor substrate.
  • the peripheral circuit unit is composed of, for example, a vertical drive unit 22, a column processing unit 23, a horizontal drive unit 24, a system control unit 25, a signal processing unit 26, a data storage unit 27, and the like. All or part of the peripheral circuit portion may be provided on the same semiconductor substrate as the light receiving element 1, or may be provided on a substrate different from the light receiving element 1.
  • the pixel array unit 21 has a plurality of pixels 10 arranged two-dimensionally in a matrix in the row direction and the column direction.
  • the pixel 10 generates an electric charge according to the amount of received light, and outputs a signal corresponding to the electric charge. That is, the pixel 10 photoelectrically converts the incident light and outputs a signal corresponding to the electric charge obtained as a result.
  • the details of the pixel 10 will be described later.
  • the row direction is the horizontal direction in FIG. 2, and the column direction is the vertical direction.
  • the pixel drive lines 28 are wired along the row direction for each pixel row with respect to the matrix-shaped pixel array, and two vertical signal lines 29 are arranged along the column direction in each pixel row. Is wired.
  • the pixel drive line 28 transmits a drive signal for driving when reading a signal from the pixel 10.
  • the pixel drive line 28 is shown as one wiring, but the wiring is not limited to one.
  • One end of the pixel drive line 28 is connected to the output end corresponding to each line of the vertical drive unit 22.
  • the vertical drive unit 22 is composed of a shift register, an address decoder, etc., and drives each pixel 10 of the pixel array unit 21 simultaneously for all pixels or in line units. That is, the vertical drive unit 22 constitutes a drive unit that controls the operation of each pixel 10 of the pixel array unit 21 together with the system control unit 25 that controls the vertical drive unit 22.
  • the detection signal output from each pixel 10 of the pixel row according to the drive control by the vertical drive unit 22 is input to the column processing unit 23 through the vertical signal line 29.
  • the column processing unit 23 performs predetermined signal processing on the detection signal output from each pixel 10 through the vertical signal line 29, and temporarily holds the detection signal after the signal processing. Specifically, the column processing unit 23 performs noise removal processing, AD (Analog-to-Digital) conversion processing, and the like as signal processing.
  • the horizontal drive unit 24 is composed of a shift register, an address decoder, etc., and sequentially selects unit circuits corresponding to the pixel strings of the column processing unit 23. By the selective scanning by the horizontal drive unit 24, the detection signals signal-processed for each unit circuit are sequentially output in the column processing unit 23.
  • the system control unit 25 is composed of a timing generator or the like that generates various timing signals, and the vertical drive unit 22, the column processing unit 23, and the horizontal drive unit 24 are based on the various timing signals generated by the timing generator.
  • Drive control such as.
  • the signal processing unit 26 has an arithmetic processing function, and performs various signal processing such as arithmetic processing based on the detection signal output from the column processing unit 23.
  • the data storage unit 27 temporarily stores data necessary for signal processing in the signal processing unit 26.
  • the light receiving element 1 configured as described above includes the distance information to the object as a depth value in the pixel value, and outputs this pixel value as a depth image.
  • the light receiving element 1 can be mounted on, for example, a vehicle-mounted system that is mounted on a vehicle and measures a distance to an object outside the vehicle.
  • FIG. 3 is a diagram showing an example of the circuit configuration of the pixel 10.
  • the pixel 10 includes a photodiode PD, transfer transistors TRG1 and TRG2, stray diffusion regions FD1 and FD2, additional capacitances FDL1 and FDL2, switching transistors FDG1 and FDG2, amplification transistors AMP1 and AMP2, and reset transistors RST1 and RST2. , The selection transistors SEL1 and SEL2, and the charge discharge transistor OFG.
  • the photodiode PD is a photoelectric conversion element that generates an electric charge according to the received light.
  • the transfer transistors TRG1, TRG2, switching transistors FDG1, FDG2, amplification transistors AMP1, AMP2, selection transistors SEL1, SEL2, reset transistors RST1, RST2, and charge discharge transistor OFG are, for example, N-type MOSFETs (Metal Oxide Semiconductor Field Effect Transistor). ).
  • the transfer transistor TRG1 becomes conductive when the transfer signal applied to the gate electrode TRG1g becomes active (for example, high level), and transfers the charge stored in the photodiode PD to the floating diffusion region FD1.
  • the transfer transistor TRG2 becomes conductive when the transfer signal applied to the gate electrode TRG2g becomes active, and transfers the charge stored in the photodiode PD to the stray diffusion region FD2.
  • the floating diffusion regions FD1 and FD2 are charge storage units capable of storing the charge transferred from the photodiode PD.
  • the switching transistor FDG1 becomes conductive when the switching signal FDG1g becomes active, and connects the additional capacitance FDL1 to the floating diffusion region FD1.
  • the switching transistor FDG2 becomes conductive when the switching signal FDG2g becomes active, and connects the additional capacitance FDL2 to the floating diffusion region FD2.
  • the additional capacitance FDL1 and FDL2 may be composed of a capacitive element such as a MoM (Metal-on-Metal), a MIM (Metal-Insulator-Metal), or a MOS capacitor.
  • the switching transistors FDG1 and FDG2 are in a conductive state when the electric charge due to the incident light is accumulated in iToF, and are electrically connected to the floating diffusion regions FD1 and FD2, respectively. As a result, the pixel 10 can suppress the saturation of the signal charge in the floating diffusion regions FD1 and FD2, and can accumulate the charge.
  • the reset transistor RST1 becomes conductive when the reset drive signal RSTg becomes active, and resets the potential of the floating diffusion region FD1.
  • the reset transistor RST2 becomes conductive when the reset drive signal RSTg becomes active, and resets the potential of the stray diffusion region FD2.
  • the switching transistors FDG1 and FDG2 are also activated at the same time, and the additional capacitance FDL1 and FDL2 are also reset.
  • the vertical drive unit 22 connects the floating diffusion region FD1 and the additional capacitance FDL1 with the switching transistors FDG1 and FDG2 in a conductive state, and also connects the floating diffusion region FD2 and the additional capacitance. Connect FDL2. This allows a large amount of charge to be stored.
  • the vertical drive unit 22 may put the switching transistors FDG1 and FDG2 in a non-conducting state and separate the additional capacitances FDL1 and FDL2 from the floating diffusion regions FD1 and FD2, respectively. By switching the switching transistors FDG1 and FDG2 in this way, the dynamic range of the light receiving element 1 can be increased.
  • the charge discharge transistor OFG becomes conductive when the discharge signal OFG 1g becomes active, and discharges the charge accumulated in the photodiode PD. When the charge of the photodiode PD overflows due to strong incident light, the charge discharge transistor OFG is used.
  • the source electrode of the amplification transistor AMP1 is connected to the vertical signal line 29A via the selection transistor SEL1.
  • the amplification transistor AMP1 is connected to a constant current source (not shown) to form a source follower circuit.
  • the source electrode of the amplification transistor AMP2 is connected to the vertical signal line 29B via the selection transistor SEL2.
  • the amplification transistor AMP2 is connected to a constant current source (not shown) to form a source follower circuit.
  • the selection transistor SEL1 is connected between the source electrode of the amplification transistor AMP1 and the vertical signal line 29A.
  • the selection transistor SEL1 becomes conductive when the selection signal SEL1g becomes active, and outputs the detection signal VSL1 output from the amplification transistor AMP1 to the vertical signal line 29A.
  • the selection transistor SEL2 is connected between the source electrode of the amplification transistor AMP2 and the vertical signal line 29B.
  • the selection transistor SEL2 becomes conductive when the selection signal SEL2g becomes active, and outputs the detection signal VSL2 output from the amplification transistor AMP2 to the vertical signal line 29B.
  • the transfer transistors TRG1 and TRG2 of the pixel 10, the switching transistors FDG1 and FDG2, the amplification transistors AMP1 and AMP2, the selection transistors SEL1 and SEL2, and the charge discharge transistor OFG are controlled by the vertical drive unit 22.
  • the additional capacitances FDL1 and FDL2 are connected to the floating diffusion regions FD1 and FD2, respectively. Therefore, in the pixel 10 of the iToF, the switching transistors FDG1 and FDG2 may be omitted.
  • a reset operation for resetting the charge of the pixel 10 is performed on all the pixels. That is, the charge discharge transistors OFG, the reset transistors RST1 and RST2, and the switching transistors FDG1 and FDG2 are brought into a conductive state, and the stored charges of the photodiode PD, the stray diffusion regions FD1 and FD2, and the additional capacitance FDL1 and FDL2 are discharged. do.
  • the transfer transistors TRG1 and TRG2 are driven alternately.
  • the transfer transistor TRG1 in a conductive state (hereinafter, on), and the transfer transistor TRG2 is in a non-conducting state (hereinafter, off).
  • the electric charge generated by the photodiode PD is transferred to the floating diffusion region FD1 and the additional capacitance FDL1.
  • the transfer transistor TRG1 is turned off and the transfer transistor TRG2 is turned on.
  • the charge generated in the photodiode PD is transferred to the stray diffusion region FD2 and the additional capacitance FDL2.
  • the electric charge generated by the photodiode PD is distributed and accumulated in the floating diffusion regions FD1 and FD2.
  • the first and second periods are periodically and alternately repeated in synchronization with the irradiation light from the light emitting element 2.
  • the floating diffusion regions FD1 and FD2 and the additional capacitance FDL1 and FDL2 can accumulate charges according to the phase difference between the irradiation light from the light emitting element 2 and the reflected light received by the light receiving element 1.
  • the relationship between the phase difference and the charges accumulated in the floating diffusion regions FD1 and FD2 and the additional capacitance FDL1 and FDL2 will be described later.
  • each pixel 10 of the pixel array unit 21 is sequentially selected.
  • the selection transistors SEL1 and SEL2 are turned on.
  • the charges accumulated in the floating diffusion region FD1 and the additional capacitance FDL1 are output to the column processing unit 23 as the detection signal VSL1 via the vertical signal line 29A.
  • the electric charge accumulated in the floating diffusion region FD2 and the additional capacitance FDL2 is output to the column processing unit 23 as a detection signal VSL2 via the vertical signal line 29B.
  • the reflected light received by the pixel 10 is delayed from the timing of irradiation by the light source according to the distance to the object. Due to the delay time depending on the distance to the object, a phase difference occurs between the irradiation light and the reflected light, and it is accumulated in the additional capacity FDL1 and the additional capacity FDL2 (or the floating diffusion region FD1 and the floating diffusion region FD2). The charge distribution ratio changes. Thereby, by detecting the potentials of the floating diffusion regions FD1 and FD2, the phase difference between the irradiation light and the reflected light is calculated, and the distance to the object can be obtained based on this phase difference.
  • FIG. 4 is a plan view showing an arrangement example of the pixel circuit shown in FIG.
  • the horizontal direction in FIG. 4 corresponds to the row direction (horizontal direction) of FIG. 2, and the vertical direction corresponds to the column direction (vertical direction) of FIG.
  • an N + type impurity layer 52 is provided in the N-type semiconductor layer 51.
  • a photodiode PD is provided in the impurity layer 52.
  • the impurity layer 52 and the photodiode PD have a substantially rectangular outer shape, and the photodiode PD is provided inside the impurity layer 52.
  • the size of the planar layout of the photodiode PD is not particularly limited. Since the waveguide 55 guides most of the incident light, the size of the planar layout of the photodiode PD may be substantially equal to or larger than the end face of the waveguide 55 on the surface F1 side. As a result, the photodiode PD can sufficiently receive the incident light guided by the waveguide 55, and the quantum efficiency can be improved.
  • a transfer transistor TRG1, a switching transistor FDG1, a reset transistor RST1, an amplification transistor AMP1, and a selection transistor SEL1 are linearly arranged along a predetermined side of four sides of a rectangular pixel 10 outside the impurity layer 52. Have been placed. Further, a transfer transistor TRG2, a switching transistor FDG2, a reset transistor RST2, an amplification transistor AMP2, and a selection transistor SEL2 are linearly arranged along the other side of the four sides of the rectangular pixel 10. Further, the charge discharge transistor OFG is arranged on a side different from the two sides of the pixel 10 provided with the transfer transistors TRG1, TRG2 and the like.
  • the charge discharge transistor OFG is arranged on the side opposite to the side of the pixel 10 provided with the transfer transistors TRG1, FDG1, RST1, AMP1, and SEL1.
  • the arrangement of the pixel circuits shown in FIG. 4 is not limited to this example, and may be other arrangements.
  • FIG. 5 is a cross-sectional view showing a configuration example of the pixel 10 according to the first embodiment. Although one pixel 10 is shown in FIG. 5, a plurality of pixels 10 are two-dimensionally arranged in parallel in the pixel array unit 21.
  • the pixels 10 include a semiconductor layer 51, an on-chip lens 47, an antireflection film 43, a light-shielding film 45, an interpixel separation portion 61, an impurity layer 52, a waveguide portion 55, and floating diffusion regions FD1 and FD2.
  • a photodiode PD, transfer transistors TRG1 and TRG2, vias V1 to V4 and Vbias, wirings M1 to M4 and Mbias, and additional capacitances FDL1 and FDL2 are provided.
  • the semiconductor layer 51 is made of, for example, silicon and has a thickness of, for example, 1 ⁇ m to 6 ⁇ m.
  • the semiconductor layer 51 is, for example, an N-type semiconductor layer.
  • the semiconductor layer 51 has a front surface F1 as a first surface and a back surface F2 as a second surface opposite to the front surface F1.
  • a multilayer wiring structure including wirings M1 to M4 and Mbias is provided on the surface F1 side.
  • An on-chip lens 47 for receiving light is provided on the back surface F2 side. Therefore, the light receiving element 1 according to the present disclosure is a back-illuminated element, and receives light on the back surface F2 on the side opposite to the front surface F1 provided with the wirings M1 to M4 and Mbias.
  • the back surface F2 of the semiconductor layer 51 is the incident surface of light.
  • the antireflection film 43 is provided on the back surface F2 of the semiconductor layer 51.
  • the antireflection film 43 may have a laminated structure in which a fixed charge film and an oxide film are laminated.
  • the antireflection film 43 may be a high-k insulating film produced by an ALD (Atomic Layer Deposition) method. More specifically, the antireflection film 43 includes a metal such as hafnium oxide (HfO2), aluminum oxide (Al2O3), titanium oxide (TIO2), tantanium oxide (Ta 2 O 5 ), and STO (Strontium Titan Oxide). An oxide film can be used.
  • a light-shielding film 45 is provided in a region other than the antireflection film 43 on the back surface F2 of the semiconductor layer 51.
  • the light-shielding film 45 is provided adjacent to the periphery of the antireflection film 43, and suppresses the entry of incident light from a region other than the antireflection film 43. That is, the light-shielding film 45 defines an opening OP for passing incident light from the on-chip lens 47 to the semiconductor layer 51.
  • the light-shielding film 45 is made of a light-shielding material, and may be made of a metal material such as tungsten (W), aluminum (Al), or copper (Cu).
  • the inter-pixel separation unit 61 is provided at a boundary portion between a plurality of adjacent pixels 10 in the semiconductor layer 51, and separates the plurality of adjacent pixels 10.
  • the inter-pixel separation unit 61 suppresses leakage of incident light to adjacent pixels (that is, crosstalk).
  • the inter-pixel separation portion 61 is also made of a light-shielding material, and may be made of a metal material such as tungsten (W), aluminum (Al), or copper (Cu).
  • W tungsten
  • Al aluminum
  • Cu copper
  • the bottom surface and the side surface of the inter-pixel separation portion 61 may be covered with a material that reflects light. As a result, the amount of light incident on the photodiode PD increases, and the quantum efficiency of the pixel 10 is improved.
  • a flattening film 46 is provided on the antireflection film 43 and the light shielding film 45.
  • an insulating film such as silicon oxide (SiO2), silicon nitride (SiN), silicon oxynitride (SiON), or an organic material such as a resin is used.
  • An on-chip lens 47 is provided for each pixel 10 on the flattening film 46.
  • the on-chip lens 47 is provided on the back surface F2 of the semiconductor layer 51, and the on-chip lens 47 may include, for example, a styrene resin, an acrylic resin, a styrene-acrylic copolymer resin, a siloxane resin, or the like.
  • a resin-based material is used.
  • the light collected by the on-chip lens 47 is incident on the photodiode PD via the antireflection film 43 and the semiconductor layer 51.
  • a photodiode PD is provided on the surface F1 side of the semiconductor layer 51 as an example of a photoelectric conversion unit.
  • the photodiode PD is provided on the surface F1 of the semiconductor layer 51 so as to be in contact with the semiconductor layer 51, and is made of a material different from that of the semiconductor layer 51.
  • a material having a higher quantum efficiency (photoelectric conversion efficiency) than silicon is used for the photodiode PD, and for example, germanium, InGaAs, CIGS (CopperIndiumGalliumDiSelenide) or Qdot (Quantumdot) is used.
  • the photodiode PD generates an electric charge according to the amount of light received.
  • the photodiode PD protrudes somewhat from the front surface F1 toward the back surface F2 into the semiconductor layer 51 or the impurity layer 52 and bites into the semiconductor layer 51.
  • the path from the photodiode PD to the floating diffusion regions FD1 and FD2 via the transfer transistors TRG1 and TRG2 is shortened, and the charge transfer efficiency and transfer speed are improved.
  • the photodiode PD is connected to the wiring Mbias via the via Vbias as the first wiring.
  • the wiring Mbias is provided on the surface F1 side and is electrically connected to the photodiode PD in order to apply a predetermined bias voltage to the photodiode PD. For example, by applying a positive voltage (for example, about + 0.5V) to the wiring Mbias, the electric charge (for example, electrons) photoelectrically converted by the photodiode PD is easily taken into the impurity layer 52.
  • the impurity layer 52 is provided on the surface F1 side in the semiconductor layer 51 and is in contact with the photodiode PD.
  • the impurity layer 52 is, for example, an N-type impurity layer having a higher impurity concentration than the semiconductor layer 51, and captures the charge photoelectrically converted by the photodiode PD.
  • floating diffusion regions FD1 and FD2 are provided on both sides of the impurity layer 52.
  • the floating diffusion regions FD1 and FD2 are provided in the semiconductor layer 51 on the surface F1 side, and temporarily hold or store the electric charge transferred from the photodiode PD.
  • the floating diffusion regions FD1 and FD2 are, for example, N-type impurity layers and contain high-concentration impurities having a higher impurity concentration than the semiconductor layer 51.
  • the gate electrode TRG1g of the transfer transistor TRG1 is provided on the surface F1 between the stray diffusion region FD1 and the photodiode PD or the impurity layer 52.
  • the gate electrode TRG1g is provided on the surface F1 via a gate insulating film, and is electrically insulated from the semiconductor layer 51.
  • the gate electrode TRG1g can apply a voltage to the semiconductor layer 51 between the stray diffusion region FD1 and the photodiode PD or the impurity layer 52 to bring the transfer transistor TRG1 into a conductive state or a non-conducting state.
  • a conductive material such as metal or polyvinyl silicon doped with an impurity that becomes an acceptor or a donor is used.
  • the gate electrode TRG2g of the transfer transistor TRG2 is provided on the surface F1 between the stray diffusion region FD2 and the photodiode PD or the impurity layer 52.
  • the gate electrode TRG2g is provided on the surface F1 via a gate insulating film, and is electrically insulated from the semiconductor layer 51.
  • the gate electrode TRG2g can apply a voltage to the semiconductor layer 51 between the stray diffusion region FD2 and the photodiode PD or the impurity layer 52 to bring the transfer transistor TRG2 into a conductive state or a non-conducting state.
  • a conductive material such as metal or doped polysilicon is used for the gate electrode TRG 2g.
  • the gate electrode TRG1g, the impurity layer 52, and the floating diffusion region FD1 constitute a transfer transistor TRG1, and charges can be transferred from the impurity layer 52 to the floating diffusion region FD1 by the gate voltage applied to the gate electrode TRG1g.
  • the gate electrode TRG2g, the impurity layer 52, and the floating diffusion region FD2 constitute a transfer transistor TRG2, and charges can be transferred from the impurity layer 52 to the floating diffusion region FD2 by the gate voltage applied to the gate electrode TRG2g.
  • the charges transferred to the floating diffusion regions FD1 and FD2 are accumulated in the floating diffusion region FD1 and the additional capacity FDL1 of FIG. 3 or the floating diffusion region FD2 and the additional capacity FDL2 of FIG.
  • the waveguide 55 extends from the back surface F2 of the semiconductor layer 51 toward the photodiode PD on the front surface F1 side so as to gradually become thinner.
  • the area of the end surface E1 of the waveguide 55 on the front surface F1 side is smaller than the area of the end surface E2 of the waveguide 55 on the back surface F2 side.
  • the waveguide 55 is provided up to the vicinity of the surface of the impurity layer 52, but does not reach the photodiode PD. That is, an impurity layer 52 exists between the waveguide 55 and the photodiode PD for charge transfer.
  • the waveguide 55 is made of a material different from that of the semiconductor layer 51.
  • a resin-based material such as a styrene-based resin, an acrylic-based resin, a styrene-acrylic copolymer resin, or a siloxane-based resin is used for the waveguide 55.
  • SiO 2 , MgF, SiOC or the like may be used as the low refractive index material, and a—Si, PolySi, SiN, Ta 2 O 5 , Al 2 O 3 , TIO as the high refractive index material. 2 , HfO 2 , Nb 2 O 25, etc. may be used.
  • the waveguide 55 reflects at least a part of the incident light at the interface with the semiconductor layer 51 and guides the incident light to the photodiode PD.
  • the waveguide 55 has an area equal to or larger than the opening OP on the end surface E2 on the back surface F2 side of the semiconductor layer 51, and an area equal to or smaller than the photodiode PD on the end surface E1 on the front surface F1 side.
  • the area of the end face E1 of the waveguide 55 is smaller than the area of the end face E2.
  • the side surface of the waveguide 55 is inclined from the direction perpendicular to the front surface F1, the back surface F2, the end surfaces E1 and E2. That is, the waveguide 55 is formed so as to gradually taper from the back surface F2 to the front surface F1, and has a tapered shape on the side surface between the front surface F1 and the back surface F2. As a result, the waveguide 55 can guide the incident light from the relatively large opening OP to the photodiode PD smaller than that.
  • the waveguide 55 can increase the quantum efficiency of the photodiode PD.
  • the photodiode PD can receive a large amount of incident light even if the layout area on the surface F1 of the photodiode PD is reduced. Therefore, by providing the waveguide 55, the photodiode PD can maintain high quantum efficiency and quantum efficiency even if the layout area is reduced.
  • the layout area of the photodiode PD is small, the contact area between the photodiode PD and the semiconductor layer 51 is also small, so that dark current can be suppressed. That is, the pixel 10 according to the third embodiment can suppress the dark current while maintaining the quantum efficiency of the photodiode PD, and can achieve both high sensitivity and high resolution.
  • the refractive index of the waveguide 55 is preferably higher than that of the semiconductor layer 51.
  • the incident light in the waveguide 55 can be totally reflected at the interface between the waveguide 55 and the semiconductor layer 51.
  • the angle ⁇ t of the taper on the side surface of the waveguide 55 is smaller than the critical angle of the interface between the waveguide 55 and the semiconductor layer 51. This is because the light incident from the direction perpendicular to the back surface F2 is easily totally reflected at the interface between the waveguide 55 and the semiconductor layer 51.
  • the waveguide 55 can guide more incident light to the photodiode PD.
  • the pixel 10 can further improve the quantum efficiency of the photodiode PD.
  • the refractive index of the waveguide 55 is preferably lower than the refractive index of the on-chip lens 47 and the flattening film 46. As a result, the incident light is not reflected at the interface between the on-chip lens 47 or the flattening film 46 and the waveguide 55, and can be incident on the waveguide 55.
  • the gate electrode TRG1g is electrically connected to the wiring M41 as the second wiring via the vias V11, V21, V31, V41 and the wirings M11, M21, M31. That is, the wiring M41 is provided on the surface F1 side and is connected to the gate electrode TRG1g.
  • the gate electrode TRG2g is electrically connected to the wiring M42 as the third wiring via the vias V12, V22, V32, V42 and the wirings M12, M22, M32. That is, the wiring M42 is provided on the surface F1 side and is connected to the gate electrode TRG2g.
  • the vertical drive unit 22 can drive the transfer transistors TRG1 and TRG2.
  • Mbias, vias V11 to V42, and Vbias for example, a conductive metal such as copper is used.
  • the wirings M11 to M42 have a four-layer structure, but the number of wiring layers is not limited and may be less than or more than four layers.
  • the wirings M11, M12, and Mbias are configured in the same wiring layer, and the wirings M21 and M22 are configured in the same wiring layer.
  • the wirings M31 and M32 are configured in the same wiring layer, and the wirings M41 and M42 are configured in the same wiring layer.
  • the wirings M11 and M12 are wirings electrically connected to the gate electrodes TRG1g and TRG2g of the transfer transistors TRG1 and TRG2 via vias V11 and V12, respectively.
  • the additional capacitance FDL1 and FDL2 may be, for example, a MoM, MIM or MOS capacitor configured with wiring of the same layer as wiring M21, M22 or wiring M31, 32.
  • the additional capacitances FDL1 and FDL2 are electrically connected to the floating diffusion regions FD1 and FD2, respectively, and charges can be accumulated together with the floating diffusion regions FD1 and FD2.
  • the additional capacitances FDL1 and FDL2 overlap with the photodiode PD in a plan view from the surface F1 side. As a result, the arrangement area of the pixels 10 can be reduced.
  • the additional capacitance FDL1 and FDL2 may be composed of a conductive layer different from the wirings M21 and M22 and the wirings M31 and 32.
  • the interlayer insulating film 62 is provided on the surface F1 of the semiconductor layer 51 and covers the wirings M11 to M42, Mbias, vias V11 to V42, Vbias and the like.
  • an insulating film such as a silicon oxide film is used.
  • FIG. 6 is a timing diagram showing an example of the operation of the distance measuring device according to the first embodiment.
  • the horizontal axis shows time.
  • the vertical axis shows the signal level (intensity) of the irradiation light, the signal level (intensity) of the reflected light, the gate signals S TRG1 and S TRG2 , and the amount of charge accumulated in the stray diffusion region FD1, FD2 or the additional capacitance FDL1 and FLD2.
  • Q FD1 and Q FD2 are shown.
  • the gate signals S TRG1 and S TRG2 are signals applied to the gate electrodes TRG1g and TRG2g shown in FIGS. 3 or 5, respectively.
  • the light receiving element 1 is in the reset state.
  • the light emitting element 2 emits irradiation light.
  • the frequency of the irradiation light is Fmod.
  • the irradiation light is reflected by the object M and received by the light receiving element 1.
  • the frequency of the reflected light is the same as that of the illuminated light and remains Fmod.
  • the time ⁇ t required from the emission of the irradiation light to the reflection on the object M and the return as the reflected light is the delay time (ToF) of the reflected light with respect to the irradiation light. Once the delay time ⁇ t is known, the distance from the distance measuring device 100 to the object M can be calculated based on the speed of light c.
  • the iToF uses the phase difference ⁇ between the irradiation light and the reflected light to measure the distance measuring device 100.
  • the distance (depth information) D from the object M to the object M is calculated.
  • the distance D is expressed by Equation 1.
  • phase difference ⁇ is expressed by Equation 2.
  • arctan ((Q 90- Q 270 ) / (Q 0- Q 180)) (Equation 2)
  • phase difference ⁇ the distance D is calculated using this phase difference ⁇ . This calculation may be executed by the signal processing unit 26 of FIG.
  • Gate signals S TRG1 and S TRG2 are applied to the gate electrodes TRG1g and TRG2g of the transfer transistors TRG1 and TRG2.
  • the gate signals S TRG1 and S TRG2 are pulse signals having the same frequency Fmod as the irradiation light.
  • Gate signal S TRG2 is because the reverse phase signal of the gate signals S TRG1, the phase of the gate signal S TRG2 also shifted the phase both of the gate signals S TRG1.
  • the transfer transistors TRG1 and TRG2 in FIGS. 3 and 5 are alternately in a conductive state. For example, at t0 to t3, since the gate signal S TRG1 is at a high level, the transfer transistor TRG1 is in a conductive state. On the other hand, since the gate signal S TRG2 is at a low level, the transfer transistor TRG2 is in a non-conducting state. At this time, the charge qa generated in the photodiode PD is transferred to the floating diffusion region FD1 and the additional capacitance FDL1 via the transfer transistor TRG1.
  • the charge qa is not transferred to the floating diffusion region FD2 and the additional capacitance FDL2.
  • the charge amount Q FD1 changes (decreases) by the charge amount qa.
  • the charge is not transferred to the stray diffusion region FD2 and the additional capacitance FDL2. Therefore, when the charge amount of the floating diffusion region FD2 and the additional capacitor FDL2 and Q FD2, the charge amount Q FD2 is not changed.
  • the gate signal S TRG2 becomes a high level, and the transfer transistor TRG2 becomes a conductive state.
  • the gate signal S TRG1 becomes a low level, and the transfer transistor TRG1 becomes a non-conducting state.
  • the charge qb generated by the photodiode PD is transferred to the floating diffusion region FD2 and the additional capacitance FDL2 via the transfer transistor TRG2.
  • the charge qb is not transferred to the stray diffusion region FD1 and the additional capacitance FDL1. Therefore, the amount of charge Q FD2 changes (decreases) by the amount of charge qb.
  • the charge is not transferred to the stray diffusion region FD1 and the additional capacitance FDL1. Therefore, the amount of charge Q FD1 does not change.
  • the operation of the light receiving element 1 at t4 to t5 and t6 to t7 is the same as the operation of the light receiving element 1 at t0 to t3. Further, the operation of the light receiving element 1 at t5 to t6 and t7 to t8 is the same as the operation of the light receiving element 1 at t3 to t4. In this way, the transfer transistors TRG1 and TRG2 periodically repeat the conduction state and the non-conduction state alternately.
  • the charge qa generated in the photodiode PD is gradually accumulated (integrated) in the stray diffusion region FD1 and the additional capacitance FDL1
  • the charge qb generated in the photodiode PD is gradually accumulated in the stray diffusion region FD2 and the additional capacitance FDL2.
  • Charges qa generated in the photodiode PD, the qb by distributing based on the frequency Fmod the irradiated light and reflected light, the amount of charge difference Q 90 according to the phase difference ⁇ of the reflected light with respect to the irradiation light is increased.
  • the light receiving element 1 outputs the potentials of the floating diffusion regions FD1 and FD2 via the vertical signal lines 29A and 29B of FIG.
  • four image data that is, Q 0 , Q 90 , Q 180 , and Q 270 ) obtained when the gate signals S TRG1 and S TRG2 with respect to the irradiation light are out of phase are obtained.
  • the signal processing unit 26 calculates the phase difference ⁇ from Equation 2 using these four image data (Q 0 , Q 90 , Q 180 , Q 270). Further, the signal processing unit 26 calculates the distance D from the equation 1 using the phase difference ⁇ .
  • the distance measuring device 100 obtains the distance D (depth information) by using the iToF method.
  • the light receiving element 1 has a back-illuminated structure having a wiring structure on the front surface F1 of the semiconductor layer 51 and an on-chip lens 47 on the back surface F2. Therefore, the incident light is not blocked by the wirings M11 to M42, Mbias, etc., and reaches the photodiode PD without being attenuated so much via the on-chip lens 47 and the semiconductor layer 51 having high transmittance. Therefore, the amount of light photoelectrically converted in the semiconductor layer 51 can be increased, and the quantum efficiency (Qe), that is, the sensitivity of the pixel 10 can be improved.
  • Qe quantum efficiency
  • the waveguide 55 is provided from the back surface F2 of the semiconductor layer 51 toward the photodiode PD on the front surface F1 side.
  • the waveguide 55 reflects at least a part of the incident light at the interface with the semiconductor layer 51 and guides the incident light to the photodiode PD.
  • the quantum efficiency (sensitivity) of the light receiving element 1 according to the present embodiment can be improved. Since the waveguide 55 reflects incident light at the interface with the semiconductor layer 51, the refractive index of the waveguide 55 is preferably higher than that of the semiconductor layer 51. Thereby, the sensitivity of the light receiving element 1 can be further improved.
  • the photodiode PD is not composed of an impurity diffusion layer in the semiconductor layer 51 (for example, a silicon substrate), and is made of a different material from the semiconductor layer 51 in contact with the back surface F2 of the semiconductor layer 51. It is configured.
  • the photodiode PD By using a material having a photoelectric conversion efficiency higher than that of silicon (for example, germanium, InGaAs, CIGS or Qdot) as the photodiode PD, the quantum efficiency (sensitivity) of the light receiving element 1 can be further improved.
  • the photodiode PD is provided separately from the semiconductor layer 51, it is not necessary to thicken the semiconductor layer 51 in consideration of the improvement of quantum efficiency. Since the semiconductor layer 51 can be made thin, it is not necessary to form the inter-pixel separation portion 61 deeply, and the inter-pixel separation portion 61 can be easily formed. Further, even if the inter-pixel separation unit 61 is relatively shallow, leakage of incident light to adjacent pixels can be efficiently suppressed, and crosstalk can be effectively suppressed. As a result, the SNR can be improved and the resolution can be improved.
  • the semiconductor layer 51 when the semiconductor layer 51 is made thinner, the thickness of the waveguide 55 becomes thinner, and the path of the incident light in the waveguide 55 becomes shorter. As a result, the amount of light leaking from the waveguide 55 is reduced, and the waveguide 55 can guide more incident light to the photodiode PD. As a result, the quantum efficiency of the light receiving element 1 can be further improved.
  • FIG. 7 is a cross-sectional view showing a configuration example of the pixel 10 according to the second embodiment.
  • the light receiving element 1 according to the second embodiment further includes a metal layer 56 provided on the side surface of the waveguide 55.
  • a metal material that reflects light may be used, and for example, a metal material such as tungsten (W), aluminum (Al), or copper (Cu) is used. Even if the refractive index of the waveguide 55 is equal to or lower than that of the semiconductor layer 51, the metal layer 56 reflects the incident light in the waveguide 55, so that the waveguide 55 guides the incident light to the photodiode PD. can do.
  • the quantum efficiency of the light receiving element 1 can be increased even if the bending rate of the waveguide 55 is small.
  • Other configurations of the second embodiment may be the same as the corresponding configurations of the first embodiment. Thereby, the second embodiment can also obtain the effect of the first embodiment.
  • FIG. 8 is a cross-sectional view showing a configuration example of the pixel 10 according to the third embodiment.
  • the gate electrodes TGR1g and TGR2g are embedded in the semiconductor layer 51 from the surface F1 to form a vertical gate structure.
  • the transfer transistors TRG1 and TRG2 can be in a conductive state even at a low gate voltage, and the charge transfer rate can be further increased.
  • the gate electrodes TGR1g and TGR2g are provided between the impurity layer 52 or the photodiode PD and the floating diffusion regions FD1 and FD2, it is possible to suppress the incident light from directly entering the floating diffusion regions FD1 and FD2. can. As a result, PLS (Parasitic Light Sensitivity) can be reduced.
  • Other configurations of the third embodiment may be the same as the corresponding configurations of the first embodiment. Thereby, the third embodiment can also obtain the effect of the first embodiment.
  • FIG. 9 is a cross-sectional view showing a configuration example of the pixel 10 according to the fourth embodiment.
  • the pixel 10 according to the fourth embodiment is provided between the photodiode PD and the semiconductor layer 51, and further includes a mixed layer 66 in which the material of the photodiode PD and the material of the semiconductor layer 51 are mixed.
  • the mixed layer 66 is a SiGe layer. As described above, even if the mixed layer 66 is provided between the photodiode PD and the semiconductor layer 51, the effect of the present disclosure is not lost.
  • the band gap between the photodiode PD and the semiconductor layer 51 is continuously formed by controlling the addition ratio of germanium (Ge). It has the effect of being able to change to.
  • Other configurations of the fourth embodiment may be the same as the corresponding configurations of the first embodiment. Thereby, the fourth embodiment can also obtain the effect of the first embodiment.
  • FIG. 10 is a cross-sectional view showing a configuration example of the pixel 10 according to the fifth embodiment.
  • the upper portion of the photodiode PD is embedded in the impurity layer 52 from the surface F1 of the semiconductor layer 51. Since the upper portion of the photodiode PD is embedded in the impurity layer 52, electric charges are easily taken in from the photodiode PD to the impurity layer 52. This further increases the charge transfer rate.
  • FIG. 11 is a cross-sectional view showing a configuration example of the pixel 10 according to the sixth embodiment.
  • the pixel 10 according to the sixth embodiment further includes an additional semiconductor layer 151 and an additional waveguide 155 provided between the on-chip lens 47 or the flattening film 46 and the back surface F2 of the semiconductor layer 51.
  • An antireflection film 143 is provided between the waveguide portion 155 and the waveguide portion 55.
  • a light-shielding film 145 is provided between the semiconductor layer 151 and the semiconductor layer 51.
  • the same materials as those of the semiconductor layer 51 and the waveguide 55 may be used for the semiconductor layer 151 and the waveguide 155, respectively.
  • the same materials as the antireflection film 43 and the light shielding film 45 may be used for the antireflection film 143 and the light shielding film 145, respectively.
  • the semiconductor layer 151 has a surface F3 facing the back surface F2 of the semiconductor layer 51 and a surface F opposite the surface F3.
  • the antireflection film 143 and the light shielding film 145 are provided between the back surface F2 of the semiconductor layer 51 and the surface F3 of the semiconductor layer 151.
  • the antireflection film 43 and the light shielding film 45 are provided on the surface F4 of the semiconductor layer 151.
  • the waveguide 155 has an end face E4 that is approximately the same as or larger than the opening OP on the surface F4 side, and is approximately the same as or slightly larger than the end surface E2 on the back surface F2 side of the waveguide 55 on the surface F3 side. It has a small end face E3.
  • the area of the end face E3 of the waveguide 155 is smaller than the area of the end face E4 of the waveguide 155. Therefore, the waveguide 155 extends from the surface F4 of the semiconductor layer 151 toward the surface F3 so as to gradually become thinner.
  • the side surface of the waveguide 155 is inclined from the direction perpendicular to the surface F3, the surface F4, the end surfaces E3, and E4.
  • the waveguide 155 has a tapered shape on the side surface between the end face E4 and the end face E3.
  • the waveguide 155 reflects at least a part of the incident light at its side surface, that is, at the interface with the semiconductor layer 151, and guides the incident light to the waveguide 55.
  • the waveguide 155 can guide the incident light from the relatively large opening OP to the end surface on the back surface F2 side of the smaller waveguide 55.
  • the waveguide 155 can guide the incident light that has passed through the opening OP to the waveguide 55 without leaking too much.
  • the waveguide 55 extends from the back surface F2 of the semiconductor layer 51 toward the photodiode PD on the front surface F1 side so as to gradually become thicker.
  • the area of the end surface E1 of the waveguide 55 on the front surface F1 side is larger than the area of the end surface E2 of the waveguide 55 on the back surface F2 side.
  • the waveguide 55 is provided up to the vicinity of the surface of the impurity layer 52, but does not reach the photodiode PD.
  • the waveguide 55 reflects at least a part of the incident light at the interface with the semiconductor layer 51 and guides the incident light to the photodiode PD.
  • the waveguide 55 has an area equal to or larger than the end surface E3 of the waveguide 155 on the end surface E2, and has an area substantially equal to or smaller than that of the photodiode PD on the surface F1 side.
  • the waveguide 55 is formed so as to gradually increase in thickness from the back surface F2 to the front surface F1, and has a tapered shape on the side surface between the front surface F1 and the back surface F2. As a result, the waveguide 55 can sufficiently irradiate the photodiode PD with incident light from a relatively small end face.
  • the waveguides 55 and 155 are configured in an hourglass shape. By increasing the opening OP of the waveguide 155, a large amount of incident light can be guided into the pixel 10.
  • the waveguide 55 introduces the incident light guided by the waveguide 155 into the internal region surrounded by the metal film 145 and the inter-pixel separation unit 61.
  • a metal material such as tungsten (W), aluminum (Al), or copper (Cu) is used.
  • the incident light is repeatedly reflected in the internal region surrounded by the metal film 145 and the inter-pixel separation portion 61 until it is photoelectrically converted.
  • the opening area of the waveguide 55 in the end face E2 it is possible to reduce the probability that the incident light introduced into the internal region exits from the end face E2 to the outside of the pixel 10 without photoelectric conversion. can. Therefore, the incident light can be confined in the internal region while keeping the opening OP of the waveguide 155 large. That is, the waveguides 55 and 155 can be sufficiently photoelectrically converted while taking in a large amount of incident light by forming an hourglass-shaped main section. As a result, quantum efficiency can be increased.
  • Other configurations of the sixth embodiment may be the same as the corresponding configurations of the first embodiment.
  • FIG. 12 is a cross-sectional view showing a configuration example of the light receiving element 1 according to the seventh embodiment.
  • FIG. 13 is a schematic diagram showing a configuration example of the light receiving element 1 according to the seventh embodiment.
  • the light receiving element 1 according to the seventh embodiment includes a semiconductor chip C1 of the pixel 10 and a semiconductor chip C2 of another peripheral circuit 20.
  • the semiconductor chip C1 has, for example, a pixel array in which a plurality of pixels 10 are arranged.
  • the semiconductor chip C2 may be, for example, a controller of pixels 10, and has a CMOS (Complementary Metal Oxide Semiconductor) logic circuit 13 or the like provided on a semiconductor substrate.
  • CMOS Complementary Metal Oxide Semiconductor
  • the semiconductor chip C1 and the semiconductor chip C2 have a laminated structure, and the wirings are directly bonded to each other (Cu-Cu bonding), and function as one device (module).
  • the light receiving element 1 may be a module in which a plurality of semiconductor chips are laminated. As a result, the arrangement area of the light receiving element 1 can be reduced.
  • FIG. 14 is a cross-sectional view showing a configuration example of the light receiving element 1 according to the eighth embodiment.
  • FIG. 15 is a plan view showing a configuration example of the light receiving element 1 according to the eighth embodiment.
  • the light receiving element 1 according to the eighth embodiment has pixels 10 and 11 arranged so as to be adjacent to each other.
  • the pixel 10 is a pixel according to the present disclosure, and is, for example, a pixel that uses germanium as the photodiode PD and detects shortwave infrared light (SWIR).
  • SWIR shortwave infrared light
  • the pixel 11 is a pixel that detects near-infrared light (NIR (NearIntraRed)) in a photodiode PD provided on a semiconductor layer 51 (for example, a silicon substrate).
  • NIR NearIntraRed
  • the light receiving element 1 can detect both SWIR and NIR. That is, the range of the detection wavelength of the light receiving element 1 can be widened.
  • two pixels 10 and 11 are arranged, but three or more pixels may be arranged respectively.
  • FIG. 16 is a cross-sectional view showing a configuration example of the light receiving element 1 according to the ninth embodiment.
  • the light receiving element 1 according to the ninth embodiment includes a first impurity layer TAP1 which is adjacent to the stray diffusion region FD1 on the surface F1 and is reverse conductive with respect to the stray diffusion region FD1.
  • the light receiving element 1 is adjacent to the floating diffusion region FD2 on the surface F1 and includes a second impurity layer TAP2 that is reverse conductive with respect to the floating diffusion region FD2.
  • the first and second impurity layers TAP1 and TAP2 are dense P + type impurity layers.
  • the wiring M41 provided on the surface F1 side is electrically connected to the first impurity layer TAP1.
  • the wiring M42 provided on the surface F1 side is electrically connected to the second impurity layer TAP2.
  • the vertical drive unit 22 periodically switches the current direction flowing between the first impurity layer TAP1 and the second impurity layer TAP2 by alternately switching the voltages of the wirings M41 and M42.
  • the electric charge generated by the photodiode PD can be periodically and alternately distributed to the floating diffusion regions FD1 and FD2.
  • FIG. 17 is a cross-sectional view showing a configuration example of the pixel 10 according to the tenth embodiment.
  • Wiring Mbias and via Vbias are connected to the photodiode PD.
  • a bias voltage is applied to the photodiode PD via the wiring Mbias and the via Vbias.
  • the charge photoelectrically converted in the photodiode PD is easily taken into the impurity layer 52 and quickly transferred to the floating diffusion regions FD1 and FD2 via the transfer transistors TRG1 and TRG2. That is, according to the present embodiment, the transfer rate of electric charges from the photodiode PD to the floating diffusion regions FD1 and FD2 can be increased.
  • FIG. 18 is a cross-sectional view showing a configuration example of the pixel 10 according to the eleventh embodiment.
  • the photodiode PD is smaller in area than the opening OP and the impurity layer 52 when viewed from above the back surface F2 of the semiconductor layer 51.
  • the contact area between the photodiode PD and the semiconductor layer 51 is reduced, and the dark current can be reduced.
  • the pixel 10 according to the eleventh embodiment further includes a metal layer 65.
  • a metal material that is conductive and reflects light is used, and for example, a metal material such as tungsten (W), aluminum (Al), or copper (Cu) is used.
  • the metal layer 65 covers the periphery of the photodiode PD except for the contact portion between the photodiode PD and the semiconductor layer 51. That is, the metal layer 65 covers the bottom surface and the four side surfaces other than the upper surface of the photodiode PD, and has a rectangular vessel shape. Further, the metal layer 65 is provided between the photodiode PD and the via Vbias or the wiring Mbias, and also functions as an electrode for electrically connecting the photodiode PD and the wiring Mbias.
  • the metal layer 65 reflects the light incident on the photodiode PD in the photodiode PD to make the optical path in the photodiode PD as long as possible. As a result, the quantum efficiency of the photodiode PD can be increased. That is, the metal layer 65 has a light confinement effect in the photodiode PD, and can increase the quantum efficiency (sensitivity). In this case, even if the area of the planar layout of the photodiode PD is small, a sufficiently large quantum efficiency can be obtained.
  • the metal layer 65 also functions as an electrode for the photodiode PD. Therefore, the bias voltage from the wiring Mbias is applied to the photodiode PD from the entire bottom surface and side surface of the photodiode PD via the metal layer 65. As a result, the electric charge of the photodiode PD is more easily taken into the impurity layer 52, and the electric charge transfer rate is further increased.
  • the second embodiment further has the configuration of the first embodiment.
  • the metal layer 56 of the second embodiment may be applied to any of the third to eleventh embodiments.
  • the metal layer 56 may be provided on either one or both of the waveguides 55 and 155 in FIG.
  • the first and second impurity layers 52 of the ninth embodiment may be applied to any of the first to eighth, tenth, and eleventh embodiments.
  • FIG. 19 is a plan view showing an example of the layout of the pixel 10 according to the present disclosure.
  • one photodiode PD is provided in the center of the impurity layer 52.
  • a via Vbias is provided in the center of the photodiode PD.
  • FIG. 20 is a plan view showing another example of the layout of the pixel 10 according to the present disclosure.
  • a plurality of photodiodes PD are separately provided at the center of the impurity layer 52. Via Vbias is provided in the center of the portion of each photodiode PD. Therefore, the same number of vias as the photodiode PDs are provided.
  • the photodiode PD is divided into four, but it may be divided into three or less, or may be divided into five or more.
  • the width of the slit between the photodiode PDs is preferably narrower than the wavelength of the irradiation light.
  • the distance measuring device 100 can be applied to a distance measuring device, and can also be applied to various electronic devices such as an image pickup device such as a digital still camera and a digital video camera having a distance measuring function, and a smartphone having a distance measuring function. can.
  • an image pickup device such as a digital still camera and a digital video camera having a distance measuring function
  • a smartphone having a distance measuring function.
  • FIG. 21 is a block diagram showing a configuration example of a smartphone as an electronic device to which the present technology is applied.
  • the smartphone 601 has a distance measuring module 602, an image pickup device 603, a display 604, a speaker 605, a microphone 606, a communication module 607, a sensor unit 608, a touch panel 609, and a control unit 610. It is configured to be connected via. Further, the control unit 610 has functions as an application processing unit 621 and an operation system processing unit 622 by executing a program by the CPU.
  • a distance measuring device 100 may be applied to the distance measuring module 602.
  • the distance measurement module 602 is arranged in front of the smartphone 601 and performs distance measurement for the user of the smartphone 601 to measure the depth value of the surface shape of the user's face, hand, finger, etc. as the distance measurement result. Can be output as.
  • the image pickup device 603 is arranged in front of the smartphone 601 and takes an image of the user of the smartphone 601 as a subject to acquire an image of the user. Although not shown, the image pickup device 603 may be arranged on the back surface of the smartphone 601.
  • the display 604 displays an operation screen for processing by the application processing unit 621 and the operation system processing unit 622, an image captured by the image pickup device 603, and the like.
  • the communication module 607 includes a wide area communication network for wireless mobile bodies such as the Internet and public telephone network, so-called 4G line and 5G line, network communication via a communication network such as WAN (Wide Area Network) and LAN (Local Area Network), and Bluetooth (Bluetooth). Performs short-range wireless communication such as (registered trademark) and NFC (Near Field Communication).
  • the sensor unit 608 senses speed, acceleration, proximity, etc., and the touch panel 609 acquires a user's touch operation on the operation screen displayed on the display 604.
  • the application processing unit 621 performs processing for providing various services by the smartphone 601.
  • the application processing unit 621 can create a face by computer graphics that virtually reproduces the user's facial expression based on the depth value supplied from the distance measuring module 602, and can perform a process of displaying the face on the display 604. .
  • the application processing unit 621 can perform a process of creating, for example, three-dimensional shape data of an arbitrary three-dimensional object based on the depth value supplied from the distance measuring module 602.
  • the operation system processing unit 622 performs processing for realizing the basic functions and operations of the smartphone 601. For example, the operation system processing unit 622 can perform a process of authenticating the user's face and unlocking the smartphone 601 based on the depth value supplied from the distance measuring module 602. Further, the operation system processing unit 622 performs a process of recognizing a user's gesture based on the depth value supplied from the distance measuring module 602, and performs a process of inputting various operations according to the gesture. Can be done.
  • the smartphone 601 configured in this way, by applying the above-mentioned distance measuring device 100 as the distance measuring module 602, for example, the distance to a predetermined object can be measured and displayed, or the tertiary of the predetermined object can be measured and displayed. It is possible to perform processing such as creating and displaying the original shape data.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 22 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may include the distance measuring device 100 and perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the state of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 aims to realize ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. Cooperative control can be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 23 is a diagram showing an example of the installation position of the image pickup unit 12031.
  • the vehicle 12100 has an imaging unit 12101, 12102, 12103, 12104, 12105 as an imaging unit 12031.
  • the image pickup units 12101, 12102, 12103, 12104, 12105 are provided, for example, at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the image pickup unit 12101 provided in the front nose and the image pickup section 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the image pickup units 12101 and 12105 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 23 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the image pickup units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
  • At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object in the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100). By obtaining can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 determines the square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the embodiment according to the present technology is not limited to the above embodiment, and various changes can be made without departing from the gist of the present technology.
  • the present technology can have the following configurations. (1) A semiconductor layer having a first surface and a second surface opposite to the first surface, The lens provided on the second surface side and The first and second charge storage portions provided in the semiconductor layer on the first surface side, and A photoelectric conversion unit that comes into contact with the semiconductor layer on the first surface side and is made of a material different from the semiconductor layer.
  • a first and second voltage application unit that applies a voltage to the semiconductor layer between the first and second charge storage units and the photoelectric conversion unit
  • a distance measuring device including a waveguide extending from the second surface to the photoelectric conversion unit in the semiconductor layer and made of a material different from that of the semiconductor layer.
  • the distance measuring device according to any one of (1) to (6), wherein a resin material is used for the waveguide.
  • the ranging device described in. On the second surface side, an additional waveguide provided on the waveguide is further provided.
  • the area of the first end surface of the waveguide on the first surface side is larger than the area of the second end surface of the waveguide on the second surface side.
  • the area of the third end face of the additional waveguide facing the second end face of the waveguide is smaller than the area of the fourth end face of the additional waveguide on the side opposite to the third end face.
  • the ranging device according to 1).
  • the first voltage application unit is a first gate electrode provided on the first surface between the first charge storage unit and the photoelectric conversion unit and insulated from the semiconductor layer.
  • the second voltage application unit is a second gate electrode provided on the first surface between the second charge storage unit and the photoelectric conversion unit and insulated from the semiconductor layer.
  • a second wiring provided on the first surface side and connected to the first voltage application portion, and
  • the distance measuring device according to any one of (1) to (9), further comprising a third wiring provided on the first surface side and connected to the second voltage applying portion.
  • (11) The distance measuring device according to (10), wherein the first and second voltage application portions are provided on the first surface of the semiconductor layer via an insulating film.
  • the distance measuring device wherein the first and second voltage application portions are embedded in the semiconductor layer from the first surface of the semiconductor layer.
  • the first voltage application section is a first impurity layer adjacent to the first charge storage section on the first surface and having a different conductive type with respect to the first charge storage section.
  • the second voltage application section is a second impurity layer adjacent to the second charge storage section on the first surface and having a different conductive type with respect to the second charge storage section.
  • a second wiring provided on the first surface side and connected to the first voltage application portion, and The distance measuring device according to any one of (1) to (9), further comprising a third wiring provided on the first surface side and connected to the second voltage applying portion.
  • the photoelectric conversion unit is any of (1) to (13), which is smaller than the opening through which the incident light is passed from the lens to the semiconductor layer when viewed from above the second surface of the semiconductor layer.
  • the ranging device according to paragraph 1. From (1) to (1), which is made of a material that is conductive and reflects light, and further includes a metal layer that covers the periphery of the photoelectric conversion portion other than the contact portion between the photoelectric conversion portion and the semiconductor layer.
  • the distance measuring device according to any one of 14).
  • ranging device 1 light receiving element, 10 pixels, PD photodiode, TRG1, TRG2 transfer transistor, FD1, FD2 floating diffusion region, FDL1, FDL2 additional capacity, 51 semiconductor layer, 47 on-chip lens, 43 antireflection film, 45 Light-shielding film, 61 inter-pixel separation part, 52 impurity layer, V1 to V4, Vbias via, M1 to M4, Mbias wiring, 65 metal layer, 55 waveguide

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]量子効率および解像度を改善することができる測距装置を提供する。 [解決手段]本開示による測距装置は、第1面および該第1面に対して反対側にある第2面を有する半導体層と、第2面側に設けられたレンズと、第1面側において半導体層内に設けられた第1および第2電荷蓄積部と、第1面側において半導体層と接触し、該半導体層と異なる材料からなる光電変換部と、第1および第2電荷蓄積部と光電変換部との間の半導体層に電圧を印加する第1および第2電圧印加部と、半導体層内に第2面から光電変換部へ延び、半導体層と異なる材料からなる導波部と、を備える。

Description

測距装置
 本開示は、測距装置に関する。
 間接ToF(indirect Time of Flight:iToF)方式を用いた測距装置が開発されている。間接ToFの測距装置は、測距装置から対象物までの距離を、照射光と反射光との位相差に基づいて間接的に算出する。
特開2020-013909号公報
 しかしながら、従来の間接ToF方式を用いた測距装置は、シリコン基板内にフォトダイオードを有しており、充分な量子効率Qe(感度)を得ることができなかった。また、赤外線の透過率が高いシリコン基板を用いた測距装置においては、量子効率を上げるためには、シリコン基板を厚膜化する必要がある。しかし、シリコン基板を厚くすると、隣接する画素間での電気的もしくは光学的な分離が困難となり、SNR(Signal-to-Noise Ratio)を劣化させ解像度が低下してしまうという問題もあった。
 そこで、本開示は、このような課題を鑑みてなされたものであり、量子効率および解像度を改善することができる測距装置を提供する。
 本開示の一側面の測距装置は、第1面および該第1面に対して反対側にある第2面を有する半導体層と、第2面側に設けられたレンズと、第1面側において半導体層内に設けられた第1および第2電荷蓄積部と、第1面側において半導体層と接触し、該半導体層と異なる材料からなる光電変換部と、第1および第2電荷蓄積部と光電変換部との間の半導体層に電圧を印加する第1および第2電圧印加部と、半導体層内に第2面から光電変換部へ延び、半導体層と異なる材料からなる導波部と、を備える。
 第1面側における導波部の端面の面積は、第2面側における導波部の端面の面積よりも小さくてもよい。
 導波部は、第2面側の端面においてレンズから半導体層へ入射光を通過させる開口部と等しいかそれ以上の面積を有し、第1面側の端面において光電変換部と等しいかそれ以下の面積を有し、第1面と第2面との間にある側面が第1面または第2面に対する垂直方向から傾斜してもよい。
 導波部の屈折率は、半導体層の屈折率よりも高くてもよい。
 導波部の屈折率は、レンズの屈折率よりも低くてもよい。
 導波部の側面に設けられた金属層をさらに備えてもよい。
 半導体層には、シリコンが用いられており、光電変換部には、ゲルマニウム、InGaAs、CIGS(CopperIndiumGalliumDiSelenide)、Qdot(Quantumdot)が用いられており、導波部には、樹脂材料が用いられてもよい。
 光電変換部と半導体層との間に設けられ、光電変換部の材料と半導体層の材料とが混合された混合層をさらに備えてもよい。
 第2面側において、導波部上に設けられた追加導波部をさらに備え、第1面側における導波部の第1端面の面積は、第2面側における導波部の第2端面の面積よりも大きく、導波部の第2端面と対向する追加導波部の第3端面の面積は、該第3端面とは反対側にある追加導波部の第4端面の面積よりも小さくてもよい。
 第1電圧印加部は、第1電荷蓄積部と光電変換部との間の第1面上に設けられ、半導体層から絶縁された第1ゲート電極であり、第2電圧印加部は、第2電荷蓄積部と光電変換部との間の第1面上に設けられ、半導体層から絶縁された第2ゲート電極であり、第1面側に設けられ、第1電圧印加部に接続された第2配線と、第1面側に設けられ、第2電圧印加部に接続された第3配線とをさらに備えてもよい。
 第1および第2電圧印加部は、半導体層の第1面上に絶縁膜を介して設けられていてもよい。
 第1および第2電圧印加部は、半導体層の第1面から該半導体層内へ埋め込まれていてもよい。
 第1電圧印加部は、第1面において第1電荷蓄積部に隣接し、該第1電荷蓄積部に対して導電型の異なる第1不純物層であり、第2電圧印加部は、第1面において第2電荷蓄積部に隣接し、該第2電荷蓄積部に対して導電型の異なる第2不純物層であり、第1面側に設けられ、第1電圧印加部に接続された第2配線と、第1面側に設けられ、第2電圧印加部に接続された第3配線とをさらに備えてもよい。
 光電変換部は、半導体層の第2面の上方から見たときに、レンズから半導体層へ入射光を通過させる開口部よりも小さくてもよい。
 導電性かつ光を反射する材料からなり、光電変換部と半導体層との間の接触部以外において該光電変換部の周囲を被覆している金属層をさらに備えてもよい。
第1実施形態による測距装置の構成例を示すブロック図。 第1実施形態による測距装置の受光素子の概略構成例を示すブロック図。 画素の回路構成の一例を示す図。 図3に示した画素回路の配置例を示した平面図。 第1実施形態による画素の構成例を示す断面図。 第1実施形態による測距装置の動作の一例を示すタイミング図。 第2実施形態による画素の構成例を示す断面図。 第3実施形態による画素の構成例を示す断面図。 第4実施形態による画素の構成例を示す断面図。 第5実施形態による画素の構成例を示す断面図。 第6実施形態による画素の構成例を示す断面図。 第7実施形態による画素の構成例を示す断面図。 第7実施形態による受光素子の構成例を示す模式図。 第8実施形態による画素の構成例を示す断面図。 第8実施形態による受光素子の構成例を示す平面図。 第9実施形態による受光素子の構成例を示す断面図。 第10実施形態による画素の構成例を示す断面図。 第11実施形態による画素の構成例を示す断面図。 本開示による画素のレイアウトの一例を示した平面図。 本開示による画素のレイアウトの他の例を示した平面図。 本技術を適用した電子機器としての、スマートフォンの構成例を示すブロック図。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図。 撮像部の設置位置の例を示す図。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。図面は模式的または概念的なものであり、各部分の比率などは、必ずしも現実のものと同一とは限らない。明細書と図面において、既出の図面に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1実施形態)
 図1は、第1実施形態による測距装置の構成例を示すブロック図である。測距装置100は、間接ToF(以下、iToFともいう)方式による測距装置であり、例えば、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステム等に用いる。また、測距装置100は、例えば、顔認証等の個人を特定するシステム等にも用いてもよい。
 測距装置100は、受光素子1と、発光素子2と、変調器3と、PLL(Phase Locked Loop)4とを備えている。PLL4は、パルス信号を生成する。変調器3は、PLL4からのパルス信号を変調し、制御信号を生成する。制御信号の周波数は、例えば、5メガHz~20メガHzでよい。発光素子2は、変調器からの制御信号に従って発光する。発光素子2は、光源として、波長が780nm~1000nmの範囲の赤外光を発する発光ダイオードを有し、矩形波あるいはサイン波の制御信号に同期して、照射光を発生する。発光素子2で生成される光は、例えば、短波赤外光(SWIR(Short Wave Infrared Radiometer))等でよい。発光素子2から発光された照射光は、物体Mに反射して受光素子1で受光される。
 受光素子1で受光され反射光は、発光素子2が発光したタイミングから、物体Mまでの距離に応じて遅延する。照射光に対する反射光の遅延時間によって、照射光と反射光との間に位相差が生じる。iToF方式では、測距装置100は、この照射光と反射光との間の位相差を演算して、この位相差に基づいて測距装置100から物体Mまでの距離(デプス情報)を求める。
 図2は、第1実施形態による測距装置の受光素子の概略構成例を示すブロック図である。受光素子1は、図1のiToFF方式による測距装置100に用いられる素子である。
 受光素子1は、光源としての発光素子2で生成された照射光が物体にあたって反射して返ってきた光(反射光)を受光し、物体までの距離情報をデプス値として表したデプス画像を出力する。
 受光素子1は、図示しない半導体基板上に設けられた画素アレイ部21と、同じ半導体基板上に設けられた周辺回路部とを有する。周辺回路部は、例えば、垂直駆動部22、カラム処理部23、水平駆動部24、およびシステム制御部25、信号処理部26およびデータ格納部27等から構成されている。尚、周辺回路部の全部または一部は、受光素子1と同じ半導体基板上に設けてもよいし、受光素子1とは別の基板上に設けてもよい。
 画素アレイ部21は、行方向および列方向の行列状に2次元配置された複数の画素10を有する。画素10は、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する。すなわち、画素10は、入射した光を光電変換し、その結果得られた電荷に応じた信号を出力する。画素10の詳細については、後述する。尚、行方向は、図2において横方向であり、列方向は縦方向である。
 画素アレイ部21においては、行列状の画素配列に対して、画素行ごとに画素駆動線28が行方向に沿って配線されるとともに、各画素列に2つの垂直信号線29が列方向に沿って配線されている。例えば、画素駆動線28は、画素10から信号を読み出す際の駆動を行うための駆動信号を伝送する。なお、図2では、画素駆動線28について1本の配線として示しているが、1本に限られるものではない。画素駆動線28の一端は、垂直駆動部22の各行に対応した出力端に接続されている。
 垂直駆動部22は、シフトレジスタ、アドレスデコーダ等によって構成され、画素アレイ部21の各画素10を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動部22は、垂直駆動部22を制御するシステム制御部25とともに、画素アレイ部21の各画素10の動作を制御する駆動部を構成している。
 垂直駆動部22による駆動制御に応じて画素行の各画素10から出力される検出信号は、垂直信号線29を通してカラム処理部23に入力される。カラム処理部23は、各画素10から垂直信号線29を通して出力される検出信号に対して所定の信号処理を行うとともに、信号処理後の検出信号を一時的に保持する。具体的には、カラム処理部23は、信号処理としてノイズ除去処理やAD(Analog-to-Digital)変換処理等を行う。
 水平駆動部24は、シフトレジスタ、アドレスデコーダ等によって構成され、カラム処理部23の画素列に対応する単位回路を順番に選択する。水平駆動部24による選択走査により、カラム処理部23において単位回路ごとに信号処理された検出信号が順番に出力される。
 システム制御部25は、各種のタイミング信号を生成するタイミングジェネレータ等によって構成され、そのタイミングジェネレータで生成された各種のタイミング信号を基に、垂直駆動部22、カラム処理部23、および水平駆動部24などの駆動制御を行う。
 信号処理部26は、演算処理機能を有し、カラム処理部23から出力される検出信号に基づいて演算処理等の種々の信号処理を行う。データ格納部27は、信号処理部26での信号処理に必要なデータを一時的に格納する。
 以上のように構成される受光素子1は、物体までの距離情報をデプス値として画素値に含め、この画素値をデプス画像として出力する。受光素子1は、例えば、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステム等に搭載することができる。
 図3は、画素10の回路構成の一例を示す図である。画素10は、フォトダイオードPDと、転送トランジスタTRG1、TRG2と、浮遊拡散領域FD1、FD2と、付加容量FDL1、FDL2と、切替トランジスタFDG1、FDG2と、増幅トランジスタAMP1、AMP2と、リセットトランジスタRST1、RST2と、選択トランジスタSEL1、SEL2と、電荷排出トランジスタOFGとを備える。
 フォトダイオードPDは、受けた光に応じて電荷を生成する光電変換素子である。
 転送トランジスタTRG1、TRG2、切替トランジスタFDG1、FDG2、増幅トランジスタAMP1、AMP2、選択トランジスタSEL1、SEL2、リセットトランジスタRST1、RST2、および、電荷排出トランジスタOFGは、例えば、N型MOSFET(Metal Oxide Semiconductor Field Effect Transistor)で構成される。
 転送トランジスタTRG1は、ゲート電極TRG1gに印加される転送信号がアクティブ状態(例えば、ハイレベル)になると導通状態になり、フォトダイオードPDに蓄積されている電荷を浮遊拡散領域FD1に転送する。転送トランジスタTRG2は、ゲート電極TRG2gに印加される転送信号がアクティブ状態になると導通状態になり、フォトダイオードPDに蓄積されている電荷を浮遊拡散領域FD2に転送する。
 浮遊拡散領域FD1およびFD2は、フォトダイオードPDから転送された電荷を蓄積可能な電荷蓄積部である。
 切替トランジスタFDG1は、切替信号FDG1gがアクティブ状態になると導通状態になり、付加容量FDL1を浮遊拡散領域FD1に接続する。切替トランジスタFDG2は、切替信号FDG2gがアクティブ状態になると導通状態になり、付加容量FDL2を浮遊拡散領域FD2に接続する。付加容量FDL1およびFDL2は、例えば、MoM(Metal-on-Metal)、MIM(Metal-Insulator-Metal)またはMOSキャパシタ等の容量素子で構成すればよい。尚、切替トランジスタFDG1、FDG2は、iToFにおいて、入射光による電荷を蓄積するときには導通状態となっており、それぞれ浮遊拡散領域FD1,FD2と電気的に接続されている。これにより、画素10は、浮遊拡散領域FD1、FD2における信号電荷の飽和を抑制することができ、電荷を蓄積することができる。
 リセットトランジスタRST1は、リセット駆動信号RSTgがアクティブ状態になると導通状態になり、浮遊拡散領域FD1の電位をリセットする。リセットトランジスタRST2は、リセット駆動信号RSTgがアクティブ状態になると導通状態になり、浮遊拡散領域FD2の電位をリセットする。なお、リセットトランジスタRST1およびRST2がアクティブ状態とされるとき、切替トランジスタFDG1およびFDG2も同時にアクティブ状態とされ、付加容量FDL1およびFDL2もリセットされる。
 例えば、iToFにおいて、入射光による電荷を蓄積する場合、垂直駆動部22は、切替トランジスタFDG1およびFDG2を導通状態として、浮遊拡散領域FD1と付加容量FDL1を接続するとともに、浮遊拡散領域FD2と付加容量FDL2を接続する。これにより、多くの電荷を蓄積することができる。
 一方、量子効率を上げる場合には、垂直駆動部22は、切替トランジスタFDG1およびFDG2を非導通状態として、付加容量FDL1およびFDL2を、それぞれ、浮遊拡散領域FD1およびFD2から切り離してもよい。このように、切替トランジスタFDG1、FDG2を切り替えることによって、受光素子1のダイナミックレンジを大きくすることができる。
 電荷排出トランジスタOFGは、排出信号OFG1gがアクティブ状態になると導通状態になり、フォトダイオードPDに蓄積された電荷を排出する。強い入射光によってフォトダイオードPDの電荷がオーバーフローする場合に、電荷排出トランジスタOFGが用いられる。
 増幅トランジスタAMP1のソース電極は、選択トランジスタSEL1を介して垂直信号線29Aに接続される。これにより、増幅トランジスタAMP1は、不図示の定電流源と接続し、ソースフォロワ回路を構成する。増幅トランジスタAMP2のソース電極は、選択トランジスタSEL2を介して垂直信号線29Bに接続される。これにより、増幅トランジスタAMP2は、不図示の定電流源と接続し、ソースフォロワ回路を構成する。
 選択トランジスタSEL1は、増幅トランジスタAMP1のソース電極と垂直信号線29Aとの間に接続されている。選択トランジスタSEL1は、選択信号SEL1gがアクティブ状態になると導通状態となり、増幅トランジスタAMP1から出力される検出信号VSL1を垂直信号線29Aに出力する。
 選択トランジスタSEL2は、増幅トランジスタAMP2のソース電極と垂直信号線29Bとの間に接続されている。選択トランジスタSEL2は、選択信号SEL2gがアクティブ状態になると導通状態となり、増幅トランジスタAMP2から出力される検出信号VSL2を垂直信号線29Bに出力する。
 画素10の転送トランジスタTRG1およびTRG2、切替トランジスタFDG1およびFDG2、増幅トランジスタAMP1およびAMP2、選択トランジスタSEL1およびSEL2、並びに、電荷排出トランジスタOFGは、垂直駆動部22によって制御される。
 尚、上述の通り、iToFにおいて入射光による電荷を蓄積する場合、付加容量FDL1およびFDL2は、浮遊拡散領域FD1、FD2にそれぞれ接続されている。従って、iToFの画素10では、切替トランジスタFDG1およびFDG2は省略してもよい。
 次に、画素10の動作について簡単に説明する。
 まず、受光を開始する前に、画素10の電荷をリセットするリセット動作が全画素で行われる。即ち、電荷排出トランジスタOFGと、リセットトランジスタRST1およびRST2、並びに、切替トランジスタFDG1およびFDG2が導通状態になり、フォトダイオードPD、浮遊拡散領域FD1およびFD2、並びに、付加容量FDL1およびFDL2の蓄積電荷を排出する。
 蓄積電荷の排出後、受光が開始される。
 受光期間では、転送トランジスタTRG1とTRG2とが交互に駆動される。例えば、第1期間において、転送トランジスタTRG1が導通状態(以下、オン)になり、転送トランジスタTRG2が非導通状態(以下、オフ)になる。このとき、フォトダイオードPDで発生した電荷は、浮遊拡散領域FD1および付加容量FDL1に転送される。第1期間の次の第2期間において、転送トランジスタTRG1がオフになり、転送トランジスタTRG2がオンになる。第2期間では、フォトダイオードPDで発生した電荷は、浮遊拡散領域FD2および付加容量FDL2に転送される。これにより、フォトダイオードPDで発生した電荷が、浮遊拡散領域FD1とFD2とに振り分けられ、蓄積される。
 第1および第2期間は、発光素子2からの照射光と同期して周期的に交互に繰り返される。これにより、浮遊拡散領域FD1、FD2および付加容量FDL1、FDL2は、発光素子2からの照射光と受光素子1で受光される反射光との位相差に応じた電荷を蓄積することができる。位相差と、浮遊拡散領域FD1、FD2および付加容量FDL1、FDL2に蓄積される電荷との関係については後述する。
 そして、受光期間が終了すると、画素アレイ部21の各画素10が、順次に選択される。選択された画素10では、選択トランジスタSEL1およびSEL2がオンする。これにより、浮遊拡散領域FD1および付加容量FDL1に蓄積された電荷が、検出信号VSL1として、垂直信号線29Aを介してカラム処理部23に出力される。浮遊拡散領域FD2および付加容量FDL2に蓄積された電荷は、検出信号VSL2として、垂直信号線29Bを介してカラム処理部23に出力される。
 このように1回の受光動作が終了すると、リセット動作から始まる次の受光動作が実行される。
 画素10が受光する反射光は、光源が照射したタイミングから、対象物までの距離に応じて遅延する。対象物までの距離に応じた遅延時間によって、照射光と反射光との間に位相差が生じ、付加容量FDL1と付加容量FDL2と(または浮遊拡散領域FD1と浮遊拡散領域FD2と)に蓄積される電荷の配分比が変化する。これにより、浮遊拡散領域FD1、FD2の電位を検出することによって、照射光と反射光との間の位相差が算出され、この位相差に基づいて物体までの距離を求めることができる。
 図4は、図3に示した画素回路の配置例を示した平面図である。図4における横方向は、図2の行方向(水平方向)に対応し、縦方向は図2の列方向(垂直方向)に対応する。
 図4に示されるように、N型の半導体層51内にN+型の不純物層52が設けられている。不純物層52内にフォトダイオードPDが設けられている。半導体層51の表面上方から見たときに、不純物層52およびフォトダイオードPDは、略矩形の外形を有し、フォトダイオードPDは、不純物層52の内側に設けられている。尚、フォトダイオードPDの平面レイアウトの大きさは、特に限定しない。導波部55が入射光の多くを案内するので、フォトダイオードPDの平面レイアウトの大きさは、導波部55の表面F1側の端面と略等しいかそれより大きければよい。これにより、フォトダイオードPDは、導波部55によって案内された入射光を充分に受け取ることができ、量子効率も向上させることができる。
 不純物層52の外側であって、矩形の画素10の四辺の所定の一辺に沿って、転送トランジスタTRG1、切替トランジスタFDG1、リセットトランジスタRST1、増幅トランジスタAMP1、及び、選択トランジスタSEL1が直線的に並んで配置されている。また、矩形の画素10の四辺の他の一辺に沿って、転送トランジスタTRG2、切替トランジスタFDG2、リセットトランジスタRST2、増幅トランジスタAMP2、及び、選択トランジスタSEL2が直線的に並んで配置されている。さらに、電荷排出トランジスタOFGは、転送トランジスタTRG1、TRG2等が設けられた画素10の二辺とは別の辺に配置されている。例えば、電荷排出トランジスタOFGは、転送トランジスタTRG1、FDG1、RST1、AMP1、SEL1が設けられた画素10の辺に対して対向する辺に配置されている。尚、図4に示した画素回路の配置は、この例に限られず、その他の配置としてもよい。
 図5は、第1実施形態による画素10の構成例を示す断面図である。図5には、1つの画素10を示しているが、画素アレイ部21には、複数の画素10が並列に二次元配置されている。
 画素10は、半導体層51と、オンチップレンズ47と、反射防止膜43と、遮光膜45と、画素間分離部61と、不純物層52と、導波部55と、浮遊拡散領域FD1、FD2と、フォトダイオードPDと、転送トランジスタTRG1、TRG2と、ビアV1~V4、Vbiasと、配線M1~M4、Mbiasと、付加容量FDL1、FDL2とを備えている。
 半導体層51は、例えば、シリコンで構成され、例えば1μm~6μmの厚みを有している。半導体層51は、例えば、N型半導体層である。半導体層51は、第1面としての表面F1と、表面F1に対して反対側にある第2面としての裏面F2とを有する。表面F1側には、配線M1~M4、Mbiasを含む多層配線構造が設けられている。裏面F2側には、光を受けるためのオンチップレンズ47が設けられている。従って、本開示による受光素子1は、裏面照射型素子であり、配線M1~M4、Mbiasが設けられている表面F1とは反対側の裏面F2で受光する。半導体層51の裏面F2が、光の入射面となる。
 半導体層51の裏面F2上には、反射防止膜43が設けられている。反射防止膜43は、固定電荷膜および酸化膜を積層した積層構造でよい。例えば、反射防止膜43は、ALD(Atomic Layer Deposition)法による高誘電率(High-k)絶縁膜でよい。より詳細には、反射防止膜43には、例えば、酸化ハフニウム(HfO2)、酸化アルミニウム(Al2O3)、酸化チタン(TiO2)、酸化タンタル(Ta)、STO(Strontium Titan Oxide)等の金属酸化膜を用いることができる。
 半導体層51の裏面F2上の反射防止膜43以外の領域には、遮光膜45が設けられている。遮光膜45は、反射防止膜43の周囲に隣接して設けられており、反射防止膜43以外の領域から入射光が入ることを抑制する。即ち、遮光膜45は、オンチップレンズ47から半導体層51へ入射光を通過させる開口部OPを規定する。遮光膜45は、遮光材料で構成され、例えば、タングステン(W)、アルミニウム(Al)または銅(Cu)等の金属材料で構成され得る。
 画素間分離部61は、半導体層51内において隣接する複数の画素10間の境界部に設けられており、隣接する複数の画素10間を分離する。画素間分離部61は、入射光が隣接画素へ漏れること(即ち、クロストーク)を抑制する。画素間分離部61も、遮光材料で構成され、例えば、タングステン(W)、アルミニウム(Al)または銅(Cu)等の金属材料で構成され得る。尚、図示しないが、画素間分離部61の底面および側面は、光を反射する材料で被覆されてもよい。これにより、フォトダイオードPDに入射する光が多くなり、画素10の量子効率が向上する。
 反射防止膜43および遮光膜45上には、平坦化膜46が設けられている。平坦化膜46には、例えば、酸化シリコン(SiO2)、窒化シリコン(SiN)、酸窒化シリコン(SiON)等の絶縁膜、または、樹脂などの有機材料を用いている。
 平坦化膜46上には、オンチップレンズ47が画素10ごとに設けられている。オンチップレンズ47は、半導体層51の裏面F2上に設けられており、オンチップレンズ47には、例えば、スチレン系樹脂、アクリル系樹脂、スチレン-アクリル共重合系樹脂、またはシロキサン系樹脂等の樹脂系材料を用いている。オンチップレンズ47によって集光された光は、反射防止膜43および半導体層51を介してフォトダイオードPDに入射される。
 一方、半導体層51の表面F1側には、光電変換部の一例としてフォトダイオードPDが設けられている。フォトダイオードPDは、半導体層51の表面F1上に半導体層51に接触するように設けられ、半導体層51とは異なる材料で構成されている。フォトダイオードPDには、シリコンよりも量子効率(光電変換効率)の高い材料が用いられ、例えば、ゲルマニウム、InGaAs、CIGS(CopperIndiumGalliumDiSelenide)またはQdot(Quantumdot)が用いられている。フォトダイオードPDは、受光した光量に応じた電荷を生成する。さらに、フォトダイオードPDは、表面F1から裏面F2へ向かって半導体層51または不純物層52内に幾分突出し食い込んでいる。これにより、フォトダイオードPDから転送トランジスタTRG1、TRG2を経由して浮遊拡散領域FD1、FD2までの経路が短縮され、電荷の転送効率および転送速度が向上する。
 フォトダイオードPDは、第1配線としてのビアVbiasを介して配線Mbiasに接続されている。配線Mbiasは、表面F1側に設けられ、所定のバイアス電圧をフォトダイオードPDに印加するために、フォトダイオードPDに電気的に接続されている。例えば、配線Mbiasに正電圧(例えば、約+0.5V)を印加することによって、フォトダイオードPDで光電変換された電荷(例えば、電子)が不純物層52へ取り込まれ易くなる。
 不純物層52は、半導体層51内の表面F1側に設けられており、フォトダイオードPDと接触している。不純物層52は、例えば、半導体層51よりも不純物濃度において高いN型不純物層であり、フォトダイオードPDで光電変換された電荷を取り込む。
 第1および第2電荷蓄積部の一例として浮遊拡散領域FD1、FD2が不純物層52の両側に設けられている。浮遊拡散領域FD1、FD2は、表面F1側において半導体層51内に設けられており、フォトダイオードPDから転送された電荷を一時保持あるいは蓄積する。浮遊拡散領域FD1、FD2は、例えば、N型不純物層であり、半導体層51よりも不純物濃度の高い高濃度の不純物を含む。
 第1電圧印加部の一例として転送トランジスタTRG1のゲート電極TRG1gが、浮遊拡散領域FD1とフォトダイオードPDまたは不純物層52との間の表面F1上に設けられている。ゲート電極TRG1gは、表面F1上にゲート絶縁膜を介して設けられており、半導体層51から電気的に絶縁されている。ゲート電極TRG1gは、浮遊拡散領域FD1とフォトダイオードPDまたは不純物層52との間の半導体層51に電圧を印加し、転送トランジスタTRG1を導通状態または非導通状態にすることができる。ゲート電極TRG1gには、例えば、金属、または、アクセプター若しくはドナーとなる不純物がドープされたポリシリコン等の導電性材料が用いられる。
 第2電圧印加部の一例として転送トランジスタTRG2のゲート電極TRG2gが、浮遊拡散領域FD2とフォトダイオードPDまたは不純物層52との間の表面F1上に設けられている。ゲート電極TRG2gは、表面F1上にゲート絶縁膜を介して設けられており、半導体層51から電気的に絶縁されている。ゲート電極TRG2gは、浮遊拡散領域FD2とフォトダイオードPDまたは不純物層52との間の半導体層51に電圧を印加し、転送トランジスタTRG2を導通状態または非導通状態にすることができる。ゲート電極TRG2gには、例えば、金属またはドープドポリシリコン等の導電性材料が用いられる。
 ゲート電極TRG1g、不純物層52および浮遊拡散領域FD1は、転送トランジスタTRG1を構成し、ゲート電極TRG1gに印加されるゲート電圧によって、不純物層52から浮遊拡散領域FD1へ電荷を転送することができる。
 ゲート電極TRG2g、不純物層52および浮遊拡散領域FD2は、転送トランジスタTRG2を構成し、ゲート電極TRG2gに印加されるゲート電圧によって、不純物層52から浮遊拡散領域FD2へ電荷を転送することができる。
 浮遊拡散領域FD1、FD2に転送された電荷は、浮遊拡散領域FD1および図3の付加容量FDL1あるいは浮遊拡散領域FD2および図3の付加容量FDL2に蓄積される。
 導波部55は、半導体層51の裏面F2から表面F1側のフォトダイオードPDへ向かって次第に細くなるように延伸している。表面F1側の導波部55の端面E1の面積は、裏面F2側の導波部55の端面E2の面積よりも小さい。導波部55は、不純物層52の表面近傍まで設けられているが、フォトダイオードPDまでは達していない。即ち、導波部55とフォトダイオードPDとの間には、電荷転送のために不純物層52が存在している。導波部55は、半導体層51とは異なる材料からなる。導波部55には、オンチップレンズ47と同様に、例えば、スチレン系樹脂、アクリル系樹脂、スチレン-アクリル共重合系樹脂、またはシロキサン系樹脂等の樹脂系材料が用いられる。また、導波部55には、低屈折率材料として、SiO、MgF、SiOC等でもよく、高屈折率材料として、a-Si、PolySi、SiN、Ta、Al、TiO、HfO、Nb25等でもよい。
 導波部55は、半導体層51との界面において入射光の少なくとも一部を反射して、フォトダイオードPDへ入射光を案内する。
 導波部55は、半導体層51の裏面F2側の端面E2において、開口部OPと等しいかそれ以上の面積を有し、表面F1側の端面E1において、フォトダイオードPDと等しいかそれ以下の面積を有する。また、導波部55の端面E1の面積は、端面E2の面積よりも小さい。導波部55の側面は、表面F1、裏面F2、端面E1、E2に対する垂直方向から傾斜する。即ち、導波部55は、裏面F2から表面F1へ次第に細くなるように形成されており、表面F1と裏面F2との間にある側面においてテーパー形状を有する。これにより、導波部55は、比較的大きな開口部OPからそれよりも小さなフォトダイオードPDへ入射光を案内することができる。
 導波部55が入射光をフォトダイオードPDへ案内することによって、フォトダイオードPDにおける量子効率を上昇させることができる。
 また、導波部55が入射光を案内することによって、フォトダイオードPDの表面F1上におけるレイアウト面積を小さくしても、フォトダイオードPDは多くの入射光を受けることができる。従って、導波部55を設けることによって、フォトダイオードPDは、レイアウト面積を小さくしても、高い量子効率および量子効率を維持することができる。フォトダイオードPDのレイアウト面積が小さいと、フォトダイオードPDと半導体層51との接触面積も小さくなるので、暗電流も抑制することができる。即ち、第3実施形態による画素10は、フォトダイオードPDの量子効率を維持しつつ暗電流を抑制し、高感度および高解像度の両立を図ることができる。
 導波部55の屈折率は、半導体層51の屈折率よりも高いことが好ましい。この場合、導波部55内の入射光が、導波部55と半導体層51との界面において全反射可能となるからである。好ましくは、導波部55の側面のテーパーの角度θtは、導波部55と半導体層51との界面の臨界角より小さい。これにより、裏面F2に対して垂直方向から入射する光が導波部55と半導体層51との界面において全反射し易くなるからである。導波部55と半導体層51との界面において入射光を全反射することによって、導波部55は、より多くの入射光をフォトダイオードPDへ導くことができる。その結果、画素10は、フォトダイオードPDの量子効率をさらに向上させることができる。
 反射防止膜43が設けられていない場合、導波部55の屈折率は、オンチップレンズ47および平坦化膜46の屈折率に対して低い方が好ましい。これにより、オンチップレンズ47または平坦化膜46と導波部55との界面において、入射光が反射されず、導波部55へ入射することができる。
 ゲート電極TRG1gは、ビアV11、V21、V31、V41および配線M11、M21、M31を介して第2配線としての配線M41に電気的に接続される。即ち、配線M41は、表面F1側に設けられ、ゲート電極TRG1gに接続されている。ゲート電極TRG2gは、ビアV12、V22、V32、V42および配線M12、M22、M32を介して第3配線としての配線M42に電気的に接続される。即ち、配線M42は、表面F1側に設けられ、ゲート電極TRG2gに接続されている。図2の垂直駆動部22が配線M41,M42に接続されており、配線M41,M42を介してゲート電極TRG1g、TRG2gの電位を制御する。これにより、垂直駆動部22は転送トランジスタTRG1、TRG2を駆動させることができる。配線M11~M42、Mbias、ビアV11~V42、Vbiasには、例えば、銅等の導電性金属が用いられる。図5において、配線M11~M42は、4層構造となっているが、配線層の数は、限定されず、4層より少なくても、多くても構わない。
 尚、配線M11、M12、Mbiasは同一配線層に構成され、配線M21、M22は同一配線層に構成される。配線M31、M32は同一配線層に構成され、配線M41、M42は同一配線層に構成される。配線M11、M12は、それぞれ転送トランジスタTRG1、TRG2のゲート電極TRG1g、TRG2gにビアV11、V12を介して電気的に接続された配線である。
 付加容量FDL1、FDL2は、例えば、配線M21、M22または配線M31、32と同一層の配線で構成されたMoM、MIMまたはMOSキャパシタでよい。付加容量FDL1、FDL2は、ここでは図示しないが、それぞれ浮遊拡散領域FD1、FD2に電気的に接続され、電荷を浮遊拡散領域FD1、FD2とともに蓄積することができる。また、付加容量FDL1、FDL2は、表面F1側からの平面視において、フォトダイオードPDとオーバーラップしている。これにより、画素10の配置面積を小さくすることができる。勿論、付加容量FDL1、FDL2は、配線M21、M22および配線M31、32とは異なる導電層で構成されていてもよい。
 層間絶縁膜62は、半導体層51の表面F1上に設けられ、配線M11~M42、Mbias、ビアV11~V42、Vbias等を被覆している。層間絶縁膜62には、例えば、シリコン酸化膜等の絶縁膜が用いられる。
 次に、測距装置100の動作について説明する。
 図6は、第1実施形態による測距装置の動作の一例を示すタイミング図である。横軸は時間を示す。縦軸は、照射光の信号レベル(強度)、反射光の信号レベル(強度)、ゲート信号STRG1、STRG2、並びに、浮遊拡散領域FD1、FD2または付加容量FDL1、FLD2に蓄積される電荷量QFD1、QFD2を示す。尚、ゲート信号STRG1、STRG2は、それぞれ図3または図5に示すゲート電極TRG1g、TRG2gに印加される信号である。
 まず、受光素子1は、リセット状態にあるものとする。発光素子2が、照射光を発光する。照射光の周波数は、Fmodとする。照射光は、物体Mに反射して受光素子1で受光される。反射光の周波数は、照射光のそれと同じであり、Fmodのままである。一方、照射光が発光されてから物体Mに反射して反射光として戻ってくるまでにかかる時間Δtが、照射光に対する反射光の遅延時間(ToF)となる。遅延時間Δtが判明すれば、光速cに基づいて、測距装置100から物体Mまでの距離は計算され得る。しかし、遅延時間Δt(t1~t2)に応じて、照射光と反射光との間には位相差が生じるので、iToFでは、照射光と反射光との位相差αを用いて測距装置100から物体Mまでの距離(デプス情報)Dを算出する。
 距離Dは式1で表される。
 D=(c×Δt)/2=(c×α)/(4π×Fmod)  (式1)
位相差αが分かれば、式1により距離Dを算出することができる。
 また、位相差αは、式2で表される。
 α=arctan((Q90-Q270)/(Q-Q180)) (式2)Qθ(θ=0、90、180、270)は、照射光に対してゲート信号STRG1、STRG2の位相をθだけずらしたときに、浮遊拡散領域FD1、FD2または付加容量FDL1、FDL2に蓄積される電荷量の差(電位差)を示す。即ち、iToF方式では、照射光に対するゲート信号STRG1、STRG2の位相を所定値(例えば、0度、90度、180度、270度)ずらしたときに得られる4つの画像データを用いて位相差αを演算する。そして、この位相差αを用いて距離Dを算出する。この演算は、図2の信号処理部26で実行すればよい。
 以下、図6を参照して、Qθの算出について説明する。
 転送トランジスタTRG1、TRG2のゲート電極TRG1g、TRG2gには、ゲート信号STRG1、STRG2が印加される。ゲート信号STRG1、STRG2は、照射光と同じ周波数Fmodのパルス信号である。ゲート信号STRG1とゲート信号STRG2は、互いに180度ずれた逆相の信号であり、照射光から所定の位相θ(0度、90度、180度および270度のいずれか)だけシフトするように設定される。例えば、図6では、ゲート信号STRG1の位相は、照射光の位相から90度(θ=90)だけシフトするように設定されている。ゲート信号STRG2は、ゲート信号STRG1の逆相信号であるので、ゲート信号STRG2の位相もゲート信号STRG1の位相ともにシフトしている。
 ゲート信号STRG1、STRG2は、互いに逆相信号であるので、図3、図5の転送トランジスタTRG1、TRG2は、交互に導通状態になる。例えば、t0~t3において、ゲート信号STRG1がハイレベルであるので、転送トランジスタTRG1が導通状態となる。一方、ゲート信号STRG2がロウレベルであるので、転送トランジスタTRG2が非導通状態となる。このとき、フォトダイオードPDで発生した電荷qaは、転送トランジスタTRG1を介して浮遊拡散領域FD1および付加容量FDL1へ転送される。一方、電荷qaは、浮遊拡散領域FD2および付加容量FDL2へは転送されない。浮遊拡散領域FD1および付加容量FDL1の電荷量をQFD1とすると、電荷量QFD1は電荷量qaの分だけ変化(低下)する。一方、電荷は、浮遊拡散領域FD2および付加容量FDL2へは転送されない。従って、浮遊拡散領域FD2および付加容量FDL2の電荷量をQFD2とすると、電荷量QFD2は変化しない。
 次に、t3~t4において、ゲート信号STRG2がハイレベルとなり、転送トランジスタTRG2が導通状態となる。一方、ゲート信号STRG1がロウレベルとなり、転送トランジスタTRG1が非導通状態となる。このとき、フォトダイオードPDで発生した電荷qbは、転送トランジスタTRG2を介して浮遊拡散領域FD2および付加容量FDL2へ転送される。一方、電荷qbは、浮遊拡散領域FD1および付加容量FDL1へは転送されない。従って、電荷量QFD2は電荷量qbの分だけ変化(低下)する。一方、電荷は、浮遊拡散領域FD1および付加容量FDL1へは転送されない。従って、電荷量QFD1は変化しない。
 t4~t5、t6~t7における受光素子1の動作は、t0~t3における受光素子1の動作と同様である。また、t5~t6、t7~t8における受光素子1の動作は、t3~t4における受光素子1の動作と同様である。このように、転送トランジスタTRG1、TRG2は導通状態と非導通状態とを互い違いに周期的に繰り返す。これにより、フォトダイオードPDで発生する電荷qaは、浮遊拡散領域FD1および付加容量FDL1へ次第に蓄積(積分)され、フォトダイオードPDで発生する電荷qbは、浮遊拡散領域FD2および付加容量FDL2へ次第に蓄積(積分)される。フォトダイオードPDで発生する電荷qa、qbを、照射光および反射光の周波数Fmodに基づいて振り分けることによって、照射光に対する反射光の位相差αに応じた電荷量の差Q90が大きくなる。電荷量差Q90が充分に大きくなったところで、受光素子1は、図3の垂直信号線29A、29Bを介して浮遊拡散領域FD1、FD2の電位を出力する。
 上記受光処理は、θ=0、90、180、270のそれぞれについて実行され、電荷量差Q、Q90、Q180、Q270を検出する。これにより、照射光に対するゲート信号STRG1、STRG2の位相をずらしたときに得られる4つの画像データ(即ち、Q、Q90、Q180、Q270)が得られる。信号処理部26は、この4つの画像データ(Q、Q90、Q180、Q270)を用いて式2から位相差αを演算する。さらに、信号処理部26は、位相差αを用いて式1から距離Dを算出する。
 このようにして、本開示による測距装置100は、iToF方式を用いて距離D(デプス情報)を得る。
 以上のように、本実施形態による受光素子1は、配線構造を半導体層51の表面F1に有し、オンチップレンズ47を裏面F2に有する裏面照射型構造となっている。従って、入射光は、配線M11~M42、Mbias等によって阻止されず、高透過率のオンチップレンズ47および半導体層51を介してさほど減衰されずにフォトダイオードPDに届く。従って、半導体層51内で光電変換される光量をより多くし、量子効率(Qe)、即ち、画素10の感度を向上させることができる。
 また、本実施形態によれば、導波部55が、半導体層51の裏面F2から表面F1側のフォトダイオードPDへ向かって設けられている。導波部55は、半導体層51との界面において入射光の少なくとも一部を反射して、フォトダイオードPDへ入射光を案内する。これにより、本実施形態による受光素子1の量子効率(感度)を改善することができる。導波部55が半導体層51との界面において入射光を反射するために、導波部55の屈折率は半導体層51の屈折率よりも高いことが好ましい。これにより、受光素子1の感度をさらに改善することができる。
 また、本実施形態によれば、フォトダイオードPDは、半導体層51(例えば、シリコン基板)内の不純物拡散層で構成されず、半導体層51の裏面F2に接触する半導体層51とは別材料で構成されている。フォトダイオードPDとして、シリコンよりも光電変換効率の高い材料(例えば、ゲルマニウム、InGaAs、CIGSまたはQdot)を用いることによって、受光素子1の量子効率(感度)をさらに改善することができる。
 また、フォトダイオードPDが、半導体層51とは別に設けられているので、量子効率の向上を考慮して半導体層51を厚くする必要が無い。半導体層51を薄くすることができるので、画素間分離部61を深く形成する必要がなくなり、画素間分離部61の形成が容易になる。また、画素間分離部61は比較的浅くても隣接画素への入射光の漏れを効率的に抑制し、クロストークを効果的に抑制することができる。これにより、SNRを向上させ、解像度を改善することができる。
 さらに、半導体層51を薄くすると、導波部55の厚みが薄くなり、導波部55内における入射光の経路が短くなる。これにより、導波部55から漏れる光量が少なくなり、導波部55はさらに多くの入射光をフォトダイオードPDに案内することができる。その結果、受光素子1の量子効率をさらに向上させることができる。
(第2実施形態)
 図7は、第2実施形態による画素10の構成例を示す断面図である。第2実施形態による受光素子1は、導波部55の側面に設けられた金属層56をさらに備えている。金属層56には、光を反射する金属材料を用いればよく、例えば、タングステン(W)、アルミニウム(Al)または銅(Cu)等の金属材料が用いられる。導波部55の屈折率が半導体層51の屈折率以下であっても、金属層56が導波部55内の入射光を反射するので、導波部55は入射光をフォトダイオードPDへ案内することができる。このように、金属層56が設けられていれば、導波部55の屈性率が小さくても、受光素子1の量子効率を上昇させることができる。第2実施形態のその他の構成は、第1実施形態の対応する構成と同様でよい。これにより、第2実施形態は、第1実施形態の効果も得ることができる。
(第3実施形態)
 図8は、第3実施形態による画素10の構成例を示す断面図である。第3実施形態によれば、ゲート電極TGR1g、TGR2gが表面F1から半導体層51内に埋め込まれ、縦型ゲート構造となっている。これにより、転送トランジスタTRG1、TRG2が低いゲート電圧でも導通状態となることができ、電荷の転送速度をさらに高めることができる。
 また、ゲート電極TGR1g、TGR2gは、不純物層52またはフォトダイオードPDと浮遊拡散領域FD1、FD2との間に設けられるので、入射光が浮遊拡散領域FD1、FD2へ直接進入することを抑制することができる。これにより、PLS(Parasitic Light Sensitivity)を低減することができる。第3実施形態のその他の構成は、第1実施形態の対応する構成と同様でよい。これにより、第3実施形態は、第1実施形態の効果も得ることができる。
(第4実施形態)
 図9は、第4実施形態による画素10の構成例を示す断面図である。第4実施形態による画素10は、フォトダイオードPDと半導体層51との間に設けられ、フォトダイオードPDの材料と半導体層51の材料とが混合された混合層66をさらに備えている。例えば、半導体層51がシリコンであり、フォトダイオードPDがゲルマニウムである場合、混合層66は、SiGe層となる。このように、フォトダイオードPDと半導体層51との間に混合層66が設けられていても、本開示の効果は失われない。第4実施形態によれば、混合層66としてSiGe層が設けられている場合、ゲルマニウム(Ge)の添加比率を制御することにより、フォトダイオードPDと半導体層51との間のバンドギャップを連続的に変化させることができるという効果がある。第4実施形態のその他の構成は、第1実施形態の対応する構成と同様でよい。これにより、第4実施形態は、第1実施形態の効果も得ることができる。
(第5実施形態)
 図10は、第5実施形態による画素10の構成例を示す断面図である。第5実施形態による画素10は、フォトダイオードPDの上部が半導体層51の表面F1から不純物層52へ埋め込まれている。フォトダイオードPDの上部が不純物層52へ埋め込まれていることによって、電荷がフォトダイオードPDから不純物層52へ取り込まれ易くなる。これにより、電荷の転送速度がさらに高速化される。
(第6実施形態)
 図11は、第6実施形態による画素10の構成例を示す断面図である。第6実施形態による画素10は、オンチップレンズ47または平坦化膜46と半導体層51の裏面F2との間に設けられた追加の半導体層151および追加の導波部155をさらに備えている。導波部155と導波部55との間には、反射防止膜143が設けられている。半導体層151と半導体層51との間には、遮光膜145が設けられている。
 半導体層151および導波部155には、それぞれ半導体層51および導波部55と同じ材料を用いればよい。反射防止膜143および遮光膜145には、それぞれ反射防止膜43および遮光膜45と同じ材料を用いればよい。
 半導体層151は、半導体層51の裏面F2に対向する面F3と、面F3と反対側にある面Fとを有する。反射防止膜143および遮光膜145は、半導体層51の裏面F2と半導体層151の面F3との間に設けられる。反射防止膜43および遮光膜45は、半導体層151の面F4上に設けられる。
 導波部155は、面F4側において開口部OPとほぼ同じかそれよりも大きな端面E4を有し、面F3側において導波部55の裏面F2側の端面E2とほぼ同じかそれより幾分小さい端面E3を有する。導波部155の端面E3の面積は、導波部155の端面E4の面積よりも小さくなっている。従って、導波部155は、半導体層151の面F4から面F3側へ向かって次第に細くなるように延伸している。導波部155の側面は、面F3、面F4、端面E3、E4に対する垂直方向から傾斜する。即ち、導波部155は、端面E4と端面E3との間にある側面においてテーパー形状を有する。導波部155は、その側面、即ち、半導体層151との界面において、入射光の少なくとも一部を反射して導波部55へ入射光を案内する。これにより、導波部155は、比較的大きな開口部OPからそれよりも小さな導波部55の裏面F2側の端面へ入射光を案内することができる。これにより、導波部155は、開口部OPを通過した入射光をあまり漏洩すること無く、導波部55へ案内することができる。
 一方、導波部55は、半導体層51の裏面F2から表面F1側のフォトダイオードPDへ向かって次第に太くなるように延伸している。表面F1側の導波部55の端面E1の面積は、裏面F2側の導波部55の端面E2の面積よりも大きくなっている。導波部55は、不純物層52の表面近傍まで設けられているが、フォトダイオードPDまでは達していない。
 導波部55は、半導体層51との界面において入射光の少なくとも一部を反射して、フォトダイオードPDへ入射光を案内する。
 導波部55は、端面E2において、導波部155の端面E3に等しいかそれ以上の面積を有し、表面F1側において、フォトダイオードPDとほぼ等しいかそれよりも小さい面積を有する。導波部55は、裏面F2から表面F1へ次第に太くなるように形成されており、表面F1と裏面F2との間にある側面においてテーパー形状を有する。これにより、導波部55は、比較的小さな端面からの入射光をフォトダイオードPDへ充分照射することができる。
 このように、導波部55、155は、砂時計型に構成されている。導波部155の開口部OPを大きくすることによって、多くの入射光を画素10内に導くことができる。導波部55は、導波部155で導かれた入射光を金属膜145と画素間分離部61で囲まれた内部領域に導入する。金属膜145には、例えば、タングステン(W)、アルミニウム(Al)または銅(Cu)等の金属材料が用いられる。入射光は、金属膜145と画素間分離部61で囲まれた内部領域内で光電変換されるまで反射を繰り返す。ここで、端面E2における導波部55の開口面積を小さくすることによって、内部領域に導入された入射光が端面E2から画素10の外部へ光電変換せずに出ていく確率を低減することができる。従って、導波部155の開口部OPを大きくしたまま、内部領域に入射光を閉じ込めることができる。即ち、導波部55、155は、主間部が括れた砂時計型にすることによって、多くの入射光を取り入れながら、充分に光電変換させることができる。その結果、量子効率を上昇させることができる。第6実施形態のその他の構成は、第1実施形態の対応する構成と同様でよい。
(第7実施形態)
 図12は、第7実施形態による受光素子1の構成例を示す断面図である。図13は、第7実施形態による受光素子1の構成例を示す模式図である。第7実施形態による受光素子1は、画素10の半導体チップC1と、他の周辺回路20の半導体チップC2とを備えている。半導体チップC1は、例えば複数の画素10が配列された画素アレイを有する。半導体チップC2は、例えば、画素10のコントローラでよく、半導体基板上に設けられたCMOS(Complementary Metal Oxide Semiconductor)ロジック回路13等を有する。半導体チップC1と半導体チップC2とは、積層構造となっており、配線同士で直接接合(Cu-Cu接合)されており、1つのデバイス(モジュール)として機能する。このように、受光素子1は、複数の半導体チップを積層したモジュールであってもよい。これにより、受光素子1の配置面積を小さくすることができる。
(第8実施形態)
 図14は、第8実施形態による受光素子1の構成例を示す断面図である。図15は、第8実施形態による受光素子1の構成例を示す平面図である。第8実施形態による受光素子1は、互いに隣接するように配列された画素10、11を有する。画素10は、本開示による画素であり、例えば、フォトダイオードPDとしてゲルマニウムを用いており、短波赤外光(SWIR)を検出する画素である。画素11は、半導体層51(例えば、シリコン基板)に設けられたフォトダイオードPDにおいて、近赤外光(NIR(NearIntraRed))を検出する画素である。このように、検出光の異なる画素10、11を交互に並列して配置することによって、受光素子1は、SWIRおよびNIRの両方を検出することができる。即ち、受光素子1の検出波長の範囲を広くすることができる。尚、図15では、画素10、11を2つずつ配置しているが、それぞれ3つ以上配置してもよい。
(第9実施形態)
 図16は、第9実施形態による受光素子1の構成例を示す断面図である。第9実施形態による受光素子1は、第1電圧印加部の一例として、表面F1において浮遊拡散領域FD1に隣接し、浮遊拡散領域FD1に対して逆導電型の第1不純物層TAP1を備える。また、受光素子1は、第2電圧印加部の一例として、表面F1において浮遊拡散領域FD2に隣接し、浮遊拡散領域FD2に対して逆導電型の第2不純物層TAP2を備える。例えば、浮遊拡散領域FD1、FD2が濃いN+型不純物層である場合、第1および第2不純物層TAP1、TAP2は、濃いP+型不純物層である。この場合、第1不純物層TAP1には、表面F1側に設けられた配線M41が電気的に接続される。第2不純物層TAP2には、表面F1側に設けられた配線M42が電気的に接続される。
 垂直駆動部22は、配線M41,42の電圧を交互に切り替えることによって、第1不純物層TAP1と第2不純物層TAP2との間で流れる電流方向を周期的に切り替える。これにより、フォトダイオードPDで生成した電荷を、周期的に浮遊拡散領域FD1、FD2へ交互に振り分けることができる。これにより、上記実施形態と同様に、測距装置100は、iToF方式でQθ(θ=0、90、180、270)を検出し、距離Dを算出することができる。
(第10実施形態)
 図17は、第10実施形態による画素10の構成例を示す断面図である。フォトダイオードPDには、配線MbiasおよびビアVbiasが接続されている。フォトダイオードPDには、配線MbiasおよびビアVbiasを介してバイアス電圧が印加される。これにより、フォトダイオードPDにおいて光電変換された電荷は、不純物層52に容易に取り込まれ、転送トランジスタTRG1、TRG2を介して浮遊拡散領域FD1、FD2へ素早く転送される。即ち、本実施形態によれば、フォトダイオードPDから浮遊拡散領域FD1、FD2への電荷の転送速度を高めることができる。
(第11実施形態)
 図18は、第11実施形態による画素10の構成例を示す断面図である。第11実施形態によれば、フォトダイオードPDは、半導体層51の裏面F2の上方から見たときに、開口部OPおよび不純物層52よりも面積において小さい。これにより、フォトダイオードPDと半導体層51との接触面積が小さくなり、暗電流を小さくすることができる。
 また、第11実施形態による画素10は、金属層65をさらに備えている。金属層65には、導電性かつ光を反射する金属材料が用いられ、例えば、タングステン(W)、アルミニウム(Al)または銅(Cu)等の金属材料が用いられる。金属層65は、フォトダイオードPDと半導体層51との間の接触部以外において、フォトダイオードPDの周囲を被覆している。即ち、金属層65は、フォトダイオードPDの上面以外の、底面および4方の側面を被覆しており、方形状の器形の形状を有する。また、金属層65は、フォトダイオードPDとビアVbiasまたは配線Mbiasとの間に設けられており、フォトダイオードPDと配線Mbiasとの間を電気的に接続する電極としても機能する。
 金属層65は、フォトダイオードPDに入射した光をフォトダイオードPD内で反射させ、フォトダイオードPD内における光路をできるだけ長くする。これにより、フォトダイオードPDにおける量子効率を上昇させることができる。即ち、金属層65は、フォトダイオードPD内における光閉じ込め効果を有し、量子効率(感度)を上昇させることができる。この場合、フォトダイオードPDの平面レイアウトの面積が小さくても、充分に大きな量子効率を得ることができる。
 また、金属層65は、フォトダイオードPDの電極としても機能する。従って、配線Mbiasからのバイアス電圧は、金属層65を介してフォトダイオードPDの底面および側面の全体からフォトダイオードPDへ印加される。これにより、フォトダイオードPDの電荷が不純物層52へさらに容易に取り込まれ、電荷の転送速度もさらに高速化される。
 第2実施形態のその他の構成は、第1実施形態の対応する構成と同様でよい。従って、第2実施形態は、第1実施形態の構成をさらに有する。
 上記第1~第11実施形態は、それらの2つ以上を互いに組み合わせてもよい。例えば、第2実施形態の金属層56は、第3~第11実施形態のいずれに適用してもよい。金属層56は、図11の導波部55、155のいずれか一方あるいはそれらの両方に設けてよい。また、例えば、第9実施形態の第1および第2不純物層52は、第1~第8、第10、第11実施形態のいずれかに適用してもよい。
 次に、本開示による画素10の平面レイアウトの具体例について説明する。
 図19は、本開示による画素10のレイアウトの一例を示した平面図である。図19では、不純物層52の中心部に、1つのフォトダイオードPDが設けられている。フォトダイオードPDの中心部にビアVbiasが設けられている。
 図20は、本開示による画素10のレイアウトの他の例を示した平面図である。図20では、不純物層52の中心部に、複数のフォトダイオードPDが分割して設けられている。各フォトダイオードPDの部分の中心部にビアVbiasが設けられている。従って、ビアVbiasは、フォトダイオードPDと同数だけ設けられている。図20において、フォトダイオードPDは、4つに分割されているが、3つ以下に分割されてもよく、5つ以上に分割されても構わない。
 フォトダイオードPD間のスリットの幅は、照射光の波長よりも狭くすることが好ましい。これにより、スリットの幅を波長に対して最適化することにより、共振効果を得て、光電変換を促進させる効果が期待できる。
<電子機器の構成例>
 測距装置100は、測距装置に適用できる他、例えば、測距機能を備えるデジタルスチルカメラやデジタルビデオカメラなどの撮像装置、測距機能を備えたスマートフォンといった各種の電子機器に適用することができる。
 図21は、本技術を適用した電子機器としての、スマートフォンの構成例を示すブロック図である。
 スマートフォン601は、図21に示されるように、測距モジュール602、撮像装置603、ディスプレイ604、スピーカ605、マイクロフォン606、通信モジュール607、センサユニット608、タッチパネル609、および制御ユニット610が、バス611を介して接続されて構成される。また、制御ユニット610では、CPUがプログラムを実行することによって、アプリケーション処理部621およびオペレーションシステム処理部622としての機能を備える。
 測距モジュール602には、測距装置100が適用され得る。例えば、測距モジュール602は、スマートフォン601の前面に配置され、スマートフォン601のユーザを対象とした測距を行うことにより、そのユーザの顔や手、指などの表面形状のデプス値を測距結果として出力することができる。
 撮像装置603は、スマートフォン601の前面に配置され、スマートフォン601のユーザを被写体とした撮像を行うことにより、そのユーザが写された画像を取得する。なお、図示しないが、スマートフォン601の背面にも撮像装置603が配置された構成としてもよい。
 ディスプレイ604は、アプリケーション処理部621およびオペレーションシステム処理部622による処理を行うための操作画面や、撮像装置603が撮像した画像などを表示する。スピーカ605およびマイクロフォン606は、例えば、スマートフォン601により通話を行う際に、相手側の音声の出力、および、ユーザの音声の収音を行う。
 通信モジュール607は、インターネット、公衆電話回線網、所謂4G回線や5G回線等の無線移動体用の広域通信網、WAN(WideAreaNetwork)、LAN(LocalAreaNetwork)等の通信網を介したネットワーク通信、Bluetooth(登録商標)、NFC(NearFieldCommunication)等の近距離無線通信などを行う。センサユニット608は、速度や加速度、近接などをセンシングし、タッチパネル609は、ディスプレイ604に表示されている操作画面に対するユーザによるタッチ操作を取得する。
 アプリケーション処理部621は、スマートフォン601によって様々なサービスを提供するための処理を行う。例えば、アプリケーション処理部621は、測距モジュール602から供給されるデプス値に基づいて、ユーザの表情をバーチャルに再現したコンピュータグラフィックスによる顔を作成し、ディスプレイ604に表示する処理を行うことができる。また、アプリケーション処理部621は、測距モジュール602から供給されるデプス値に基づいて、例えば、任意の立体的な物体の三次元形状データを作成する処理を行うことができる。
 オペレーションシステム処理部622は、スマートフォン601の基本的な機能および動作を実現するための処理を行う。例えば、オペレーションシステム処理部622は、測距モジュール602から供給されるデプス値に基づいて、ユーザの顔を認証し、スマートフォン601のロックを解除する処理を行うことができる。また、オペレーションシステム処理部622は、測距モジュール602から供給されるデプス値に基づいて、例えば、ユーザのジェスチャを認識する処理を行い、そのジェスチャに従った各種の操作を入力する処理を行うことができる。
 このように構成されているスマートフォン601では、測距モジュール602として、上述した測距装置100を適用することで、例えば、所定の物体までの距離を測定して表示したり、所定の物体の三次元形状データを作成して表示する処理などを行うことができる。
<移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図22は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図22に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、上記測距装置100を備え、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(AdvancedDriverAssistanceSystem)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図22の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図23は、撮像部12031の設置位置の例を示す図である。
 図23では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図23には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 本技術に係る実施形態は、上記実施形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。なお、本技術は、以下のような構成をとることができる。
(1)
 第1面および該第1面に対して反対側にある第2面を有する半導体層と、
 前記第2面側に設けられたレンズと、
 前記第1面側において前記半導体層内に設けられた第1および第2電荷蓄積部と、
 前記第1面側において前記半導体層と接触し、該半導体層と異なる材料からなる光電変換部と、
 前記第1および第2電荷蓄積部と前記光電変換部との間の前記半導体層に電圧を印加する第1および第2電圧印加部と、
 前記半導体層内に前記第2面から前記光電変換部へ延び、前記半導体層と異なる材料からなる導波部と、を備えた測距装置。
(2)
 前記第1面側における前記導波部の端面の面積は、前記第2面側における前記導波部の端面の面積よりも小さい、(1)に記載の測距装置。
(3)
 前記導波部は、前記第2面側の端面において前記レンズから前記半導体層へ入射光を通過させる開口部と等しいかそれ以上の面積を有し、前記第1面側の端面において前記光電変換部と等しいかそれ以下の面積を有し、前記第1面と前記第2面との間にある側面が前記第1面または前記第2面に対する垂直方向から傾斜する、(1)または(2)に記載の測距装置。
(4)
 前記導波部の屈折率は、前記半導体層の屈折率よりも高い、(1)から(3)のいずれか一項に記載の測距装置。
(5)
 前記導波部の屈折率は、前記レンズの屈折率よりも低い、請求項4に記載の測距装置。(6)
 前記導波部の側面に設けられた金属をさらに備える、(1)から(5)のいずれか一項に記載の測距装置。
(7)
 前記半導体層には、シリコンが用いられており、
 前記光電変換部には、ゲルマニウム、InGaAs、CIGS、Qdotが用いられており、
 前記導波部には、樹脂材料が用いられている、(1)から(6)のいずれか一項に記載の測距装置。
(8)
 前記光電変換部と前記半導体層との間に設けられ、前記光電変換部の材料と前記半導体層の材料とが混合された混合層をさらに備える、(1)から(7)のいずれか一項に記載の測距装置。
(9)
 前記第2面側において、前記導波部上に設けられた追加導波部をさらに備え、
 前記第1面側における前記導波部の第1端面の面積は、前記第2面側における前記導波部の第2端面の面積よりも大きく、
 前記導波部の第2端面と対向する前記追加導波部の第3端面の面積は、該第3端面とは反対側にある前記追加導波部の第4端面の面積よりも小さい、(1)に記載の測距装置。(10)
 前記第1電圧印加部は、前記第1電荷蓄積部と前記光電変換部との間の前記第1面上に設けられ、前記半導体層から絶縁された第1ゲート電極であり、
 前記第2電圧印加部は、前記第2電荷蓄積部と前記光電変換部との間の前記第1面上に設けられ、前記半導体層から絶縁された第2ゲート電極であり、
 前記第1面側に設けられ、前記第1電圧印加部に接続された第2配線と、
 前記第1面側に設けられ、前記第2電圧印加部に接続された第3配線とをさらに備える、(1)から(9)のいずれか一項に記載の測距装置。
(11)
 前記第1および第2電圧印加部は、前記半導体層の前記第1面上に絶縁膜を介して設けられている、(10)に記載の測距装置。
(12)
 前記第1および第2電圧印加部は、前記半導体層の前記第1面から該半導体層内へ埋め込まれている、(10)に記載の測距装置。
(13)
 前記第1電圧印加部は、前記第1面において前記第1電荷蓄積部に隣接し、該第1電荷蓄積部に対して導電型の異なる第1不純物層であり、
 前記第2電圧印加部は、前記第1面において前記第2電荷蓄積部に隣接し、該第2電荷蓄積部に対して導電型の異なる第2不純物層であり、
 前記第1面側に設けられ、前記第1電圧印加部に接続された第2配線と、
 前記第1面側に設けられ、前記第2電圧印加部に接続された第3配線とをさらに備える、(1)から(9)のいずれか一項に記載の測距装置。
(14)
 前記光電変換部は、前記半導体層の前記第2面の上方から見たときに、前記レンズから前記半導体層へ入射光を通過させる開口部よりも小さい、(1)から(13)のいずれか一項に記載の測距装置。
(15)
 導電性かつ光を反射する材料からなり、前記光電変換部と前記半導体層との間の接触部以外において該光電変換部の周囲を被覆している金属層をさらに備えた、(1)から(14)のいずれか一項に記載の測距装置。
 尚、本開示は、上述した実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
100 測距装置、1 受光素子、10 画素、PD フォトダイオード、TRG1、TRG2 転送トランジスタ、FD1、FD2 浮遊拡散領域、FDL1、FDL2 付加容量、51 半導体層、47 オンチップレンズ、43 反射防止膜、45 遮光膜、61 画素間分離部、52 不純物層、V1~V4,Vbias ビア、M1~M4,Mbias 配線、65 金属層、55 導波部

Claims (15)

  1.  第1面および該第1面に対して反対側にある第2面を有する半導体層と、
     前記第2面側に設けられたレンズと、
     前記第1面側において前記半導体層内に設けられた第1および第2電荷蓄積部と、
     前記第1面側において前記半導体層と接触し、該半導体層と異なる材料からなる光電変換部と、
     前記第1および第2電荷蓄積部と前記光電変換部との間の前記半導体層に電圧を印加する第1および第2電圧印加部と、
     前記半導体層内に前記第2面から前記光電変換部へ延び、前記半導体層と異なる材料からなる導波部と、を備えた測距装置。
  2.  前記第1面側における前記導波部の端面の面積は、前記第2面側における前記導波部の端面の面積よりも小さい、請求項1に記載の測距装置。
  3.  前記導波部は、前記第2面側の端面において前記レンズから前記半導体層へ入射光を通過させる開口部と等しいかそれ以上の面積を有し、前記第1面側の端面において前記光電変換部と等しいかそれ以下の面積を有し、前記第1面と前記第2面との間にある側面が前記第1面または前記第2面に対する垂直方向から傾斜する、請求項1に記載の測距装置。
  4.  前記導波部の屈折率は、前記半導体層の屈折率よりも高い、請求項1に記載の測距装置。
  5.  前記導波部の屈折率は、前記レンズの屈折率よりも低い、請求項4に記載の測距装置。
  6.  前記導波部の側面に設けられた金属をさらに備える、請求項1に記載の測距装置。
  7.  前記半導体層には、シリコンが用いられており、
     前記光電変換部には、ゲルマニウム、InGaAs、CIGS(CopperIndiumGalliumDiSelenide)、Qdot(Quantumdot)が用いられており、
     前記導波部には、樹脂材料が用いられている、請求項1に記載の測距装置。
  8.  前記光電変換部と前記半導体層との間に設けられ、前記光電変換部の材料と前記半導体層の材料とが混合された混合層をさらに備える、請求項1に記載の測距装置。
  9.  前記第2面側において、前記導波部上に設けられた追加導波部をさらに備え、
     前記第1面側における前記導波部の第1端面の面積は、前記第2面側における前記導波部の第2端面の面積よりも大きく、
     前記導波部の第2端面と対向する前記追加導波部の第3端面の面積は、該第3端面とは反対側にある前記追加導波部の第4端面の面積よりも小さい、請求項1に記載の測距装置。
  10.  前記第1電圧印加部は、前記第1電荷蓄積部と前記光電変換部との間の前記第1面上に設けられ、前記半導体層から絶縁された第1ゲート電極であり、
     前記第2電圧印加部は、前記第2電荷蓄積部と前記光電変換部との間の前記第1面上に設けられ、前記半導体層から絶縁された第2ゲート電極であり、
     前記第1面側に設けられ、前記第1電圧印加部に接続された第2配線と、
     前記第1面側に設けられ、前記第2電圧印加部に接続された第3配線とをさらに備える、請求項1に記載の測距装置。
  11.  前記第1および第2電圧印加部は、前記半導体層の前記第1面上に絶縁膜を介して設けられている、請求項10に記載の測距装置。
  12.  前記第1および第2電圧印加部は、前記半導体層の前記第1面から該半導体層内へ埋め込まれている、請求項10に記載の測距装置。
  13.  前記第1電圧印加部は、前記第1面において前記第1電荷蓄積部に隣接し、該第1電荷蓄積部に対して導電型の異なる第1不純物層であり、
     前記第2電圧印加部は、前記第1面において前記第2電荷蓄積部に隣接し、該第2電荷蓄積部に対して導電型の異なる第2不純物層であり、
     前記第1面側に設けられ、前記第1電圧印加部に接続された第2配線と、
     前記第1面側に設けられ、前記第2電圧印加部に接続された第3配線とをさらに備える、請求項1に記載の測距装置。
  14.  前記光電変換部は、前記半導体層の前記第2面の上方から見たときに、前記レンズから前記半導体層へ入射光を通過させる開口部よりも小さい、請求項1に記載の測距装置。
  15.  導電性かつ光を反射する材料からなり、前記光電変換部と前記半導体層との間の接触部以外において該光電変換部の周囲を被覆している金属層をさらに備えた、請求項1に記載の測距装置。
PCT/JP2021/013695 2020-05-26 2021-03-30 測距装置 WO2021240988A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202180029439.5A CN115428155A (zh) 2020-05-26 2021-03-30 测距装置
KR1020227038198A KR20230015326A (ko) 2020-05-26 2021-03-30 거리 측정 장치
JP2022527538A JPWO2021240988A1 (ja) 2020-05-26 2021-03-30
US17/998,551 US20230204773A1 (en) 2020-05-26 2021-03-30 Ranging device
EP21813132.4A EP4160686A4 (en) 2020-05-26 2021-03-30 TELEMETRY DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-091569 2020-05-26
JP2020091569 2020-05-26

Publications (1)

Publication Number Publication Date
WO2021240988A1 true WO2021240988A1 (ja) 2021-12-02

Family

ID=78723312

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/013695 WO2021240988A1 (ja) 2020-05-26 2021-03-30 測距装置

Country Status (7)

Country Link
US (1) US20230204773A1 (ja)
EP (1) EP4160686A4 (ja)
JP (1) JPWO2021240988A1 (ja)
KR (1) KR20230015326A (ja)
CN (1) CN115428155A (ja)
TW (1) TW202147596A (ja)
WO (1) WO2021240988A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246450A (ja) * 2005-02-04 2006-09-14 Canon Inc 撮像装置及び撮像システム
JP2006339339A (ja) * 2005-06-01 2006-12-14 Sony Corp 固体撮像装置及びその製造方法
KR20110079329A (ko) * 2009-12-31 2011-07-07 주식회사 동부하이텍 이미지 센서 및 그 제조방법
JP2013157442A (ja) * 2012-01-30 2013-08-15 Nikon Corp 撮像素子および焦点検出装置
US20160064435A1 (en) * 2014-09-03 2016-03-03 Kabushiki Kaisha Toshiba Photo sensor and manufacturing method thereof
WO2018187370A1 (en) * 2017-04-04 2018-10-11 Artilux Corporation High-speed light sensing apparatus iii
WO2018191539A1 (en) * 2017-04-13 2018-10-18 Artilux Corporation Germanium-silicon light sensing apparatus ii
JP2020009883A (ja) * 2018-07-06 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器
JP2020013909A (ja) 2018-07-18 2020-01-23 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI774545B (zh) * 2017-02-28 2022-08-11 美商光程研創股份有限公司 高速光偵測裝置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246450A (ja) * 2005-02-04 2006-09-14 Canon Inc 撮像装置及び撮像システム
JP2006339339A (ja) * 2005-06-01 2006-12-14 Sony Corp 固体撮像装置及びその製造方法
KR20110079329A (ko) * 2009-12-31 2011-07-07 주식회사 동부하이텍 이미지 센서 및 그 제조방법
JP2013157442A (ja) * 2012-01-30 2013-08-15 Nikon Corp 撮像素子および焦点検出装置
US20160064435A1 (en) * 2014-09-03 2016-03-03 Kabushiki Kaisha Toshiba Photo sensor and manufacturing method thereof
WO2018187370A1 (en) * 2017-04-04 2018-10-11 Artilux Corporation High-speed light sensing apparatus iii
WO2018191539A1 (en) * 2017-04-13 2018-10-18 Artilux Corporation Germanium-silicon light sensing apparatus ii
JP2020009883A (ja) * 2018-07-06 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器
JP2020013909A (ja) 2018-07-18 2020-01-23 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器

Also Published As

Publication number Publication date
EP4160686A4 (en) 2023-10-25
EP4160686A1 (en) 2023-04-05
KR20230015326A (ko) 2023-01-31
JPWO2021240988A1 (ja) 2021-12-02
US20230204773A1 (en) 2023-06-29
TW202147596A (zh) 2021-12-16
CN115428155A (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
KR102663339B1 (ko) 수광 소자, 거리측정 모듈, 및, 전자 기기
EP4053520B1 (en) Light receiving element, distance measurement module, and electronic equipment
WO2021240988A1 (ja) 測距装置
WO2021241191A1 (ja) 測距装置
WO2023286391A1 (ja) 受光装置、電子機器及び受光方法
WO2023189519A1 (ja) 受光素子、電子機器
WO2021085171A1 (ja) 受光素子、測距モジュール、および、電子機器
WO2022004445A1 (ja) 撮像素子、撮像装置、電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21813132

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022527538

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021813132

Country of ref document: EP

Effective date: 20230102