WO2021117589A1 - 受光素子及び受光装置 - Google Patents

受光素子及び受光装置 Download PDF

Info

Publication number
WO2021117589A1
WO2021117589A1 PCT/JP2020/044962 JP2020044962W WO2021117589A1 WO 2021117589 A1 WO2021117589 A1 WO 2021117589A1 JP 2020044962 W JP2020044962 W JP 2020044962W WO 2021117589 A1 WO2021117589 A1 WO 2021117589A1
Authority
WO
WIPO (PCT)
Prior art keywords
light receiving
receiving element
charge
unit
charge storage
Prior art date
Application number
PCT/JP2020/044962
Other languages
English (en)
French (fr)
Inventor
雄飛 寄門
芳樹 蛯子
表徳 遠藤
信宏 河合
史彦 古閑
中村 信男
創造 横川
若林 準人
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020166859A external-priority patent/JP2021097215A/ja
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP20899921.9A priority Critical patent/EP4075792A4/en
Priority to CN202080075721.2A priority patent/CN114631189A/zh
Priority to KR1020227017227A priority patent/KR20220112758A/ko
Priority to US17/781,666 priority patent/US20220375969A1/en
Publication of WO2021117589A1 publication Critical patent/WO2021117589A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/1443Devices controlled by radiation with at least one potential jump or surface barrier
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/055Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances having rod-lens arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/1446Devices controlled by radiation in a repetitive configuration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • H01L27/14614Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor having a special gate structure
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0232Optical elements or arrangements associated with the device
    • H01L31/02327Optical elements or arrangements associated with the device the optical elements being integrated or being directly associated to the device, e.g. back reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0236Special surface textures
    • H01L31/02363Special surface textures of the semiconductor body itself, e.g. textured active layers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier
    • H01L31/103Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier the potential barrier being of the PN homojunction type
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • H01L31/16Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the semiconductor device sensitive to radiation being controlled by the light source or sources
    • H01L31/167Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the semiconductor device sensitive to radiation being controlled by the light source or sources the light sources and the devices sensitive to radiation all being semiconductor devices characterised by potential barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/65Noise processing, e.g. detecting, correcting, reducing or removing noise applied to reset noise, e.g. KTC noise related to CMOS structures by techniques other than CDS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/015Control of fluid supply or evacuation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures

Definitions

  • the present disclosure relates to a light receiving element and a light receiving device.
  • a TOF (Time of Flight) sensor (light receiving device) is known as a method for measuring the distance to an object.
  • the TOF sensor measures the distance to the object by irradiating the object with irradiation light having a predetermined period and detecting the phase difference between the irradiation light and the reflected light. be able to. Then, in the TOF sensor, the signal amount is increased and the S / N (Signal / Noise) ratio is increased by repeating a plurality of light receptions at short intervals, enabling highly accurate distance measurement.
  • the light receiving element of the TOF sensor (light receiving device)
  • the light receiving element in order to secure a sufficient S / N ratio and measure the distance, it is necessary to increase the wide dynamic range, that is, the amount of charge generated by the light receiving. It has been demanded. Further, the light receiving element is required to reduce the influence of kTC noise in order to measure the distance with high accuracy.
  • the present disclosure proposes a light receiving element and a light receiving device that can reduce the influence of kTC noise while ensuring a wide dynamic range.
  • a photoelectric conversion unit provided in a semiconductor substrate that converts light into electric charge, a first charge storage unit to which the electric charge is transferred from the photoelectric conversion unit, and the electric charge from the photoelectric conversion unit.
  • a light receiving element is provided, which comprises a second charge storage unit to which the electric charge is transferred, and each of the first and second charge storage units is composed of a laminate of an electrode, a first insulating layer, and a semiconductor layer. ..
  • the first charge storage unit to which the electric charges are transferred from the photoelectric conversion unit, and the photoelectric conversion unit from the photoelectric conversion unit provided in the semiconductor substrate and converting light into electric charges, the first charge storage unit to which the electric charges are transferred from the photoelectric conversion unit, and the photoelectric conversion unit.
  • a second charge storage unit to which the charge is transferred is provided, and each of the first and second charge storage units includes a semiconductor layer, an insulating layer embedded in a trench formed in the semiconductor layer, and an insulating layer.
  • a light receiving element having a vertical electrode embedded in the insulating layer is provided.
  • a light receiving device including one or a plurality of light receiving elements, wherein the light receiving element is provided in a semiconductor substrate and is a photoelectric conversion unit that converts light into electric charges, and the photoelectric conversion unit.
  • Each of the first and second charge storage units has a first charge storage unit to which the charge is transferred from, and a second charge storage unit to which the charge is transferred from the photoelectric conversion unit.
  • a light receiving device comprising a laminate of an electrode, a first insulating layer, and a semiconductor layer is provided.
  • FIG. 1 It is a figure which shows an example of the schematic structure of the endoscopic surgery system. It is a figure which shows an example of the structure of an endoscope. It is a block diagram which shows an example of the functional structure of a camera head and a CCU. It is a block diagram which shows an example of the schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit.
  • a plurality of components having substantially the same or similar functional configurations may be distinguished by adding different numbers after the same reference numerals. However, if it is not necessary to distinguish each of the plurality of components having substantially the same or similar functional configurations, only the same reference numerals are given. Further, similar components of different embodiments may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the similar components, only the same reference numerals are given.
  • drawings referred to in the following description are drawings for explaining the embodiments of the present disclosure and promoting their understanding, and for the sake of clarity, the shapes, dimensions, ratios, etc. shown in the drawings are actual. May be different. Further, the elements shown in the drawings, the components included in the device, and the like can be appropriately redesigned in consideration of the following description and known techniques.
  • the embodiment of the present disclosure is applied to a back-illuminated light receiving device. Therefore, in the light receiving device, light is incident from the back surface side of the substrate. .. Therefore, in the following description, the front surface of the substrate is a surface facing the back surface when the side on which light is incident is the back surface.
  • the description of the specific length and shape in the following explanation does not mean only the same value as the mathematically defined numerical value or the geometrically defined shape.
  • the description of the specific length and shape in the following description refers to the case where there is an allowable difference (error / strain) in the element, its manufacturing process, and its use / operation, and its shape. It shall also include similar shapes.
  • the term "circular shape” or “substantially circular shape” is used in the following description, it is not limited to a perfect circle, but also includes a shape similar to a perfect circle such as an ellipse. It will be.
  • electrically connected means connecting a plurality of elements so that electricity (signal) is conducted. Means that.
  • electrically connected in the following description includes not only the case of directly and electrically connecting a plurality of elements, but also indirectly and electrically through other elements. It shall also include the case of connecting to.
  • sharing means that other elements are provided so as to be shared by a plurality of one element unless otherwise specified, in other words, The other element means that it is shared by each of a predetermined number of one element.
  • FIG. 1 is a block diagram showing a configuration example of the ranging module 1 according to the embodiment of the present disclosure.
  • the ranging module 1 can mainly include an irradiation unit 20, a light receiving unit 30, a control unit (irradiation control unit) 40, and a processing unit 60.
  • irradiation control unit irradiation control unit
  • the irradiation unit 20 includes an LED (Light Emitting Diode) light source (not shown) and an optical element (not shown).
  • the wavelength of the emitted light can be changed by appropriately selecting the LED light source.
  • the irradiation unit 20 will be described as irradiating infrared light having a wavelength in the range of 780 nm to 1000 nm, for example, but in the present embodiment, such infrared light will be irradiated. It is not limited.
  • the irradiation unit 20 may irradiate the object 800 with irradiation light whose brightness changes periodically in synchronization with a periodic signal such as a rectangular signal supplied from the control unit 40 described later. it can.
  • the light receiving unit 30 receives the reflected light reflected from the object 800.
  • the light receiving unit 30 has a condenser lens (not shown) and a plurality of light receiving elements 10 described later.
  • the condenser lens has a function of collecting the received light in each light receiving element 10. Further, the light receiving element 10 generates an electric charge (for example, an electron) based on the intensity of the received light, and synchronizes the generated charge with a periodic signal such as a rectangular signal supplied from the control unit 40 described later.
  • the built-in transistor distributed transistor VG; see FIG. 3
  • the charge transferred to the charge storage unit MEM is converted into a signal and finally transferred to the processing unit 60.
  • the details of the light receiving element 10 will be described later.
  • Control unit 40 The control unit 40 supplies a periodic signal to the irradiation unit 20 and the light receiving unit 30 to control the irradiation timing of the irradiation light and the driving timing of the transistor.
  • the frequency of the signal can be, for example, 5 to 20 MHz (MHz), but is not limited to such frequencies in the present embodiment.
  • the control unit 40 controls the transistor (distribution transistor VG; see FIG. 3) so as to operate at different timings such as differential.
  • the processing unit 60 can acquire a signal from the light receiving unit 30, and based on the acquired signal, can acquire the distance to the object 800 by, for example, an indirect ToF (iToF) method.
  • iToF indirect ToF
  • the light receiving unit 30 according to the present embodiment includes a pixel array unit 12, a vertical drive circuit unit 32, and a column signal processing circuit unit provided on, for example, a semiconductor substrate 200 made of silicon. 34, a horizontal drive circuit unit 36, an output circuit unit 38, a control circuit unit 44, and the like are included.
  • a horizontal drive circuit unit 36, an output circuit unit 38, a control circuit unit 44, and the like are included. The details of each block of the light receiving unit 30 according to the present embodiment will be described below.
  • the pixel array unit 12 has a plurality of light receiving elements 10 arranged two-dimensionally in a matrix (matrix in the row direction and the column direction) on the semiconductor substrate 200.
  • Each light receiving element 10 includes a photoelectric conversion unit (photodiode PD) (not shown) that converts light into electric charges (for example, electrons) and a plurality of pixel transistors (for example, MOS (Metal-Oxide-Semiconductor) transistors) (not shown). And so on.
  • the pixel array unit 12 has a plurality of pixels that photoelectrically convert the incident light and output a signal corresponding to the electric charge obtained as a result.
  • the pixel transistor can include, for example, a transistor having various functions such as a transfer transistor, a selection transistor, a reset transistor, and an amplification transistor. The details of the equivalent circuit of the light receiving element 10 and the like will be described later.
  • the row direction means the arrangement direction of the light receiving elements 10 in the horizontal direction
  • the column direction means the arrangement direction of the light receiving elements 10 in the vertical direction.
  • the row direction is the horizontal direction in FIG. 2A
  • the column direction is the vertical direction in FIG. 2A.
  • the pixel drive wiring 42 is wired along the row direction for each row with respect to the array of the light receiving elements 10 in a matrix
  • the vertical signal line 48 is arranged along the column direction in each column. It is wired.
  • the pixel drive wiring 42 transmits a drive signal for driving when reading a signal from the light receiving element 10.
  • the vertical drive circuit unit 32 is formed by, for example, a shift register, an address decoder, or the like, selects a pixel drive wiring 42, supplies a pulse for driving the light receiving element 10 to the selected pixel drive wiring 42, and is a total light receiving element.
  • the light receiving element 10 is driven at the same time or in units of rows.
  • the vertical drive circuit unit 32 selectively scans each light receiving element 10 of the pixel array unit 12 in a row-by-row manner in the vertical direction (vertical direction in FIG. 2A) to obtain the light receiving amount of the photodiode PD of each light receiving element 10.
  • the pixel signal based on the electric charge generated accordingly is supplied to the column signal processing circuit unit 34 described later through the vertical signal line 48.
  • the column signal processing circuit unit 34 is arranged for each column of the light receiving element 10, and performs signal processing such as noise removal for each row of signals output from the light receiving element 10 for one row.
  • the column signal processing circuit unit 34 performs signal processing such as CDS (Correlated Double Sampling: Correlation Double Sampling) and AD (Analog-Digital) conversion in order to remove the fixed pattern noise peculiar to the light receiving element 10.
  • the horizontal drive circuit unit 36 is formed by, for example, a shift register, an address decoder, or the like, and by sequentially outputting horizontal scanning pulses, each of the column signal processing circuit units 34 described above is sequentially selected, and the column signal processing circuit unit 34 is selected. Signals can be output to the horizontal signal line 46 from each of the above.
  • the output circuit unit 38 can perform signal processing on the signals sequentially supplied from each of the column signal processing circuit units 34 described above through the horizontal signal line 46 and output the signals.
  • the output circuit unit 38 may function as, for example, a functional unit that performs buffering, or may perform processing such as column variation correction and various digital signal processing. Note that buffering refers to temporarily storing signals in order to compensate for differences in processing speed and transfer speed when exchanging signals.
  • the control circuit unit 44 can receive the input clock and data for instructing the operation mode and the like, and can output data such as internal information of the light receiving element 10. That is, the control circuit unit 44 uses the vertical synchronization signal, the horizontal synchronization signal, and the master clock as a reference for the operation of the vertical drive circuit unit 32, the column signal processing circuit unit 34, the horizontal drive circuit unit 36, and the like. Generate a control signal. Then, the control circuit unit 44 outputs the generated clock signal and control signal to the vertical drive circuit unit 32, the column signal processing circuit unit 34, the horizontal drive circuit unit 36, and the like.
  • the light receiving element 10 may be provided with a distribution transistor driving unit 50, a signal processing unit 52, and a data storage unit 54. That is, the distribution transistor driving unit 50, the signal processing unit 52, and the data storage unit 54 may be provided on the semiconductor substrate 200. However, in the present embodiment, the present embodiment is not limited to this, and the distribution transistor driving unit 50, the signal processing unit 52, and the data storage unit 54 may be provided on another semiconductor substrate (not shown).
  • the distribution transistor driving unit 50 controls the operation of the distribution transistor VG (see FIG. 3), which will be described later.
  • the distribution transistor driving unit 50 may be provided so as to be adjacent to the pixel array unit 12 along the column direction as shown in FIG. 2B, or may be provided along the row direction as shown in FIG. 2C. It may be provided adjacent to the pixel array unit 12, and is not particularly limited in the present embodiment.
  • the signal processing unit 52 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing based on the signal output from the output circuit unit 38.
  • the data storage unit 54 temporarily stores data necessary for the signal processing of the signal processing unit 52.
  • the plan configuration example of the light receiving unit 30 according to the present embodiment is not limited to the examples shown in FIGS. 2A to 2C, and may include, for example, other circuits and the like, and is not particularly limited. Absent.
  • FIG. 3 is an equivalent circuit diagram of the light receiving element 10 according to the embodiment of the present disclosure.
  • the light receiving element 10 has a photodiode PD as a photoelectric conversion element (photoelectric conversion unit) that converts light into electric charges, and a charge discharge transistor OFG (note that the charge discharge transistor OFG is equivalent). Although it is represented by one transistor on the circuit, it may be composed of a plurality of transistors electrically connected in parallel). Further, the light receiving element 10 includes a distribution transistor VG, a charge storage unit (first charge storage unit, second charge storage unit) MEM, a transfer transistor TG, a stray diffusion region FD, a reset transistor RST, an amplification transistor AMP, and selection. It has two transistors SEL each.
  • one of the source / drain of the charge discharge transistor OFG is electrically connected to the photodiode PD that generates charge by receiving light. Further, the other of the source / drain of the charge discharge transistor OFG is electrically connected to the power supply circuit (power supply potential VDD). Then, the charge discharge transistor OFG becomes conductive according to the voltage applied to its own gate, and the charge accumulated in the photodiode PD can be discharged to the power supply circuit (power supply potential VDD).
  • one of the source / drain of the distribution transistors VG1 and VG2 is electrically connected to the photodiode PD, and the other of the source / drain of the distribution transistors VG1 and VG2 is ,
  • the charge storage unit (first charge storage unit, second charge storage unit) is electrically connected to MEM1 and MEM2, respectively.
  • the distribution transistors VG1 and VG2 are brought into a conductive state according to the voltage applied to their own gates (first distribution gate, second distribution gate), and the electric charge accumulated in the photodiode PD is stored in the charge storage unit. It can be transferred to MEM1 and MEM2, respectively.
  • the voltage applied to the gates of the distribution transistors VG1 and VG2 is changed at different timings so that the charges accumulated in the photodiode PD can be stored in the two charge storage units MEM1 and MEM2. It can be distributed to either. In other words, it can be said that the two charge storage units MEM1 and MEM2 share one photodiode PD.
  • one of the source / drain of the transfer transistors TG1 and TG2 is electrically connected to the other of the source / drain of the distribution transistors VG1 and VG2 and the charge storage units MEM1 and MEM2. Be connected. Further, the other of the source / drain of the transfer transistors TG1 and TG2 is electrically connected to the floating diffusion regions FD1 and FD2. Then, the transfer transistors TG1 and TG2 are brought into a conductive state according to the voltage applied to their gates, and the charges accumulated in the charge storage units MEM1 and MEM2 can be transferred to the floating diffusion regions FD1 and FD2. In the embodiment of the present disclosure, since there are two charge storage units MEM1 and MEM2, the transfer transistors TG1 and TG2 can share one floating diffusion region FD.
  • the floating diffusion regions FD1 and FD2 are electrically connected to the gates of the amplification transistors AMP1 and AMP2 that convert the electric charge into a voltage and output it as a signal.
  • one of the source / drain of the amplification transistors AMP1 and AMP2 is electrically connected to one of the source / drain of the selection transistors SEL1 and SEL2 that output the signal obtained by conversion to the signal lines VSL1 and VSL2 according to the selection signal. Will be done.
  • the other of the source / drain of the amplification transistors AMP1 and AMP2 is electrically connected to the power supply circuit (power supply potential VDD).
  • the other of the source / drain of the selection transistors SEL1 and SEL2 is electrically connected to the signal lines VSL1 and VSL2 that transmit the converted voltage as a signal, and is electrically connected to the column signal processing circuit unit 34 described above. Be connected.
  • the gates of the selection transistors SEL1 and SEL2 are electrically connected to a selection line (not shown) for selecting a line for outputting a signal, and further electrically connected to the vertical drive circuit unit 32 described above. That is, the electric charge accumulated in the floating diffusion regions FD1 and FD2 is converted into a voltage by the amplification transistors AMP1 and AMP2 under the control of the selection transistors SEL1 and SEL2, and is output to the signal lines VSL1 and VSL2.
  • the floating diffusion regions FD1 and FD2 are electrically connected to one of the drain / source of the reset transistors RST1 and RST2 for resetting the accumulated electric charge.
  • the gates of the reset transistors RST1 and RST2 are electrically connected to the reset signal line (not shown), and further electrically connected to the vertical drive circuit unit 32 described above.
  • the other of the drain / source of the reset transistors RST1 and RST2 is electrically connected to the power supply circuit (power supply potential VDD).
  • the reset transistors RST1 and RST2 are brought into a conductive state according to the voltage applied to their own gates, and the charges accumulated in the floating diffusion regions FD1 and FD2 are reset (discharged to the power supply circuit (power supply potential VDD)). be able to.
  • the equivalent circuit of the light receiving element 10 according to the present embodiment is not limited to the example shown in FIG. 3, and may include, for example, other elements and the like, and is not particularly limited.
  • FIG. 4 is an explanatory diagram for explaining the principle of the distance calculation method using the distance measuring module 1 according to the embodiment of the present disclosure. Specifically, the irradiation light and the reflected light in the distance measuring module 1 Is schematically shown the time variation of intensity.
  • the distance measuring module 1 irradiates the object 800 with the light modulated so that the intensity of the light fluctuates periodically from the irradiation unit 20.
  • the irradiated light is reflected by the object 800 and detected as reflected light by the light receiving unit 30 of the ranging module 1.
  • the detected reflected light (second stage from the top of FIG. 4) has a phase difference ⁇ with respect to the irradiation light (first stage from the top of FIG. 4), and the phase difference ⁇ is
  • the distance from the distance measuring module 1 to the object 800 increases, and the distance from the distance measuring module 1 to the object 800 decreases.
  • the light receiving element 10 has, for example, distribution transistors VG1 and VG2 that are differential from each other. Therefore, since the operating periods of the distribution transistors VG1 and VG2 do not overlap, the charges accumulated in the photodiode PD during the periods of the regions 802a and 802b shown in gray in FIG. 4 are the charge storage units MEM1 and MEM2. It will be distributed to each of. Specifically, the charges distributed to the charge storage units MEM1 and MEM2 are transferred to the floating diffusion regions FD1 and FD2, and finally, a signal corresponding to the area which is the integrated value in the periods of the regions 802a and 802b. Is converted to. Therefore, as is clear from FIG.
  • the distance to the object 800 can be calculated by calculating the phase difference ⁇ based on the difference between the integrated value of the region 802a and the integrated value of the region 802b.
  • a wide dynamic range that is, an electric charge is accumulated in the light receiving element 10 of the light receiving unit 30 of the distance measuring module 1 in order to secure a sufficient S / N ratio and measure the distance. It is required to increase the amount. Further, for the light receiving element 10, the influence of kTC noise, which is noise caused by the thermal fluctuation of electric charge in the floating diffusion region FD, is reduced, that is, the influence of random noise is reduced for highly accurate distance measurement. It is required to reduce it.
  • the present inventors have come to create the embodiment of the present disclosure in view of the above-mentioned requirements. Specifically, in the conventional light receiving element (comparative example described later), the electric charge generated by the photodiode PD is directly distributed to the floating diffusion region FD. On the other hand, in the embodiment of the present disclosure created by the present inventors, the charge generated by the photodiode PD is not directly distributed to the floating diffusion region FD, but is once distributed to the charge storage unit MEM and then floated. Transfer to the diffusion region FD.
  • the floating diffusion region FD is completely depleted after the reset operation (the operation of discharging the charge (noise) accumulated in the floating charge region FD before accumulating the charge generated by the light reception). Is difficult. Therefore, when the charge (signal) generated by the photodiode PD is transferred to the stray charge region FD, it is difficult to prevent kTC noise from being superimposed on the signal. On the other hand, in the present embodiment, as described below, since it is possible to cancel the kTC noise generated in the stray charge region FD, the influence of the kTC noise on the charge (signal) generated in the photodiode PD Can be reduced.
  • FIG. 5 is an equivalent circuit diagram of a part of the light receiving element according to the comparative example
  • FIG. 6 is an equivalent circuit diagram of a part of the light receiving element 10 according to the embodiment of the present disclosure.
  • the comparative example means a light receiving element that has been studied repeatedly by the present inventors before forming the embodiment of the present disclosure.
  • the kTC noise is noise generated by the thermal fluctuation of the electric charge.
  • Such kTC noise charge
  • the floating diffusion region FD is ideally completely depleted. If this is possible, kTC noise can be discharged in advance.
  • high-concentration impurities are injected into the contact portion of the floating diffusion region FD in order to ohmic-bond the floating diffusion region FD and the wiring, the depletion cannot be completely performed even if the reset operation is performed. It is difficult to completely discharge kTC noise from the floating diffusion region FD. Therefore, when the charge (signal) generated by the photodiode PD is transferred to the stray charge region FD, it is difficult to prevent kTC noise from being superimposed on the signal.
  • the light receiving element according to the comparative example includes a photodiode PD and a charge discharge transistor OFG. Further, the light receiving element has a transfer transistor TG, a floating diffusion region FD, and a reset transistor RST. More specifically, one of the source / drain of the charge discharge transistor OFG is electrically connected to the photodiode PD, and the other of the source / drain of the charge discharge transistor OFG is electrically connected to the power supply circuit (power supply potential VDD). It is connected to the.
  • the charge discharge transistor OFG becomes conductive according to the voltage applied to its own gate, and can discharge the charge accumulated in the photodiode PD.
  • one of the source / drain of the transfer transistor TG is electrically connected to the photodiode PD, and the other of the source / drain of the transfer transistor TG is electrically connected to the floating diffusion region FD.
  • the transfer transistor TG becomes conductive according to the voltage applied to its own gate, and the electric charge generated by the photodiode PD can be transferred to the floating diffusion region FD.
  • the floating diffusion region FD is electrically connected to one of the drain / source of the reset transistor RST for resetting the accumulated charge.
  • the reset transistor RST becomes conductive according to the voltage applied to its own gate, and can discharge (reset) the electric charge accumulated in the floating diffusion region FD.
  • the discharge operation of discharging the electric charge of the photodiode PD is performed before the light reception is started. That is, the charge discharge transistor OFG is turned on, and the charge of the photodiode PD is discharged to the power supply circuit (power supply potential VDD). At this time, kTC noise (Nktc) is generated in the floating diffusion region FD.
  • Nsig an electric charge (signal) (signal) is generated in the photodiode PD.
  • the transfer transistor TG is turned on, the electric charge of the photodiode PD is transferred to the floating diffusion region FD. Further, the electric charge (Nsig, Nktc) accumulated in the floating diffusion region FD is read out as a signal.
  • the kTC noise (Nktc) newly generated in the floating diffusion region FD was subtracted from the charges (Nsig and Nktc) accumulated in the floating diffusion region FD, and the light was received to generate the photodiode PD. The amount of electric charge (signal) can be detected.
  • the ktc noise (Nktc) accumulated in the floating diffusion region FD and the kTC noise (Nktc) newly generated in the floating diffusion region FD have different charge amounts, the kTC noise is subtracted as described above. Is difficult to cancel exactly. As a result, in the comparative example, it is difficult to secure high distance measurement accuracy because it is not possible to obtain a signal in which kTC noise is completely removed.
  • FIG. 6 shows a partial equivalent circuit diagram of the light receiving element 10 according to the embodiment of the present disclosure, but the details thereof will not be described here in order to avoid duplication.
  • the discharge operation of discharging the electric charge of the photodiode PD is performed before the light reception is started. That is, the charge discharge transistor OFG is turned on, and the charge of the photodiode PD is discharged to the power supply circuit (power supply potential VDD). At this time, kTC noise (Nktc) is generated in the floating diffusion region FD.
  • a discharge operation for discharging kTC noise (Nktc) in the floating diffusion region FD is performed. That is, the reset transistor RST is turned on, and the kTC noise (Nktc) of the floating diffusion region FD is discharged to the power supply circuit (power supply potential VDD).
  • the transfer transistor TG is turned on, and the electric charge (Nsig) (signal) accumulated in the storage unit MEM is transferred to the floating diffusion region FD. Then, the electric charge (Nsig, Nktc) accumulated in the floating diffusion region FD is read out as a signal.
  • the electric charge (Nsig, Nktc) accumulated in the floating diffusion region FD is subtracted from the kTC noise (Nktc) generated in the floating diffusion region FD to receive the electric charge generated by the photodiode PD.
  • the amount (signal) can be detected. That is, in the present embodiment, since it is possible to grasp the charge amount of the kTC noise included in the signal, it is possible to cancel the kTC noise. As a result, in the present embodiment, since a signal from which kTC noise has been removed can be obtained, it is possible to secure high distance measurement accuracy.
  • the charge storage part MEM is formed by a MOS (Metal-Oxide-Semiconductor) type capacitance. That is, in the present embodiment, the charge storage unit MEM is formed by a MOS type capacitance composed of a laminate of an electrode made of a metal film or a polysilicon film, an insulating film made of an oxide film, and a semiconductor region. In the present embodiment, it is possible to easily increase the capacity of the storage unit MEM by increasing the area of the interface of the lamination. Therefore, according to the present embodiment, the capacitance value can be made larger and a wide dynamic range can be secured. The details of the embodiments of the present disclosure created by the present inventors will be sequentially described below.
  • FIG. 7 is an explanatory view showing a plan configuration example of the light receiving element 10 according to the present embodiment, and is a view when the light receiving element 10 is viewed from above the surface of the semiconductor substrate 200.
  • the horizontal direction in FIG. 7 corresponds to the row direction (horizontal direction) of FIG. 2A
  • the vertical direction in FIG. 7 corresponds to the column direction (vertical direction) of FIG. 2A.
  • an N-type semiconductor region 100 is formed in the P-type semiconductor substrate 200 at the center of the light receiving element 10, and the N-type semiconductor region 100 is a part of the photodiode (photoelectric conversion unit) PD.
  • the light receiving element 10 passes through the center point (center) O of the photodiode PD and is line-symmetrical (approximately line-symmetrical) with respect to the center line 600 extending along the vertical direction (column direction).
  • the gate electrodes 150a and 150b of the distribution transistors VG1 and VG2 are arranged.
  • the gate electrodes 150a and 150b of the distribution transistors VG1 and VG2 are provided so as to overlap at least a part of the N-type semiconductor region 100.
  • the distribution transistor VG1 includes a gate electrode 150a, a gate insulating film (not shown) located between the gate electrode 150a and the semiconductor substrate 200, an N-type semiconductor region 100 as a source region, and a drain region. It is composed of the N-type semiconductor region 102a of the above.
  • the N-type semiconductor region 100 as the source region is also used as the photodiode PD, and the N-type semiconductor region 102a as the drain region is also used as the charge storage unit MEM1.
  • the distribution transistor VG2 is the same as the distribution transistor VG1.
  • FIG. 7 it is line-symmetrical (approximately line-symmetrical) with respect to the center line 602 that passes through the center point O of the photodiode PD and extends the light receiving element 10 along the left-right direction (row direction).
  • the gate electrodes 152a and 152b of the charge discharge transistors OFG1 and OFG2 are arranged so as to be.
  • the gate electrodes 152a and 152b of the charge discharge transistors OFG1 and OFG2 are provided so as to overlap at least a part of the N-type semiconductor region 100.
  • the charge discharge transistor OFG1 includes a gate electrode 152a, a gate insulating film (not shown) located between the gate electrode 152a and the semiconductor substrate 200, an N-type semiconductor region 100 as a source region, and a drain region. It is composed of an N-type semiconductor region 104a.
  • the N-type semiconductor region 100 as the source region is also used as the photodiode PD.
  • the charge discharge transistor OFG2 is the same as the charge discharge transistor OFG1.
  • the charge storage units MEM1 and MEM2 and the transfer transistors TG1 and TG2 are arranged so as to be mirror-symmetrical with respect to the center line 600 and to sandwich the N-type semiconductor region 102 and the distribution transistors VG1 and VG2 from both sides. Is provided.
  • the charge storage unit MEM1 is arranged adjacent to the transfer transistor TG1 along the vertical direction (column direction) in FIG. 7, and the charge storage unit MEM2 is aligned with the transfer transistor TG2 in the vertical direction (column direction) in FIG. ) And line up next to each other.
  • the charge storage unit MEM1 includes, for example, an electrode 154a, an insulating film provided below the electrode 154a (not shown), and an N-type semiconductor region 102a provided below the insulating film.
  • the transfer transistor TG1 includes a gate electrode 156a, a gate insulating film (not shown) located between the gate electrode 156a and the semiconductor substrate 200, an N-type semiconductor region 106a as a source region, and N as a drain region. It is composed of a type semiconductor region 108a.
  • the charge storage unit MEM2 and the transfer transistor TG2 are the same as those of the charge storage unit MEM1 and the transfer transistor TG1.
  • the selection transistors SEL1 and SEL2 are arranged.
  • the reset transistor RST1, the amplification transistor AMP1 and the selection transistor SEL1 are arranged adjacent to each other along the left-right direction (row direction) in FIG. 7, and the reset transistor RST2, the amplification transistor AMP2, and the selection transistor SEL2 are also shown in FIG. Lined up next to each other along the left-right direction (row direction) of.
  • the reset transistor RST1 includes a gate electrode 158a, a gate insulating film (not shown) located between the gate electrode 158a and the semiconductor substrate 200, an N-type semiconductor region 110a as a source region, and a drain region. It is composed of the N-type semiconductor region 112a of the above.
  • the N-type semiconductor region 110a as the source region is also used as the floating diffusion region FD1, and the N-type semiconductor region 112a as the drain region is also used as the amplification transistor AMP1.
  • the reset transistor RST2 is the same as the reset transistor RST1.
  • the amplification transistor AMP1 includes a gate electrode 160a, a gate insulating film (not shown) located between the gate electrode 160a and the semiconductor substrate 200, an N-type semiconductor region 112a as a drain region, and N as a source region. It is composed of a type semiconductor region 114a. The N-type semiconductor region 112a as the drain region is also used as the drain region of the reset transistor RST1. Further, the amplification transistor AMP2 is the same as that of the amplification transistor AMP1.
  • the selection transistor SEL1 includes a gate electrode 162a, a gate insulating film (not shown) located between the gate electrode 162a and the semiconductor substrate 200, an N-type semiconductor region 114a as a drain region, and N as a source region. It is composed of a type semiconductor region 116a. The N-type semiconductor region 114a as the drain region is also used as the source region of the amplification transistor AMP1. Further, the selection transistor SEL2 is the same as the selection transistor SEL1.
  • planar structure of the light receiving element 10 according to the present embodiment is not limited to the example shown in FIG. 7, and may include, for example, other elements and the like, and is not particularly limited.
  • FIG. 8 is a cross-sectional view when the light receiving element 10 is cut along the line AA'of FIG. 7, and in detail, the upper side in FIG. 8 is the back surface side of the semiconductor substrate 200, and FIG. The lower side is the front side of the semiconductor substrate 200.
  • the light receiving element 10 has a semiconductor substrate 200 made of a silicon substrate or the like.
  • the photodiode PD is formed in the semiconductor substrate 200 by forming the N-type semiconductor regions 100a and 100b in the P-type semiconductor substrate 200.
  • an on-chip lens 208 made of a styrene resin, an acrylic resin, a styrene-acrylic copolymer resin, a siloxane resin, or the like, on which the reflected light from the object 800 is incident. It is provided.
  • a flattening film 204 made of silicon oxide (SiO 2 ), silicon nitride (SiN), silicon oxynitride (SiON), or the like is provided.
  • an antireflection film 202 made of an insulating film is provided below the flattening film 204.
  • the antireflection film 202 can be formed from hafnium oxide (HfO 2 ), aluminum oxide (Al 2 O 3 ), titanium oxide (TIO 2 ), silicon oxide, etc., or a laminate thereof.
  • a light shielding film 206 is provided above the antireflection film 202, in the boundary region with the adjacent light receiving element 10, to prevent the reflected light from the object 800 from entering the adjacent light receiving element 10.
  • the light-shielding film 206 is made of a material that blocks light, and can be formed by using, for example, a metal material such as tungsten (W), aluminum (Al), or copper (Cu).
  • a pixel separation unit (first pixel separation unit) 210 for penetrating the semiconductor substrate 200 and preventing incident light from entering the adjacent light receiving element 10 is provided. It is provided.
  • the pixel separation portion 210 is composed of, for example, a trench penetrating from the back surface to the front surface of the semiconductor substrate 200, and an insulating film such as silicon oxide or a metal film such as aluminum embedded in the trench.
  • Two distribution transistors VG1 and VG2 which are vertical transistors, are formed so as to sandwich the N-type semiconductor region 100b.
  • the distribution transistors VG1 and VG2 have gate electrodes 150a and 150b provided on the surface of the semiconductor substrate 200, for example, made of a polysilicon film, respectively.
  • the charge storage units MEM1 and MEM2 are provided in the semiconductor substrate 200 so as to sandwich the distribution transistors VG1 and VG2 from the left and right directions.
  • the charge storage units MEM1 and MEM2 include electrodes 154a and 154b made of a metal film or a polysilicon film, an insulating film made of an oxide film (not shown), and N-type semiconductor regions 102a and 102b (MEM1 in FIG. 8). , MEM2) and MOS (Metal-Oxide-Semiconductor) type capacitance. Details of the charge storage units MEM1 and MEM2 will be described later.
  • the gate electrodes 156a and 156b of the transfer transistors TG1 and TG2 are provided on the surface of the semiconductor substrate 200 adjacent to the charge storage units MEM1 and MEM2. Further, N-type semiconductor regions 110a and 110b shown as floating diffusion regions FD1 and FD2 are formed in the semiconductor substrate 200 close to the gate electrodes 156a and 156b of the transfer transistors TG1 and TG2.
  • a wiring layer 300 is provided on the surface of the semiconductor substrate 200.
  • the wiring layer 300 includes an insulating film 302 and a metal film 304. Further, an electrode 306 is provided on the surface of the wiring layer 300 opposite to the semiconductor substrate 200.
  • the substrate 400 is provided on the surface of the wiring layer 300 opposite to the semiconductor substrate 200.
  • the substrate 400 also includes an insulating film 402 and a metal film 404, and an electrode 406 is provided on the surface on the wiring layer 300 side.
  • the electrode 306 of the wiring layer 300 and the electrode 406 of the substrate 400 are formed of copper (Cu) or the like, and by contacting each other, the wiring layer 300 and the substrate 400 can be joined.
  • the cross-sectional structure of the light receiving element 10 according to the present embodiment is not limited to the example shown in FIG. 8, and may include, for example, other elements and the like, and is not particularly limited.
  • FIG. 9 is an explanatory view showing a cross-sectional configuration example of the charge storage unit MEM according to the present embodiment, and corresponds to the cross-sectional view of FIG.
  • FIG. 10 is an energy band diagram of the charge storage unit MEM of FIG.
  • the upper side in FIG. 9 is the front surface side of the semiconductor substrate 200
  • the lower side in FIG. 9 is the back surface side of the semiconductor substrate 200.
  • the charge storage unit MEM includes an insulating layer 170 and an electrode 154 laminated on a semiconductor substrate (semiconductor layer) 200.
  • the electrode 154 is made of various metal films or polysilicon films
  • the insulating layer 170 is made of an oxide film such as a silicon oxide film.
  • the charge storage unit MEM is a semiconductor substrate (as shown in FIG. 10) located directly below the electrodes (metal film or polysilicon film) 154 and the insulating layer 170.
  • a depletion layer (inversion region) is generated on the outermost surface of the semiconductor layer (semiconductor layer) 200.
  • the electric charge is attracted to the electrode 154 and accumulated by transferring the electric charge to the generated depletion layer.
  • the capacity of the charge storage unit MEM can be easily increased by increasing the area of the electrode 154 (the area in contact with the semiconductor substrate).
  • the charge storage portion is formed by reducing the film thickness of the insulating layer 170 or forming the insulating layer 170 using a material having a high relative permittivity (hafnium oxide (HfO 2)).
  • the capacity of the MEM can be increased.
  • FIG. 11 is an explanatory view showing another cross-sectional configuration example of the charge storage unit MEM according to the present embodiment
  • FIG. 12 is an energy band diagram of the charge storage unit MEM of FIG.
  • the upper side in FIG. 11 is the front surface side of the semiconductor substrate 200
  • the lower side in FIG. 9 is the back surface side of the semiconductor substrate 200.
  • the charge storage unit MEM includes an insulating layer 170 and an electrode 154 laminated on a semiconductor substrate (semiconductor layer) 200. Further, the charge storage unit MEM has an embedded layer 172 embedded in the semiconductor substrate 200 between the insulating layer 170 and the semiconductor substrate 200. For example, when the semiconductor substrate 200 is a P-type semiconductor substrate, the embedded layer 172 is an N-type semiconductor region into which N-type impurities are introduced.
  • a depletion layer (channel region) is generated in the embedded layer 172 embedded in the semiconductor substrate 200, as shown in FIG. Will be done. Then, the electric charge is accumulated in the generated depletion layer.
  • the depth at which the depletion layer is formed can be adjusted by appropriately selecting the impurity concentration of the semiconductor substrate 200 and the embedded layer 172, the thickness of the embedded layer 172, the thickness of the insulating layer 170, and the like. .. By doing so, in the present embodiment, it is possible to prevent the electric charge from being trapped by the defect on the outermost surface or the like, and it is possible to increase the mobility of the electric charge.
  • the light receiving element 10 capable of reducing the influence of kTC noise while ensuring a wide dynamic range.
  • the light receiving element 10 according to the embodiment of the present disclosure described above can also be deformed as follows. Hereinafter, modifications 1 to 5 of this embodiment will be described.
  • Each of the light receiving elements 10 according to the modified examples 1 to 5 described below has charge accumulating portions MEM1 and MEM2 having a MOS capacity.
  • FIG. 13 is an explanatory view showing a cross-sectional configuration example of the light receiving element 10 according to the modified example 1 of the present embodiment
  • FIG. 14 is an enlarged view of the region C of FIG.
  • the charge storage units MEM1 and MEM2 which are composed of MOS capacities, are provided, but unlike the present embodiment described above, as shown in FIG. 13, they have a vertical electrode 154 embedded in the semiconductor substrate 200.
  • FIG. 14 it has an insulating layer 170 embedded in a trench 174 formed in the semiconductor substrate 200, and a vertical embedded electrode portion 178 embedded in the insulating layer 170.
  • the charge storage units MEM1 and MEM2 have the vertical electrodes 154, the vertical electrodes 154 and the semiconductor substrate facing the electrodes 154 (specifically, the N-type semiconductor region 102a). , 102b)
  • the area of the insulating layer 170 sandwiched between 200 and 200 can be increased.
  • the capacity of the charge accumulating portions MEM1 and MEM2 can be further increased, and by extension, a wide dynamic range of the light receiving element 10 can be secured. ..
  • FIG. 15 is an explanatory view showing a cross-sectional configuration example of the light receiving element 10 according to the second modification of the present embodiment.
  • the light receiving element 10 has charge storage units MEM1 and MEM2 having MOS capacities.
  • the light receiving element 10 has a moth-eye structure 202a provided on the back surface (the surface opposite to the front surface) of the semiconductor substrate 200 and having fine irregularities formed.
  • the moth-eye structure 202a is configured by arranging a plurality of substantially quadrangular pyramids having vertices on the semiconductor substrate 200 side in a matrix.
  • this modification by providing the moth-eye structure 202a, it is possible to alleviate a sudden change in the refractive index at the interface and prevent reflection.
  • FIG. 16 is an explanatory view showing a cross-sectional configuration example of the light receiving element 10 according to the third modification of the present embodiment.
  • the light receiving element 10 has charge storage units MEM1 and MEM2 having MOS capacities.
  • the gate electrodes 150a and 150b of the distribution transistors VG1 and VG2 have embedded gate portions 170a and 170b embedded in the semiconductor substrate 200. According to this modification, by doing so, the charge generated by the photodiode PD can be transferred to the charge storage units MEM1 and MEM2 more efficiently.
  • FIG. 17 is an explanatory view showing a cross-sectional configuration example of the light receiving element 10 according to the modified example 4 of the present embodiment.
  • the light receiving element 10 has charge storage units MEM1 and MEM2 having MOS capacities.
  • the light receiving element 10 is formed in the middle of the semiconductor substrate 200 from the back surface (the surface opposite to the front surface) of the semiconductor substrate 200 along the thickness direction of the semiconductor substrate 200. It has a pixel separation unit (second pixel separation unit) 210a (DTI (Deep Trench Isolation)) that penetrates to the pixel separation unit 210a. According to the pixel separation unit 210a, incident light is prevented from entering the adjacent light receiving element 10. Can be done.
  • DTI Deep Trench Isolation
  • FIG. 18 is an explanatory view showing a cross-sectional configuration example of the light receiving element 10 according to the modified example 5 of the present embodiment.
  • the light receiving element 10 may have a plurality of, in particular, four distribution transistors VG.
  • the light receiving element 10 has a charge storage unit (third charge storage unit) MEM1, MEM2, MEM3, and MEM4 having a MOS capacity.
  • Second embodiment >> Further, in the above-described first embodiment and its modification, even if the insulating films of the charge storage portions MEM1 and MEM2 (not shown) and the gate insulating films of the amplification transistors AMP1 and AMP2 (not shown) are thinned. Good. By doing so, the capacities of the charge storage units MEM1 and MEM2 can be increased without increasing the size. Further, the number of crystal defects in the gate insulating film is reduced, the influence of crystal defects is reduced by increasing the transconductance gm of the transistors, and the interface state is reduced by shortening the heat treatment time and lowering the heat treatment temperature. Therefore, the random noise of the amplification transistors AMP1 and AMP2 can be reduced.
  • FIG. 19 is an explanatory view showing a plan configuration example of the light receiving element 10 according to the present embodiment, and is a view when the light receiving element 10 is viewed from above the surface of the semiconductor substrate 200, and is the first embodiment. It is the same as the light receiving element 10.
  • FIG. 20A is a cross-sectional view when the light receiving element 10 is cut along the line CC'of FIG. 19, and FIG.
  • FIGS. 20A and 20B are cross-sectional views of the light receiving element 10 cut along the line DD'of FIG. It is a cross-sectional view at the time of. Specifically, in FIGS. 20A and 20B, the upper side in the drawing is the front surface side of the semiconductor substrate 200, and the lower side in the drawing is the back surface side of the semiconductor substrate 200.
  • the insulating film 720a located below the gate electrode 160 covered with the sidewall 730 of the amplification transistor AMP1 is, for example, an oxide film (third).
  • the film thickness is larger than that of the insulating film 720 made of an oxide film (third oxide film) located below the gate electrode 158 of the reset transistor RST1 and the gate electrode 162 of the selection transistor SEL1. thin.
  • the insulating film (insulating layer) 720a located below the electrode 154 covered with the sidewall 730 of the charge storage unit MEM1 is, for example, an oxide film (an oxide film).
  • the first oxide film) is formed, and the film thickness thereof is thinner than that of the insulating film 720 made of the oxide film (second oxide film) located below the gate electrode 156 of the transfer transistor TG1.
  • the insulating film 720a located below the gate electrode 160 of the amplification transistor AMP1 and the insulating film 720a located below the electrode 154 of the charge storage unit MEM1 are oxide films made of the same material. Also, they may have substantially the same film thickness.
  • the insulating film 720a located below the gate electrode 160 of the amplification transistor AMP1 and the insulating film 720a located below the electrode 154 of the charge storage unit MEM1 are formed of silicon oxide (SiO 2). ), Silicon nitride (SiN) and other oxide films. Further, in the present embodiment, the thickness of the insulating film 720a located below the gate electrode 160 of the amplification transistor AMP1 and the insulating film 720a located below the electrode 154 of the charge storage unit MEM1 are randomized.
  • Insulation located below the gate electrodes 156, 158, 162 of other elements in view of the noise reduction effect and the increase in power consumption due to the increase in leakage current. It is preferably about half the thickness of the film 720, and more preferably 1.0 nm or more and 5.0 nm or less, for example.
  • the insulating film 720a located below the gate electrode 160 of the amplification transistor AMP1 and the insulating film 720a located below the electrode 154 of the charge storage unit MEM1 are viewed from above the semiconductor substrate 200. It is preferable that the gate electrode 160 and the electrode 154 are wider than the gate electrode 160 and the electrode 154 so as not to interfere with adjacent elements.
  • the present embodiment is not limited to thinning only the insulating film 720a of the charge storage portions MEM1 and MEM2 and the gate insulating film 720a of the amplification transistors AMP1 and AMP2.
  • only the insulating film 720a of the charge storage units MEM1 and MEM2 may be thinned, and the elements on the light receiving element 10 (charge storage unit MEM, transfer transistor TG, distribution transistor VG, charge discharge transistor OFG, amplification).
  • the insulating film 720 in contact with the gate electrodes 150, 152, 154, 156, 158, 160, 162 and the electrode 154 of the transistor AMP, the reset transistor RST, and the selection transistor SEL) may be thinned.
  • the charge storage unit MEM does not increase in size.
  • the capacitance can be increased and the random noise of the transistor can be reduced. Therefore, according to the present embodiment, the light receiving element 10 and the measurement can reduce the influence of kTC noise while ensuring a wider dynamic range by combining with the configuration according to the first embodiment described above.
  • Distance module 1 can be provided. It should be noted that this embodiment can be implemented in combination with the above-mentioned first embodiment and a modification thereof.
  • the insulating film 720a of the charge storage unit MEM, the gate insulating film 720a of the amplification transistor AMP, and the like are thinned to increase the capacity of the charge storage unit MEM, and the amplification transistor AMP is random. The noise was reduced.
  • the gate insulating film 720a is thinned, the above-mentioned effects can be obtained, but the leakage current increases, so that the thinning is also limited.
  • the present inventors have formed a high dielectric film having a high relative permittivity capable of increasing the capacity of the charge storage unit MEM as compared with the above-mentioned oxide film even if the film thickness is the same.
  • the capacitance of the charge storage unit MEM can be increased and the random noise of the amplification transistor AMP can be reduced while avoiding an increase in leakage current. It can be compatible.
  • FIG. 21 is an explanatory view showing a plan configuration example of the light receiving element 10 according to the present embodiment, and is a view when the light receiving element 10 is viewed from above the surface of the semiconductor substrate 200, and is the first embodiment. It is the same as the light receiving element 10.
  • 22A is a cross-sectional view when the light receiving element 10 is cut along the EE line of FIG. 24, and FIG.
  • FIGS. 22A and 22B are cross-sectional views of the light receiving element 10 cut along the FF line of FIG. 24. It is a cross-sectional view at the time of. Specifically, in FIGS. 22A and 22B, the upper side in the drawing is the front surface side of the semiconductor substrate 200, and the lower side in the drawing is the back surface side of the semiconductor substrate 200.
  • the insulating film (third insulating layer) 740 located below the gate electrode 160 covered with the sidewall 730 of the amplification transistor AMP1 is , Consists of a high dielectric film.
  • the relative permittivity of the insulating film 740 is higher than that of the insulating film (third insulating layer) 720 located below the gate electrode 158 of the reset transistor RST1 and the gate electrode 162 of the selection transistor SEL1.
  • the insulating film (first insulating layer) 740 located below the electrode 154 covered with the sidewall 730 of the charge storage unit MEM1 is high. It consists of a dielectric film. The relative permittivity of the insulating film 740 is higher than that of the insulating film (second insulating layer) 720 located below the gate electrode 156 of the transfer transistor TG1.
  • the insulating film 740 located below the gate electrode 160 of the amplification transistor AMP1 and the insulating film 740 located below the electrode 154 of the charge storage unit MEM1 may be formed of the same material.
  • the high-dielectric film is a material having a higher relative permittivity than the relative permittivity (3.9) of silicon oxide (SiO 2), and has a ratio of 4 or more. It is preferably a material having a dielectric constant.
  • the high dielectric film is a metal oxide film, which is Al 2 O 3 , HfSiON, Y 2 O 3 , Ta 2 O 5 , La 2 O 3 , TiO 2 , HfO 2 , ZrO. 2. It can be formed from a material such as HfZrO 2.
  • TiN as a material for forming the gate electrodes 150, 152, 154, 156, 158, 160, 162 for adjusting Vth (threshold voltage)
  • a metal material such as TaN or NiSi may be used.
  • the insulating film 740 located below the gate electrode 160 of the amplification transistor AMP1 and the insulating film 740 located below the electrode 154 of the charge storage unit MEM1 are viewed from above the semiconductor substrate 200. It is preferable that the gate electrode 160 and the electrode 154 are wider than the gate electrode 160 and the electrode 154 so as not to interfere with adjacent elements.
  • the present embodiment is not limited to forming only the insulating film 740 of the charge storage portions MEM1 and MEM2 and the gate insulating film 740 of the amplification transistors AMP1 and AMP2 with a high dielectric film.
  • only the insulating film 740 of the charge storage units MEM1 and MEM2 may be formed of a high dielectric film, and the elements on the light receiving element 10 (charge storage unit MEM, transfer transistor TG, distribution transistor VG, charge) may be formed.
  • the insulating film 740 of the charge storage unit MEM, the gate insulating film 740 of the amplification transistor AMP, and the like are formed of a high-dielectric film, as compared with the case where SiO 2 is used. It is possible to increase the capacity of the charge storage unit MEM and reduce the random noise of the amplification transistor AMP without reducing the film thickness. Therefore, according to the present embodiment, the light receiving element 10 and the measurement can reduce the influence of kTC noise while ensuring a wider dynamic range by combining with the configuration according to the first embodiment described above. Distance module 1 can be provided. It should be noted that this embodiment can be implemented in combination with the above-mentioned first embodiment and a modification thereof.
  • each semiconductor region described above may be reversed.
  • holes are used as electric charges instead of electrons. It can be applied to the element to be used.
  • the semiconductor substrate does not necessarily have to be a silicon substrate, and may be another substrate (for example, an SOI (Silicon ON Insulator) substrate, a SiGe substrate, or the like). Good. Further, the semiconductor substrate may have a semiconductor structure or the like formed on such various substrates.
  • SOI Silicon ON Insulator
  • the light receiving element 10 may be formed on one chip together with an irradiation unit, a processing circuit, or the like, or may be provided in one package.
  • an irradiation unit e.g., a laser beam, a laser beam, or the like.
  • PVD Physical Vapor Deposition
  • CVD Chemical Vapor Deposition
  • the PVD method includes a vacuum vapor deposition method using resistance heating or high frequency heating, an EB (electron beam) vapor deposition method, various sputtering methods (magnetron sputtering method, RF (Radio Frequency) -DC (Direct Current) combined bias sputtering method, and the like.
  • ECR Electro Cyclotron Resonance
  • sputtering method opposed target sputtering method, high-frequency sputtering method, etc.
  • ion plating method laser ablation method, molecular beam epitaxy (MBE) method, laser transfer method, etc.
  • examples of the CVD method include a plasma CVD method, a thermal CVD method, an MO (Metal Organic) CVD method, an optical CVD method, and the like.
  • electrolytic plating method, electroless plating method spin coating method; immersion method; casting method; microcontact printing method; drop casting method; screen printing method, inkjet printing method, offset printing method, gravure printing.
  • Various printing methods such as method and flexographic printing method; stamp method; spray method; air doctor coater method, blade coater method, rod coater method, knife coater method, squeeze coater method, reverse roll coater method, transfer roll coater method, gravure coater method. , Kiss coater method, cast coater method, spray coater method, slit orifice coater method, calendar coater method and various other coating methods can be mentioned.
  • the patterning method for each layer include chemical etching such as shadow mask, laser transfer, and photolithography, and physical etching by ultraviolet rays, laser, and the like.
  • examples of the flattening technique include a CMP (Chemical Mechanical Polishing) method, a laser flattening method, a reflow method, and the like. That is, the device according to the embodiment and the modification of the present disclosure can be easily and inexpensively manufactured by using the manufacturing process of the existing semiconductor device.
  • FIG. 23 is a block diagram showing a configuration example of a smartphone 900 as an electronic device to which the distance measuring module 1 according to the embodiment of the present disclosure is applied.
  • the smartphone 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903.
  • the smartphone 900 also includes a storage device 904, a communication module 905, and a sensor module 907.
  • the smartphone 900 includes a distance measuring module 908 to which the above-mentioned distance measuring module 1 can be applied, and additionally includes an image pickup device 909, a display device 910, a speaker 911, a microphone 912, an input device 913, and a bus 914.
  • the smartphone 900 may have a processing circuit such as a DSP (Digital Signal Processor) in place of or in combination with the CPU 901.
  • DSP Digital Signal Processor
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the smartphone 900 according to various programs recorded in the ROM 902, the RAM 903, the storage device 904, and the like.
  • the ROM 902 stores programs, calculation parameters, and the like used by the CPU 901.
  • the RAM 903 primarily stores a program used in the execution of the CPU 901, parameters that change appropriately in the execution, and the like.
  • the CPU 901, ROM 902, and RAM 903 are connected to each other by a bus 914.
  • the storage device 904 is a data storage device configured as an example of the storage unit of the smartphone 900.
  • the storage device 904 is composed of, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, and the like.
  • the storage device 904 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the communication module 905 is a communication interface composed of, for example, a communication device for connecting to the communication network 906.
  • the communication module 905 can be, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), WUSB (Wireless USB), or the like. Further, the communication module 905 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communications, or the like.
  • the communication module 905 transmits and receives signals and the like to and from the Internet and other communication devices using a predetermined protocol such as TCP / IP.
  • the communication network 906 connected to the communication module 905 is a network connected by wire or wireless, and is, for example, the Internet, a home LAN, infrared communication, satellite communication, or the like.
  • the sensor module 907 is, for example, a motion sensor (for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.), a biometric information sensor (for example, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.), or a position sensor (for example, GNSS (Global Navigation)). Includes various sensors such as Satellite System) receivers, etc.).
  • a motion sensor for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.
  • a biometric information sensor for example, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.
  • GNSS Global Navigation
  • the distance measuring module 908 is provided on the surface of the smartphone 900, and for example, it is possible to acquire the uneven shape and movement of the user's fingertip, palm, face, etc. facing the surface as the distance measurement result. Such distance measurement results can be used for user authentication and user gesture recognition. Further, the distance measuring module 908 can also acquire, for example, the distance from the smartphone 900 to the object 800, and acquire the three-dimensional shape data of the surface of the object 800.
  • the image pickup device 909 is provided on the surface of the smartphone 900 and can image an object 800 or the like located around the smartphone 900.
  • the image pickup device 909 includes an image pickup element (not shown) such as a CMOS (Complementary MOS) image sensor, and a signal processing circuit (not shown) that performs image pickup signal processing on a signal photoelectrically converted by the image pickup device.
  • CMOS Complementary MOS
  • the image pickup device 909 includes an optical system mechanism (not shown) composed of an image pickup lens, an aperture mechanism, a zoom lens, a focus lens, and the like, and a drive system mechanism (not shown) that controls the operation of the optical system mechanism. You can also have.
  • the image sensor collects the incident light from the object 800 as an optical image
  • the signal processing circuit photoelectrically converts the imaged optical image on a pixel-by-pixel basis, and uses the signal of each pixel as an image pickup signal.
  • the captured image can be acquired by reading and processing the image.
  • the display device 910 is provided on the surface of the smartphone 900, and can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) display.
  • the display device 910 can display an operation screen, an image captured by the image pickup device 909 described above, and the like.
  • the speaker 911 can output, for example, a call voice, a voice associated with the nesting content displayed by the display device 910 described above, or the like to the user.
  • the microphone 912 can collect, for example, a user's call voice, a voice including a command for activating a function of the smartphone 900, and a voice of the surrounding environment of the smartphone 900.
  • the input device 913 is a device operated by the user, such as a button, a keyboard, a touch panel, and a mouse.
  • the input device 913 includes an input control circuit that generates an input signal based on the information input by the user and outputs the input signal to the CPU 901.
  • the user can input various data to the smartphone 900 and instruct the processing operation.
  • the configuration example of the smartphone 900 is shown above.
  • Each of the above-mentioned components may be configured by using general-purpose members, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed depending on the technical level at the time of implementation.
  • FIG. 24 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 24 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • the irradiation unit 20 and the light receiving unit 30 of the distance measuring module 1 according to the embodiment of the present disclosure may be built in the tip of the lens barrel 11101.
  • the iToF sensor which is the irradiation unit 20 and the light receiving unit 30 of the distance measuring module 1 according to the embodiment of the present disclosure is contained in the camera head 11102. 15004 is provided. Specifically, the reflected light (observation light) from the observation target passes through the lens barrel 11101, is collected by the lens 15001 in the camera head 11102, is reflected by the half mirror 15002, and is received by the iToF sensor 15004. . Further, the observation light is photoelectrically converted by the iToF sensor 15004, an electric signal corresponding to the observation light is generated, stored in the memory 15005, and then transmitted to the ranging signal processing device 11209 described later.
  • an image sensor 15003 is provided inside the camera head 11102, and the reflected light (observation light) from the observation target passes through the lens barrel 11101 and is collected by the lens 15001. It is reflected by the half mirror 15002 and received by the image sensor 15003.
  • the observation light is photoelectrically converted by the image sensor 15003, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is once stored in the memory 15005 and then transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. To send.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the distance measurement signal processing device 11209 is a device provided with a control unit 40 and a processing unit 60 of the distance measurement module 1 according to the embodiment of the present disclosure, and is capable of acquiring distance information.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 26 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 24.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the above-mentioned imaging conditions such as frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. Good.
  • the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 11402 among the configurations described above.
  • the light receiving element 10 can be applied as a part of the configuration of the imaging unit 11402.
  • the technique according to the present disclosure as a part of the configuration of the imaging unit 11402, the distance to the surgical site can be measured with high accuracy, and a clearer surgical site image can be obtained.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 27 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the iToF sensor 12032 is connected to the vehicle exterior information detection unit 12030.
  • the iToF sensor 12032 can function as the ranging module 1 according to the embodiment of the present disclosure.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 28 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like. Further, the iToF sensor module 12201 in which the irradiation unit 20 and the light receiving unit 30 of the distance measuring module 1 according to the embodiment of the present disclosure are incorporated is provided, for example, in the front nose of the vehicle 12100.
  • FIG. 24 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the vehicle exterior information detection unit 12030 and the imaging unit 12031 among the configurations described above.
  • the light receiving element 10 or the distance measuring module 1 can be applied to the distance detection processing block of the vehicle exterior information detection unit 12030 or the image pickup unit 12031.
  • the present technology can also have the following configurations.
  • a photoelectric conversion unit provided in the semiconductor substrate that converts light into electric charges A first charge storage unit to which the charge is transferred from the photoelectric conversion unit, and A second charge storage unit to which the charge is transferred from the photoelectric conversion unit, and With Each of the first and second charge storage portions is composed of a laminate of an electrode, a first insulating layer, and a semiconductor layer.
  • Light receiving element Each of the first and second charge storage portions is formed in an inversion region formed on the outermost surface of the semiconductor layer located directly below the first insulating layer by applying a first voltage to the electrode. , Accumulates the charge, The light receiving element according to (1) above.
  • the laminate further has an embedded layer embedded in the semiconductor layer between the first insulating layer and the semiconductor layer.
  • the semiconductor layer is a first conductive type semiconductor layer, and is The embedded layer is a second conductive type semiconductor layer which is a conductive type opposite to the first conductive type.
  • Each of the first and second charge storage portions accumulates the charge in the channel region generated in the semiconductor layer by applying a second voltage to the electrode.
  • the electrode is made of a metal film and is made of a metal film.
  • the first insulating layer is made of an oxide film.
  • the film thickness of the oxide film is 5.0 nm or less.
  • the relative permittivity of the first insulating layer is 4 or more.
  • the light receiving element according to any one of (1) to (5) above. (10) A first distribution transistor that distributes the charge from the photoelectric conversion unit to the first charge storage unit, and A second distribution transistor that distributes the charge from the photoelectric conversion unit to the second charge storage unit, and Further prepare, The light receiving element according to any one of (1) to (5) above. (11) The light receiving element according to (10) above, wherein a predetermined voltage is applied to each of the gates of the first and second distribution transistors at different timings. (12) Further provided with a moth-eye structure having fine irregularities formed on the surface opposite to the surface of the semiconductor substrate. The light receiving element according to any one of (1) to (11) above.
  • a first pixel separation section penetrating the semiconductor substrate is further provided.
  • a second pixel separation portion that penetrates from the surface opposite to the surface of the semiconductor substrate to the middle of the semiconductor substrate along the thickness direction of the semiconductor substrate is further provided.
  • the first insulating layer is made of a first oxide film.
  • Each of the first and second transfer transistors has a second oxide film provided on the semiconductor substrate. The film thickness of the first oxide film is thinner than that of the second oxide film.
  • Each of the amplification transistor, the selection transistor, and the reset transistor has a third oxide film provided on the semiconductor substrate.
  • the film thickness of the third oxide film of the amplification transistor is thinner than that of the third oxide film of the selection transistor and the reset transistor.
  • Each of the first and second transfer transistors has a second insulating layer provided on the semiconductor substrate. The relative permittivity of the first insulating layer is higher than that of the second insulating layer.
  • Each of the amplification transistor, the selection transistor, and the reset transistor has a third insulating layer provided on the semiconductor substrate. The relative permittivity of the third insulating layer of the amplification transistor is higher than that of the third insulating layer of the selection transistor and the reset transistor.
  • a plurality of third charge storage units to which the charge is transferred from the photoelectric conversion unit are further provided.
  • Each of the third charge storage portions is composed of a laminate of an electrode, a fourth insulating layer, and a semiconductor layer.
  • the light receiving element according to (1) above.
  • a light receiving device including one or more light receiving elements.
  • the light receiving element is A photoelectric conversion unit provided in the semiconductor substrate that converts light into electric charges, A first charge storage unit to which the charge is transferred from the photoelectric conversion unit, and A second charge storage unit to which the charge is transferred from the photoelectric conversion unit, and Have,
  • Each of the first and second charge storage portions is composed of a laminate of an electrode, a first insulating layer, and a semiconductor layer. Light receiving device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

半導体基板(200)内に設けられ、光を電荷に変換する光電変換部(PD)と、前記光電変換部から前記電荷が転送される第1の電荷蓄積部(MEM)と、前記光電変換部から前記電荷が転送される第2の電荷蓄積部(MEM)とを備え、前記第1及び第2の電荷蓄積部のそれぞれは、電極(154a)、第1の絶縁層、及び半導体層(102a)の積層からなる、受光素子を提供する。

Description

受光素子及び受光装置
 本開示は、受光素子及び受光装置に関する。
 対象物までの距離を測定する方法として、TOF(Time of Flight)センサ(受光装置)が知られている。TOFセンサは、例えば、間接式TOFセンサの場合、対象物に所定の周期を持つ照射光を照射し、照射光と反射光との位相差を検出することで、対象物までの距離を測定することができる。そして、当該TOFセンサにおいては、短い間隔で、受光を複数繰り返すことにより、信号量を増加させてS/N(Signal/Noise)比を高め、精度の高い測距を可能にしている。
特開2019-4149号公報
 TOFセンサ(受光装置)の受光素子に対しては、十分なS/N比を確保して測距するために、広いダイナミックレンジ、すなわち、受光により発生した電荷を蓄積する量を大きくすることが求められている。さらに、当該受光素子に対しては、精度の高い測距のために、kTCノイズの影響を少なくすることが求められている。
 そこで、このような状況に鑑みて、本開示では、広いダイナミックレンジを確保しつつ、kTCノイズの影響を少なくすることができる、受光素子及び受光装置を提案する。
 本開示によれば、半導体基板内に設けられ、光を電荷に変換する光電変換部と、前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、前記光電変換部から前記電荷が転送される第2の電荷蓄積部とを備え、前記第1及び第2の電荷蓄積部のそれぞれは、電極、第1の絶縁層、及び半導体層の積層からなる、受光素子が提供される。
 また、本開示によれば、半導体基板内に設けられ、光を電荷に変換する光電変換部と、前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、前記光電変換部から前記電荷が転送される第2の電荷蓄積部とを備え、前記第1及び第2の電荷蓄積部のそれぞれは、半導体層と、前記半導体層に形成されたトレンチに埋め込まれた絶縁層と、前記絶縁層に埋め込まれた縦型電極とを有する、受光素子が提供される。
 さらに、本開示によれば、1つ又は複数の受光素子を備える受光装置であって、前記受光素子は、半導体基板内に設けられ、光を電荷に変換する光電変換部と、前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、前記光電変換部から前記電荷が転送される第2の電荷蓄積部とを有し、前記第1及び第2の電荷蓄積部のそれぞれは、電極、第1の絶縁層、及び半導体層の積層からなる、受光装置が提供される。
本開示の実施形態に係る測距モジュール1の構成例を示すブロック図である。 本開示の実施形態に係る受光部30の平面構成例を示す説明図(その1)である。 本開示の実施形態に係る受光部30の平面構成例を示す説明図(その2)である。 本開示の実施形態に係る受光部30の平面構成例を示す説明図(その3)である。 本開示の実施形態に係る受光素子10の等価回路図である。 本開示の実施形態に係る測距モジュール1を用いた距離の算出方法の原理を説明するための説明図である。 比較例に係る受光素子の一部の等価回路図である。 本開示の実施形態に係る受光素子10の一部の等価回路図である。 本開示の第1の実施形態に係る受光素子10の平面構成例を示す説明図である。 図7のA―A´線に沿って受光素子10を切断した際の断面図である。 本開示の第1の実施形態に係る電荷蓄積部MEMの断面構成例を示す説明図である。 図9の電荷蓄積部MEMのエネルギーバンド図である。 本開示の第1の実施形態に係る電荷蓄積部MEMの他の断面構成例を示す説明図である。 図11の電荷蓄積部MEMのエネルギーバンド図である。 同実施形態の変形例1に係る受光素子10の断面構成例を示す説明図である。 図13の領域Cの拡大図である。 同実施形態の変形例2に係る受光素子10の断面構成例を示す説明図である。 同実施形態の変形例3に係る受光素子10の断面構成例を示す説明図である。 同実施形態の変形例4に係る受光素子10の断面構成例を示す説明図である。 同実施形態の変形例5に係る受光素子10の平面成例を示す説明図である。 本開示の第2の実施形態に係る受光素子10の平面構成例を示す説明図である。 図19のC―C´線に沿って受光素子10を切断した際の断面図である。 図19のD-D´線に沿って受光素子10を切断した際の断面図である。 本開示の第3の実施形態に係る受光素子10の平面構成例を示す説明図である。 図21のE―E´線に沿って受光素子10を切断した際の断面図である。 図21のF―F´線に沿って受光素子10を切断した際の断面図である。 本開示の実施形態に係る測距モジュール1を適用した電子機器としてのスマートフォン900の構成例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 内視鏡の構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下の説明で参照される図面は、本開示の実施形態の説明とその理解を促すための図面であり、わかりやすくするために、図中に示される形状や寸法、比などは実際と異なる場合がある。さらに、図中に示される素子や装置に含まれる構成要素等は、以下の説明と公知の技術を参酌して適宜、設計変更することができる。
 また、以下の説明においては、本開示の実施形態を裏面照射型受光装置に適用した場合を例に説明し、従って、当該受光装置においては、基板の裏面側から光が入射されることとなる。従って、以下の説明においては、基板の表面とは、光が入射される側を裏面とした場合に、裏面と対向する面となる。
 以下の説明における具体的な長さや形状についての記載は、数学的に定義される数値と同一の値や幾何学的に定義される形状だけを意味するものではない。詳細には、以下の説明における具体的な長さや形状についての記載は、素子、その製造工程、及び、その使用・動作において許容される程度の違い(誤差・ひずみ)がある場合やその形状に類似する形状をも含むものとする。例えば、以下の説明において「円形状」又は「略円形状」と表現した場合には、真円に限定されるものではなく、楕円形等といった真円に類似する形状をも含むことを意味することとなる。
 さらに、以下の回路(電気的な接続)の説明においては、特段の断りがない限りは、「電気的に接続」とは、複数の要素の間を電気(信号)が導通するように接続することを意味する。加えて、以下の説明における「電気的に接続」には、複数の要素を直接的に、且つ、電気的に接続する場合だけでなく、他の要素を介して間接的に、且つ、電気的に接続する場合も含むものとする。
 また、以下の説明において、「共有している」とは、特段の断りがない限りは、複数の一の要素が共有するように他の要素が設けられていることを意味し、言い換えると、他の要素は、所定の数の一の要素のそれぞれに共有されていることを意味する。
 なお、説明は以下の順序で行うものとする。
  1. 本開示の実施形態に係る測距モジュール1の構成例
  2. 本開示の実施形態に係る受光部30の構成例
  3. 本開示の実施形態に係る受光素子10の等価回路
  4. 本開示の実施形態に係る測距モジュール1を用いた距離の算出方法の原理
  5. 本実施形態を創作するに至る背景
  6. 第1の実施形態
  7. 第2の実施形態
  8. 第3の実施形態
  9. まとめ
  10. 電子機器の構成例
  11. 内視鏡手術システムへの応用例
  12. 移動体への応用例
  13. 補足
 <<1. 本開示の実施形態に係る測距モジュール1の構成例>>
 まずは、図1を参照して、本開示の実施形態に係る測距モジュール1の概略的な構成を説明する。図1は、本開示の実施形態に係る測距モジュール1の構成例を示すブロック図である。詳細には、測距モジュール1は、図1に示すように、照射部20と、受光部30と、制御部(照射制御部)40と、処理部60とを主に有することができる。以下に、本実施形態に係る測距モジュール1に含まれる各機能ブロックについて説明する。
 (照射部20)
 照射部20は、LED(Light Emitting Diode)光源(図示省略)と光学素子(図示省略)とを有している。照射される光の波長は、LED光源を適宜選択することにより、変えることができる。なお、本実施形態においては、照射部20は、例えば、波長780nm~1000nm範囲の赤外光を照射するものとして説明するが、本実施形態においては、このような赤外光を照射することに限定されるものではない。また、照射部20は、後述する制御部40から供給される矩形信号のような周期的な信号と同期して、周期的に明るさが変動する照射光を、対象物800へ照射することができる。
 (受光部30)
 受光部30は、対象物800から反射した反射光を受光する。受光部30は、集光レンズ(図示省略)と後述する複数の受光素子10とを有している。集光レンズは、受光した光を各受光素子10に集める機能を有する。また、受光素子10は、受光した光の強度に基づいて電荷(例えば、電子)を生成し、生成した電荷を、後述する制御部40から供給される矩形信号のような周期的な信号と同期して、内蔵するトランジスタ(振り分けトランジスタVG;図3参照)を駆動させ、電荷蓄積部MEM(図3 参照)へ転送する。さらに、電荷蓄積部MEMへ転送された電荷は、信号に変換されて最終的に処理部60へ転送されることとなる。なお、当該受光素子10の詳細については、後述する。
 (制御部40)
 制御部40は、周期的な信号を照射部20及び受光部30に供給し、照射光の照射タイミングや、上記トランジスタの駆動タイミングを制御する。当該信号の周波数は、例えば5~20メガヘルツ(MHz)であることができるが、本実施形態においてはこのような周波数に限定されるものではない。また、制御部40は、上記トランジスタ(振り分けトランジスタVG;図3参照)を、例えば差動等、互いに異なるタイミングで動作するように制御する。
 (処理部60)
 処理部60は、受光部30からの信号を取得し、取得した信号に基づいて、例えば間接ToF(iToF)方式により対象物800までの距離を取得することができる。なお、距離の算出方法については、後述する。
 <<2. 本開示の実施形態に係る受光部30の構成例>>
 次に、図2Aから図2Cを参照して、本開示の実施形態に係る受光部30の平面構成例について説明する。図2Aから図2Cは、本開示の実施形態に係る受光部30の平面構成例を示す説明図である。詳細には、図2Aに示すように、本実施形態に係る受光部30は、例えばシリコンからなる半導体基板200上に設けられた、画素アレイ部12、垂直駆動回路部32、カラム信号処理回路部34、水平駆動回路部36、出力回路部38、及び、制御回路部44等を含む。以下に、本実施形態に係る受光部30の各ブロックの詳細について説明する。
 (画素アレイ部12)
 画素アレイ部12は、半導体基板200上にマトリックス状(行方向および列方向の行列状)に2次元配置された複数の受光素子10を有する。各受光素子10は、光を電荷(例えば電子)に変換する光電変換部(フォトダイオードPD)(図示省略)と、複数の画素トランジスタ(例えばMOS(Metal-Oxide-Semiconductor)トランジスタ)(図示省略)等とを有している。言い換えると、画素アレイ部12は、入射した光を光電変換し、その結果得られた電荷に応じた信号を出力する画素を複数有する。そして、上記画素トランジスタは、例えば、転送トランジスタ、選択トランジスタ、リセットトランジスタ、及び、増幅トランジスタ等の各種機能を持ったトランジスタを含むことができる。なお、受光素子10の等価回路等の詳細については後述する。
 ここで、行方向とは、水平方向の受光素子10の配列方向をいい、列方向とは、垂直方向の受光素子10の配列方向をいう。行方向は、図2A中、左右方向であり、列方向は、図2A中、上下方向である。画素アレイ部12においては、行列状の受光素子10の配列に対して、行ごとに画素駆動配線42が行方向に沿って配線されるとともに、各列に垂直信号線48が列方向に沿って配線されている。例えば画素駆動配線42は、受光素子10から信号を読み出す際の駆動を行うための駆動信号を伝送する。
 (垂直駆動回路部32)
 垂直駆動回路部32は、例えばシフトレジスタやアドレスデコーダ等によって形成され、画素駆動配線42を選択し、選択された画素駆動配線42に受光素子10を駆動するためのパルスを供給し、全受光素子10同時あるいは行単位で受光素子10を駆動する。例えば、垂直駆動回路部32は、画素アレイ部12の各受光素子10を行単位で順次垂直方向(図2A中の上下方向)に選択走査し、各受光素子10のフォトダイオードPDの受光量に応じて生成された電荷に基づく画素信号を、垂直信号線48を通して後述するカラム信号処理回路部34に供給する。
 (カラム信号処理回路部34)
 カラム信号処理回路部34は、受光素子10の列ごとに配置されており、1行分の受光素子10から出力される信号に対して列ごとにノイズ除去等の信号処理を行う。例えば、カラム信号処理回路部34は、受光素子10の固有の固定パターンノイズを除去するためにCDS(Correlated Double Sampling:相関2重サンプリング)及びAD(Analog-Degital)変換等の信号処理を行う。
 (水平駆動回路部36)
 水平駆動回路部36は、例えばシフトレジスタやアドレスデコーダなどによって形成され、水平走査パルスを順次出力することによって、上述したカラム信号処理回路部34の各々を順番に選択し、カラム信号処理回路部34の各々から信号を水平信号線46に出力させることができる。
 (出力回路部38)
 出力回路部38は、上述したカラム信号処理回路部34の各々から水平信号線46を通して順次に供給される信号に対し、信号処理を行い出力することができる。出力回路部38は、例えば、バッファリング(buffering)を行う機能部として機能してもよく、もしくは、列ばらつき補正、各種デジタル信号処理等の処理を行ってもよい。なお、バッファリングとは、信号のやり取りの際に、処理速度や転送速度の差を補うために、一時的に信号を保存することをいう。
 (制御回路部44)
 制御回路部44は、入力クロックと、動作モードなどを指令するデータを受け取り、また、受光素子10の内部情報等のデータを出力することができる。すなわち、制御回路部44は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路部32、カラム信号処理回路部34及び水平駆動回路部36等の動作の基準となるクロック信号や制御信号を生成する。そして、制御回路部44は、生成したクロック信号や制御信号を、垂直駆動回路部32、カラム信号処理回路部34及び水平駆動回路部36等に出力する。
 (振り分けトランジスタ駆動部50、信号処理部52、データ格納部54)
 図2B及び図2Cに示すように、受光素子10には、振り分けトランジスタ駆動部50、信号処理部52、及びデータ格納部54が設けられてもよい。すなわち、振り分けトランジスタ駆動部50、信号処理部52、及びデータ格納部54は、半導体基板200上に設けられてもよい。しかしながら、本実施形態においては、これに限定されるものではなく、振り分けトランジスタ駆動部50、信号処理部52、及びデータ格納部54は、別の半導体基板(図示省略)に設けられてもよい。まずは、振り分けトランジスタ駆動部50は、後述する振り分けトランジスタVG(図3 参照)の動作を制御する。例えば、振り分けトランジスタ駆動部50は、図2Bに示すように、列方向に沿って画素アレイ部12と隣り合うように設けられてもよく、もしくは、図2Cに示すように、行方向に沿って画素アレイ部12と隣り合うように設けられていてもよく、本実施形態においては、特に限定されるものではない。また、信号処理部52は、少なくとも演算処理機能を有し、出力回路部38から出力される信号に基づいて、演算処理等の種々の信号処理を行う。データ格納部54は、信号処理部52の信号処理にあたって、その処理に必要なデータを一時的に格納する。
 なお、本実施形態に係る受光部30の平面構成例は、図2Aから図2Cに示される例に限定されるものではなく、例えば、他の回路等を含んでもよく、特に限定されるものではない。
 <<3. 本開示の実施形態に係る受光素子10の等価回路>>
 次に、図3を参照して、本開示の実施形態に係る受光素子10の等価回路について説明する。図3は、本開示の実施形態に係る受光素子10の等価回路図である。
 詳細には、図3に示すように、受光素子10は、光を電荷に変換する光電変換素子(光電変換部)としてフォトダイオードPDと、電荷排出トランジスタOFG(なお、電荷排出トランジスタOFGは、等価回路上では1つのトランジスタで示されているが、電気的に並列接続された複数のトランジスタから構成されてもよい)とを有する。さらに、受光素子10は、振り分けトランジスタVG、電荷蓄積部(第1の電荷蓄積部、第2の電荷蓄積部)MEM、転送トランジスタTG、浮遊拡散領域FD、リセットトランジスタRST、増幅トランジスタAMP、及び選択トランジスタSELをそれぞれ2個ずつ有する。
 図3に示すように、受光素子10においては、電荷排出トランジスタOFGのソース/ドレインの一方は、受光することで電荷を発生するフォトダイオードPDに電気的に接続される。さらに、電荷排出トランジスタOFGのソース/ドレインの他方は、電源回路(電源電位VDD)に電気的に接続される。そして、電荷排出トランジスタOFGは、自身のゲートに印加された電圧に応じて導通状態になり、フォトダイオードPDに蓄積された電荷を上記電源回路(電源電位VDD)に排出することができる。
 また、図3に示すように、受光素子10においては、振り分けトランジスタVG1、VG2のソース/ドレインの一方は、フォトダイオードPDに電気的に接続され、振り分けトランジスタVG1、VG2のソース/ドレインの他方は、電荷蓄積部(第1の電荷蓄積部、第2の電荷蓄積部)MEM1、MEM2にそれぞれ電気的に接続される。そして、振り分けトランジスタVG1、VG2は、自身のゲート(第1の振り分けゲート、第2の振り分けゲート)に印加された電圧に応じて導通状態になり、フォトダイオードPDに蓄積された電荷を電荷蓄積部MEM1、MEM2にそれぞれ転送することができる。すなわち、本実施形態においては、振り分けトランジスタVG1、VG2のゲートに印加される電圧を、互いに異なるタイミングで変化させることにより、フォトダイオードPDに蓄積された電荷を2つある電荷蓄積部MEM1、MEM2のいずれかに振り分けることができる。言い換えると、2つの電荷蓄積部MEM1、MEM2は、1つのフォトダイオードPDを共有しているといえる。
 また、図3に示すように、受光素子10においては、転送トランジスタTG1、TG2のソース/ドレインの一方は、振り分けトランジスタVG1、VG2のソース/ドレインの他方及び電荷蓄積部MEM1、MEM2に電気的に接続される。さらに、転送トランジスタTG1、TG2のソース/ドレインの他方は、浮遊拡散領域FD1、FD2に電気的に接続される。そして、転送トランジスタTG1、TG2は、自身のゲートに印加された電圧に応じて導通状態になり、電荷蓄積部MEM1、MEM2に蓄積された電荷を浮遊拡散領域FD1、FD2に転送することができる。なお、本開示の実施形態においては、2つの電荷蓄積部MEM1、MEM2があるため、転送トランジスタTG1、TG2は、1つの浮遊拡散領域FDを共有することも可能である。
 また、浮遊拡散領域FD1、FD2は、電荷を電圧に変換して信号として出力する増幅トランジスタAMP1、AMP2のゲートに電気的に接続される。また、増幅トランジスタAMP1、AMP2のソース/ドレインの一方は、選択信号に従って、変換によって得た上記信号を信号線VSL1、VSL2に出力する選択トランジスタSEL1、SEL2のソース/ドレインの一方に電気的に接続される。さらに、増幅トランジスタAMP1、AMP2のソース/ドレインの他方は、電源回路(電源電位VDD)に電気的に接続される。
 また、選択トランジスタSEL1、SEL2のソース/ドレインの他方は、変換された電圧を信号として伝達する上記信号線VSL1、VSL2に電気的に接続され、さらに上述したカラム信号処理回路部34に電気的に接続される。さらに、選択トランジスタSEL1、SEL2のゲートは、信号を出力する行を選択する選択線(図示省略)に電気的に接続され、さらに上述した垂直駆動回路部32に電気的に接続される。すなわち、浮遊拡散領域FD1、FD2に蓄積された電荷は、選択トランジスタSEL1、SEL2の制御により、増幅トランジスタAMP1、AMP2によって電圧に変換され、信号線VSL1、VSL2に出力されることとなる。
 また、図3に示すように、浮遊拡散領域FD1、FD2は、蓄積した電荷をリセットするためのリセットトランジスタRST1、RST2のドレイン/ソースの一方に電気的に接続される。リセットトランジスタRST1、RST2のゲートは、リセット信号線(図示省略)に電気的に接続され、さらに上述した垂直駆動回路部32に電気的に接続される。また、リセットトランジスタRST1、RST2のドレイン/ソースの他方は、電源回路(電源電位VDD)に電気的に接続される。そして、リセットトランジスタRST1、RST2は、自身のゲートに印加された電圧に応じて導通状態になり、浮遊拡散領域FD1、FD2に蓄積された電荷をリセット(電源回路(電源電位VDD)へ排出)することができる。
 なお、本実施形態に係る受光素子10の等価回路は、図3に示される例に限定されるものではなく、例えば、他の素子等を含んでもよく、特に限定されるものではない。
 <<4. 本開示の実施形態に係る測距モジュール1を用いた距離の算出方法の原理>>
 次に、本開示の実施形態に係る測距モジュール1を用いた距離の算出方法(間接式)の原理について、図4を参照して説明する。図4は、本開示の実施形態に係る測距モジュール1を用いた距離の算出方法の原理を説明するための説明図であり、詳細には、測距モジュール1における、照射光と反射光とを強度の時間変動を模式的に示している。
 図4に示すように、測距モジュール1は、光の強度が周期的に変動するように変調された光を照射部20から対象物800に向かって照射する。照射された光は、対象物800で反射されて、反射光として測距モジュール1の受光部30で検出される。図4に示すように、検出された反射光(図4の上から2段目)は、照射光(図4の上から1段目)に対して位相差φをもっており、当該位相差φは、測距モジュール1から対象物800までの距離が遠ければ大きくなり、測距モジュール1から対象物800までの距離が近ければ小さくなる。
 先に説明したように、本実施形態に係る受光素子10は、例えば互いに差動する振り分けトランジスタVG1、VG2を有している。従って、振り分けトランジスタVG1、VG2がそれぞれ動作する期間は重なっていないことから、図4中のグレーで示される領域802a、802bの期間において、フォトダイオードPDに蓄積した電荷は、電荷蓄積部MEM1、MEM2のそれぞれに振り分けられることとなる。詳細には、電荷蓄積部MEM1、MEM2のそれぞれに振り分けられた電荷は、浮遊拡散領域FD1、FD2に転送され、最終的には、領域802a、802bの期間における積分値である面積に相当する信号に変換される。従って、図4から明らかなように、領域802aの積分値と領域802bの積分値との差分は、反射光の位相差φに応じて変化する。従って、本実施形態においては、領域802aの積分値と領域802bの積分値との差分に基づいて位相差φを算出することにより、対象物800までの距離を算出することができる。なお、本実施形態においては、積分値の差分ではなく、積分値の比を用いて位相差φを算出し、距離を算出することも可能である。
 <<5. 本実施形態を創作するに至る背景>>
 以上、本開示の実施形態に係る測距モジュール1、受光部30、受光素子10、及び、距離の算出方法の原理について説明した。ここで、さらに本実施形態の詳細を説明する前に、本発明者らが本実施形態を創作するに至る背景について説明する。
 先に説明したように、測距モジュール1の受光部30の受光素子10に対しては、十分なS/N比を確保して測距するために、広いダイナミックレンジ、すなわち、電荷を蓄積する量を大きくすることが求められる。さらに、当該受光素子10に対しては、精度の高い測距のために、浮遊拡散領域FDにおいて電荷の熱的な揺らぎによって生じる雑音であるkTCノイズの影響を少なくする、すなわちランダムノイズの影響を少なくすることが求められる。
 そこで、本発明者らは、上述のような要求を鑑みて、本開示の実施形態を創作するに至った。詳細には、従来の受光素子(後述する比較例)では、フォトダイオードPDで発生した電荷を浮遊拡散領域FDに直接振り分けている。それに対して、本発明者らが創作した本開示の実施形態においては、フォトダイオードPDで発生した電荷を浮遊拡散領域FDに直接振り分けるのではなく、一度、電荷蓄積部MEMに振り分けた後に、浮遊拡散領域FDへ転送する。従来の受光素子では、リセット動作(受光によって発生した電荷を蓄積する前に、浮遊電荷領域FDに蓄積された電荷(ノイズ)を排出する動作)後に、浮遊拡散領域FDを完全に空乏化することが難しい。従って、浮遊電荷領域FDに、フォトダイオードPDで発生した電荷(信号)を転送した場合、kTCノイズが当該信号に重畳してしまうことを避けることが難しい。一方、本実施形態においては、以下に説明するように、浮遊電荷領域FDで発生したkTCノイズをキャンセルすることが可能であることから、フォトダイオードPDで発生した電荷(信号)に対するkTCノイズの影響を少なくすることができる。
 以下に、図5及び図6を参照して、比較例に係る受光素子の動作と対比させて、本開示の実施形態に係る受光素子10の動作を説明する。図5は、比較例に係る受光素子の一部の等価回路図であり、また、図6は、本開示の実施形態に係る受光素子10の一部の等価回路図である。なお、ここで、比較例とは、本発明者らが本開示の実施形態をなす前に、検討を重ねていた受光素子のことを意味するものとする。
 まずは、kTCノイズについて簡単に説明する。kTCノイズとは、先に説明したように、電荷の熱的な揺らぎによって生じる雑音である。浮遊拡散領域FDにはこのようなkTCノイズ(電荷)が発生するが、グローバルシャッタ動作(全受光素子から一括して読み出す)のリセット動作において、浮遊拡散領域FDを理想的に完全空乏化することができれば、kTCノイズを予め排出することができる。しかしながら、浮遊拡散領域FDと配線とをオーミック接合するために、浮遊拡散領域FDのコンタクト部には高濃度の不純物を注入することから、リセット動作を行っても完全空乏化することができず、浮遊拡散領域FDからkTCノイズを完全に排出することが難しい。従って、浮遊電荷領域FDに、フォトダイオードPDで発生した電荷(信号)を転送した場合、kTCノイズが当該信号に重畳してしまうことを避けることが難しい。
 比較例に係る受光素子の等価回路を簡単に説明する。図5に示すように、比較例に係る受光素子は、フォトダイオードPDと、電荷排出トランジスタOFGとを有する。さらに、当該受光素子は、転送トランジスタTG、浮遊拡散領域FD、リセットトランジスタRSTを有する。より具体的には、電荷排出トランジスタOFGのソース/ドレインの一方は、フォトダイオードPDに電気的に接続され、電荷排出トランジスタOFGのソース/ドレインの他方は、電源回路(電源電位VDD)に電気的に接続されている。電荷排出トランジスタOFGは、自身のゲートに印加された電圧に応じて導通状態になり、フォトダイオードPDに蓄積された電荷を排出することができる。また、図5に示すように、転送トランジスタTGのソース/ドレインの一方は、フォトダイオードPDに電気的に接続され、転送トランジスタTGのソース/ドレインの他方は、浮遊拡散領域FDに電気的に接続されている。転送トランジスタTGは、自身のゲートに印加された電圧に応じて導通状態になり、フォトダイオードPDで生成された電荷を浮遊拡散領域FDに転送することができる。さらに、浮遊拡散領域FDは、蓄積した電荷をリセットするためのリセットトランジスタRSTのドレイン/ソースの一方に電気的に接続される。リセットトランジスタRSTは、自身のゲートに印加された電圧に応じて導通状態になり、浮遊拡散領域FDに蓄積された電荷を排出(リセット)することができる。
 まず、比較例に係る受光素子では、受光を開始する前に、フォトダイオードPDの電荷を排出する排出動作が行われる。すなわち、電荷排出トランジスタOFGがオンされ、フォトダイオードPDの電荷が電源回路(電源電位VDD)に排出される。このとき、浮遊拡散領域FDには、kTCノイズ(Nktc)が発生している。
 次に、受光が開始され、フォトダイオードPDに電荷(Nsig)(信号)が発生する。そして、転送トランジスタTGがオンすることにより、フォトダイオードPDの電荷が浮遊拡散領域FDに転送される。さらに、浮遊拡散領域FDに蓄積された電荷(Nsig、Nktc)を信号として読み出す。
 次に、浮遊拡散領域FDの電荷を排出する排出動作が行われる。すなわち、リセットトランジスタRSTがオンされ、浮遊拡散領域FDの電荷が電源回路(電源電位VDD)に排出される。さらに、新たに浮遊拡散領域FDで発生したkTCノイズ(Nktc)を読み出す。
 比較例においては、浮遊拡散領域FDに蓄積された電荷(NsigとNktc)から、新たに浮遊拡散領域FDに発生したkTCノイズ(Nktc)を差し引くことにより、受光することによりフォトダイオードPDで生成した電荷量(信号)を検出することができる。しかしながら、浮遊拡散領域FDに蓄積されたktcノイズ(Nktc)と、新たに浮遊拡散領域FDに発生したkTCノイズ(Nktc)とは、異なる電荷量であることから、上述のような差し引きではkTCノイズを厳密にキャンセルすることが難しい。その結果、比較例においては、完全にkTCノイズを除去した信号を得ることができないことから、高い測距精度を確保することが難しい。
 次に、本実施形態に係る受光素子10の動作を説明する。なお、図6に本開示の実施形態に係る受光素子10の一部の等価回路図を示すが、その詳細については、重複を避けるため、ここでは説明しない。
 まず、本実施形態に係る受光素子10でも、受光を開始する前に、フォトダイオードPDの電荷を排出する排出動作が行われる。すなわち、電荷排出トランジスタOFGがオンされ、フォトダイオードPDの電荷が電源回路(電源電位VDD)に排出される。このとき、浮遊拡散領域FDには、kTCノイズ(Nktc)が発生している。
 次に、受光が開始され、フォトダイオードPDの電荷(Nsig)が発生する。そして、振り分け転送トランジスタVGがオンすることにより、フォトダイオードPDの電荷(Nsig)が蓄積部MEMに転送される。
 次に、浮遊拡散領域FDのkTCノイズ(Nktc)を排出する排出動作が行われる。すなわち、リセットトランジスタRSTがオンされ、浮遊拡散領域FDのkTCノイズ(Nktc)が電源回路(電源電位VDD)に排出される。
 次に、浮遊拡散領域FDに発生したkTCノイズ(Nktc)を読み出す。
 そして、転送トランジスタTGがオンされ、蓄積部MEMに蓄積された電荷(Nsig)(信号)が浮遊拡散領域FDに転送される。そして、浮遊拡散領域FDに蓄積された電荷(Nsig、Nktc)を信号として読み出す。
 本実施形態においては、浮遊拡散領域FDに蓄積された電荷(Nsig、Nktc)から、浮遊拡散領域FDで発生したkTCノイズ(Nktc)を差し引くことにより、受光することによりフォトダイオードPDで生成した電荷量(信号)を検出することができる。すなわち、本実施形態においては、信号に含まれるkTCノイズの電荷量を把握することが可能であることから、kTCノイズをキャンセルすることが可能となる。その結果、本実施形態においては、kTCノイズを除去した信号を得ることができることから、高い測距精度を確保することが可能である。
 さらに、本発明者らが創作した本開示の実施形態においては、上記電荷蓄積部MEMをMOS(Metal-Oxide-Semiconductor)型容量で形成する。すなわち、本実施形態においては、電荷蓄積部MEMを、金属膜又はポリシリコン膜からなる電極と、酸化膜からなる絶縁膜と、半導体領域との積層からなるMOS型容量で形成する。本実施形態においては、上記積層の界面の面積を大きくすることにより、容易に蓄積部MEMの容量を大きくすることが可能である。従って、本実施形態によれば、より容量値を大きくし、広いダイナミックレンジを確保することができる。以下に、本発明者らが創作した本開示の実施形態の詳細を順次説明する。
 <<6. 第1の実施形態>>
 <6.1 平面構造>
 まずは、図7を参照して、本開示の第1の実施形態に係る受光素子10の平面構造例を説明する。図7は、本実施形態に係る受光素子10の平面構成例を示す説明図であって、半導体基板200の表面の上方から受光素子10を見た場合の図となる。なお、図7における左右方向は、図2Aの行方向(左右方向)に対応し、図7における上下方向は、図2Aの列方向(上下方向)に対応するものとする。
 図7に示すように、受光素子10の中央部のP型半導体基板200内には、N型半導体領域100が形成され、N型半導体領域100は、フォトダイオード(光電変換部)PDの一部を構成する。さらに、フォトダイオードPDの中心点(中心)Oを通過し、受光素子10を上下方向(列方向)に沿って延伸する中心線600に対して、線対称(略線対称)となるように、振り分けトランジスタVG1及びVG2のゲート電極150a、150bが配置されている。なお、振り分けトランジスタVG1及びVG2のゲート電極150a、150bは、N型半導体領域100の少なくとも一部と重なるように設けられている。
 詳細には、振り分けトランジスタVG1は、ゲート電極150aと、ゲート電極150aと半導体基板200との間に位置するゲート絶縁膜(図示省略)と、ソース領域としてのN型半導体領域100と、ドレイン領域としてのN型半導体領域102aとで構成される。ソース領域としてのN型半導体領域100は、フォトダイオードPDと兼用され、ドレイン領域としてのN型半導体領域102aは、電荷蓄積部MEM1と兼用されている。また、振り分けトランジスタVG2についても、振り分けトランジスタVG1と同様である。
 さらに、図7に示すように、フォトダイオードPDの中心点Oを通過し、受光素子10を左右方向(行方向)に沿って延伸する中心線602に対して、線対称(略線対称)となるように、電荷排出トランジスタOFG1及びOFG2のゲート電極152a、152bが配置されている。なお、電荷排出トランジスタOFG1及びOFG2のゲート電極152a、152bは、N型半導体領域100の少なくとも一部と重なるように設けられている。
 詳細には、電荷排出トランジスタOFG1は、ゲート電極152aと、ゲート電極152aと半導体基板200との間に位置するゲート絶縁膜(図示省略)と、ソース領域としてのN型半導体領域100と、ドレイン領域としてのN型半導体領域104aとで構成される。ソース領域としてのN型半導体領域100は、フォトダイオードPDと兼用される。また、電荷排出トランジスタOFG2についても、電荷排出トランジスタOFG1と同様である。
 加えて、中心線600を基準として鏡面対称となるように、且つ、N型半導体領域102及び振り分けトランジスタVG1、VG2を両側から挟み込みように、電荷蓄積部MEM1、MEM2と、転送トランジスタTG1、TG2とが設けられている。なお、電荷蓄積部MEM1は、転送トランジスタTG1と図7中の上下方向(列方向)に沿って隣り合うように並び、電荷蓄積部MEM2は、転送トランジスタTG2と図7中の上下方向(列方向)に沿って隣り合うように並ぶ。
 詳細には、電荷蓄積部MEM1は、例えば、電極154aと、電極154aの下方に設けられた絶縁膜(図示省略)と、当該絶縁膜の下方に設けられたN型半導体領域102aとからなるが、その詳細構造については後述する。また、転送トランジスタTG1は、ゲート電極156aと、ゲート電極156aと半導体基板200との間に位置するゲート絶縁膜(図示省略)と、ソース領域としてのN型半導体領域106aと、ドレイン領域としてのN型半導体領域108aとで構成される。また、電荷蓄積部MEM2及び転送トランジスタTG2についても、電荷蓄積部MEM1及び転送トランジスタTG1と同様である。
 さらに、中心線602を基準として鏡面対称となるように、且つ、N型半導体領域102及び電荷排出トランジスタOFG1、OFG2を両側から挟み込みように、リセットトランジスタRST1、RST2、増幅トランジスタAMP1、AMP2、及び、選択トランジスタSEL1、SEL2が配置されている。なお、リセットトランジスタRST1、増幅トランジスタAMP1及び選択トランジスタSEL1は、図7中の左右方向(行方向)に沿って隣り合うように並び、リセットトランジスタRST2、増幅トランジスタAMP2及び選択トランジスタSEL2も、図7中の左右方向(行方向)に沿って隣り合うように並ぶ。
 詳細には、リセットトランジスタRST1は、ゲート電極158aと、ゲート電極158aと半導体基板200との間に位置するゲート絶縁膜(図示省略)と、ソース領域としてのN型半導体領域110aと、ドレイン領域としてのN型半導体領域112aとで構成される。ソース領域としてのN型半導体領域110aは、浮遊拡散領域FD1と兼用され、ドレイン領域としてのN型半導体領域112aは、増幅トランジスタAMP1と兼用されている。また、リセットトランジスタRST2についても、リセットトランジスタRST1と同様である。
 また、増幅トランジスタAMP1は、ゲート電極160aと、ゲート電極160aと半導体基板200との間に位置するゲート絶縁膜(図示省略)と、ドレイン領域としてのN型半導体領域112aと、ソース領域としてのN型半導体領域114aとで構成される。ドレイン領域としてのN型半導体領域112aは、リセットトランジスタRST1のドレイン領域と兼用されている。また、増幅トランジスタAMP2についても、増幅トランジスタAMP1と同様である。
 さらに、選択トランジスタSEL1は、ゲート電極162aと、ゲート電極162aと半導体基板200との間に位置するゲート絶縁膜(図示省略)と、ドレイン領域としてのN型半導体領域114aと、ソース領域としてのN型半導体領域116aとで構成される。ドレイン領域としてのN型半導体領域114aは、増幅トランジスタAMP1のソース領域と兼用されている。また、選択トランジスタSEL2についても、選択トランジスタSEL1と同様である。
 なお、本実施形態に係る受光素子10の平面構造は、図7に示される例に限定されるものではなく、例えば、他の素子等を含んでもよく、特に限定されるものではない。
 <6.2 断面構造>
 次に、図8を参照して、本開示の第1の実施形態に係る受光素子10の断面構造例を説明する。図8は、図7のA―A´線に沿って受光素子10を切断した際の断面図であり、詳細には、図8中の上側が半導体基板200の裏面側となり、図8中の下側が半導体基板200の表面側となる。
 まずは、図8に示すように、受光素子10は、シリコン基板等からなる半導体基板200を有する。詳細には、P型の半導体基板200内には、N型半導体領域100a、100bを形成されることにより、半導体基板200内にフォトダイオードPDが形成される。
 次に、図8中の上側、すなわち、半導体基板200の裏面側から説明する。半導体基板200の裏面の上方には、対象物800からの反射光が入射される、スチレン系樹脂、アクリル系樹脂、スチレンーアクリル共重合系樹脂、またはシロキサン系樹脂等からなるオンチップレンズ208が設けられている。オンチップレンズ208の下方には、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)、酸窒化シリコン(SiON)等からなる平坦化膜204が設けられている。さらに、平坦化膜204の下方には、絶縁膜からなる反射防止膜202が設けられている。例えば、反射防止膜202は、酸化ハフニウム(HfO)、酸化アルミニウム(Al)、酸化チタン(TiO)、酸化シリコン等、もしくは、これらの積層から形成することができる。
 反射防止膜202の上方であって、隣接する受光素子10との境界領域には、対象物800からの反射光が隣接する受光素子10への入射を防止する遮光膜206が設けられている。遮光膜206は、光を遮るような材料からなり、例えば、タングステン(W)、アルミニウム(Al)、銅(Cu)等の金属材料を用いて形成することができる。
 さらに、遮光膜206の下方には、半導体基板200を貫通し、隣接する受光素子10へと入射光が入り込むことを防止するための画素分離部(第1の画素分離部)210(FFTI)が設けられている。当該画素分離部210は、例えば、半導体基板200の裏面から表面まで貫通するトレンチと、当該トレンチに埋め込まれた酸化シリコン等の絶縁膜又はアルミニウム等の金属膜とからなる。
 次に、図8中の下側、すなわち、半導体基板200の表面側を説明する。N型半導体領域100bを挟むようにして、縦型トランジスタである2つの振り分けトランジスタVG1、VG2が形成されている。詳細には、振り分けトランジスタVG1、VG2は、半導体基板200の表面上に設けられた、例えばポリシリコン膜からなるゲート電極150a、150bをそれぞれ有する。
 さらに、振り分けトランジスタVG1、VG2を左右方向から挟み込むようにして、半導体基板200内に電荷蓄積部MEM1、MEM2が設けられている。例えば、電荷蓄積部MEM1、MEM2は、金属膜又はポリシリコン膜からなる電極154a、154bと、酸化膜からなる絶縁膜(図示省略)と、N型半導体領域102a、102b(図8中では、MEM1、MEM2として示されている)との積層からなるMOS(Metal-Oxide-Semiconductor)型容量であることができる。当該電荷蓄積部MEM1、MEM2の詳細については後述する。
 そして、電荷蓄積部MEM1、MEM2に隣接して、転送トランジスタTG1、TG2のゲート電極156a、156bが、半導体基板200の表面上に設けられている。さらに、転送トランジスタTG1、TG2のゲート電極156a、156bに近接した半導体基板200内に、浮遊拡散領域FD1、FD2として図示されているN型半導体領域110a、110bが形成されている。
 さらに、半導体基板200の表面上には、配線層300が設けられている。配線層300は、絶縁膜302と金属膜304とを含む。さらに、配線層300の、半導体基板200と反対側の面上には、電極306が設けられている。
 加えて、配線層300の、半導体基板200と反対側の面上には、基板400が設けられている。基板400も、絶縁膜402と金属膜404とを含み、配線層300側の面上には、電極406が設けられている。例えば、配線層300の電極306と、基板400の電極406とは、銅(Cu)等で形成され、互いに接することで、配線層300と基板400とを接合することができる。
 なお、本実施形態に係る受光素子10の断面構造は、図8に示される例に限定されるものではなく、例えば、他の素子等を含んでもよく、特に限定されるものではない。
 次に、図9及び図10を参照して、本実施形態に係る電荷蓄積部MEMの詳細を説明する。図9は、本実施形態に係る電荷蓄積部MEMの断面構成例を示す説明図であり、図8の断面図に対応する。また、図10は、図9の電荷蓄積部MEMのエネルギーバンド図である。なお、図9においては、図9中の上側が半導体基板200の表面側となり、図9中の下側が半導体基板200の裏面側となる。
 図9に示すように、本実施形態に係る電荷蓄積部MEMは、半導体基板(半導体層)200に積層された絶縁層170及び電極154からなる。電極154は、各種の金属膜又はポリシリコン膜からなり、絶縁層170は、酸化シリコン膜等の酸化膜からなる。当該電荷蓄積部MEMは、電極に正電圧(オン電圧)を印加することにより、図10に示すように、電極(金属膜又はポリシリコン膜)154及び絶縁層170の直下に位置する半導体基板(半導体層)200の最表面に空乏層(反転領域)が生成される。そして、この生成された空乏層に電荷が転送されることのより、電荷が電極154に引き寄せられて蓄積される。本実施形態においては、電極154の面積(半導体基板に接する面積)を大きくすることにより、容易に電荷蓄積部MEMの容量を大きくすることができる。
 さらに、本実施形態においては、絶縁層170の膜厚を薄くしたり、高い比誘電率を持つ材料(酸化ハフニウム(HfO)を用いて絶縁層170を形成したりすることにより、電荷蓄積部MEMの容量をより大きくすることができる。
 また、図9に示すような電荷蓄積部MEMでは、電荷が半導体基板200の最表面を移動するため、表面に生じる欠陥(例えばダングリングボンド)に電荷が捕捉され、消滅してしまう、もしくは、浮遊拡散領域FDへの電荷の転送が遅くなってしまう恐れがある。そこで、本実施形態においては、このような電荷の捕捉等を避けるべく、電荷を半導体基板200の深い領域に蓄積することが可能な電荷蓄積部MEMの構造を採用してもよい。以下に、図11及び図12を参照して、このような電荷蓄積部MEMの詳細を説明する。図11は、本実施形態に係る電荷蓄積部MEMの他の断面構成例を示す説明図であり、図12は、図11の電荷蓄積部MEMのエネルギーバンド図である。なお、図11においては、図11中の上側が半導体基板200の表面側となり、図9中の下側が半導体基板200の裏面側となる。
 図11に示すように、本実施形態に係る電荷蓄積部MEMは、半導体基板(半導体層)200に積層された絶縁層170及び電極154からなる。さらに、当該電荷蓄積部MEMは、絶縁層170と半導体基板200との間に、半導体基板200に埋め込まれた埋込層172を有する。例えば、半導体基板200がP型の半導体基板である場合には、埋込層172は、N型の不純物を導入したN型半導体領域であるものとする。
 当該電荷蓄積部MEMは、電極に例えば負電圧(オフ電圧)を印加することにより、図12に示すように、半導体基板200内に埋め込まれた埋込層172に空乏層(チャネル領域)が生成される。そして、この生成された空乏層に電荷が蓄積される。なお、空乏層の生成される深さは、半導体基板200及び埋込層172の不純物濃度、埋込層172の厚さ、絶縁層170の厚さ等を適宜選択することにより調整することができる。このようにすることで、本実施形態においては、電荷が最表面の欠陥等に捕捉されることを避けることができ、電荷の移動度を高めることができる。
 以上のように、本実施形態によれば、広いダイナミックレンジを確保しつつ、kTCノイズの影響を少なくすることができる、受光素子10を提供することができる。
 <6.3 変形例>
 なお、上述した本開示の実施形態に係る受光素子10は、以下のように変形することもできる。以下に、本実施形態の変形例1から変形例5を説明する。以下に説明する変形例1から変形例5に係る受光素子10は、いずれも、MOS容量からなる電荷蓄積部MEM1、MEM2を有する。
 (変形例1)
 まずは、変形例1を、図13及び図14を参照して説明する。図13は、本実施形態の変形例1に係る受光素子10の断面構成例を示す説明図であり、図14は、図13の領域Cの拡大図である。本変形例においては、MOS容量からなる電荷蓄積部MEM1、MEM2を有するが、上述した本実施形態と異なり、図13に示すように、半導体基板200に埋め込まれた縦型の電極154を有する。詳細には、図14に示すように、半導体基板200に形成されたトレンチ174に埋め込まれた絶縁層170と、絶縁層170に埋め込まれた縦型状の埋込電極部178を有する。本変形例によれば、電荷蓄積部MEM1、MEM2が縦型の電極154を持つことから、当該縦型の電極154と、当該電極154に対向する半導体基板(詳細には、N型半導体領域102a、102b)200とにはさまれた絶縁層170の面積を広くすることができる。その結果、本変形例によれば、面積が広くなることから、電荷蓄積部MEM1、MEM2の容量をさらに大きくすることができ、ひいては、広い受光素子10のダイナミックレンジを確保することが可能となる。
 (変形例2)
 次に、変形例2を、図15を参照して説明する。図15は、本実施形態の変形例2に係る受光素子10の断面構成例を示す説明図である。本変形例においても、受光素子10は、MOS容量からなる電荷蓄積部MEM1、MEM2を有する。さらに、本変形例においては、図15に示すように、受光素子10は、半導体基板200の、裏面(表面と反対側の面)に設けられた、微細な凹凸が形成されたモスアイ構造202aを有する。詳細には、モスアイ構造202aは、図15に示すように、半導体基板200側に頂点を有する複数の略四角錐がマトリクス状にならぶことにより構成される。本変形例においては、モスアイ構造202aを設けることにより、界面における急激な屈折率の変化を緩和し、反射を防止することができる。
 (変形例3)
 次に、変形例3を、図16を参照して説明する。図16は、本実施形態の変形例3に係る受光素子10の断面構成例を示す説明図である。本変形例においても、受光素子10は、MOS容量からなる電荷蓄積部MEM1、MEM2を有する。さらに、本変形例においては、図16に示すように、振り分けトランジスタVG1、VG2のゲート電極150a、150bは、半導体基板200に埋め込まれた埋込ゲート部170a、170bを有する。本変形例によれば、このようにすることで、フォトダイオードPDで生成された電荷をより効率的に電荷蓄積部MEM1、MEM2に転送することができる。
 (変形例4)
 次に、変形例4を、図17を参照して説明する。図17は、本実施形態の変形例4に係る受光素子10の断面構成例を示す説明図である。本変形例においても、受光素子10は、MOS容量からなる電荷蓄積部MEM1、MEM2を有する。さらに、本変形例においては、図17に示すように、受光素子10は、半導体基板200の厚み方向に沿って、半導体基板200の裏面(表面と反対側の面)から、半導体基板200の途中まで貫く、画素分離部(第2の画素分離部)210a(DTI(Deep Trench Isolation)を有する。当該画素分離部210aによれば、隣接する受光素子10へと入射光が入り込むことを防止することができる。
 (変形例5)
 次に、変形例5を、図18を参照して説明する。図18は、本実施形態の変形例5に係る受光素子10の断面構成例を示す説明図である。本変形例においては、図18に示すように、受光素子10は、複数の、詳細には、4つの振り分けトランジスタVGを有してもよい。本変形例においても、受光素子10は、MOS容量からなる電荷蓄積部(第3の電荷蓄積部)MEM1、MEM2、MEM3、MEM4を有する。
 <<7. 第2の実施形態>>
 また、上述の第1の実施形態及びその変形例においては、電荷蓄積部MEM1、MEM2の絶縁膜(図示省略)や、増幅トランジスタAMP1、AMP2のゲート絶縁膜(図示省略)等を薄膜化してもよい。このようにすることで、サイズを大きくすることなく、電荷蓄積部MEM1、MEM2の容量を増加させることができる。さらに、ゲート絶縁膜内の結晶欠陥が少なくなったり、トランジスタの相互コンダクタンスgmが大きくなることにより結晶欠陥の影響が小さくなったり、熱処理時間短縮や熱処理温度の低温化により界面準位が少なくなることから、増幅トランジスタAMP1、AMP2のランダムノイズを低減することができる。
 ここで、図19、図20A、及び図20Bを参照して、薄膜化された絶縁膜を有する電荷蓄積部MEM1、MEM2及び増幅トランジスタAMP1、AMP2についての、本開示の第3の実施形態を説明する。なお、図19は、本実施形態に係る受光素子10の平面構成例を示す説明図であって、半導体基板200の表面の上方から受光素子10を見た場合の図となり、第1の実施形態の受光素子10と同様である。また、図20Aは、図19のC―C´線に沿って受光素子10を切断した際の断面図であり、図20Bは、図19のD-D´線に沿って受光素子10を切断した際の断面図である。詳細には、図20A及び図20Bにおいては、図中の上側が半導体基板200の表面側となり、図中の下側が半導体基板200の裏面側となる。
 詳細には、本実施形態においては、例えば、図20Aに示すように、増幅トランジスタAMP1の、サイドウォール730に覆われたゲート電極160の下方に位置する絶縁膜720aは、例えば酸化膜(第3の酸化膜)からなり、その膜厚は、リセットトランジスタRST1のゲート電極158及び選択トランジスタSEL1のゲート電極162の下方に位置する、酸化膜(第3の酸化膜)からなる絶縁膜720に比べて薄い。
 また、本実施形態においては、例えば、図20Bに示すように、電荷蓄積部MEM1の、サイドウォール730に覆われた電極154の下方に位置する絶縁膜(絶縁層)720aは、例えば酸化膜(第1の酸化膜)からなり、その膜厚は、転送トランジスタTG1のゲート電極156の下方に位置する、酸化膜(第2の酸化膜)からなる絶縁膜720に比べて薄い。
 なお、本実施形態においては、増幅トランジスタAMP1のゲート電極160の下方に位置する絶縁膜720a及び電荷蓄積部MEM1の電極154の下方に位置する絶縁膜720aは、同一材料からなる酸化膜であってもよく、また、略同一の膜厚をもっていてもよい。
 より具体的には、本実施形態においては、増幅トランジスタAMP1のゲート電極160の下方に位置する絶縁膜720a及び電荷蓄積部MEM1の電極154の下方に位置する絶縁膜720aは、酸化シリコン(SiO)、窒化シリコン(SiN)等の酸化膜からなる。また、本実施形態においては、増幅トランジスタAMP1のゲート電極160の下方に位置する絶縁膜720a及び電荷蓄積部MEM1の電極154の下方に位置する絶縁膜720aの膜厚は、薄くなることによる、ランダムノイズの低減効果、及び、リーク電流の増加による消費電力の増加を鑑みて、他の素子(転送トランジスタTG、リセットトランジスタRST及び選択トランジスタSEL)のゲート電極156、158、162の下方に位置する絶縁膜720の膜厚の半分程度であることが好ましく、例えば、1.0nm以上、5.0nm以下であることがより好ましい。
 さらに、本実施形態においては、増幅トランジスタAMP1のゲート電極160の下方に位置する絶縁膜720a及び電荷蓄積部MEM1の電極154の下方に位置する絶縁膜720aは、半導体基板200の上方から見た場合、隣接する素子を干渉しない程度に、ゲート電極160及び電極154に比べて広くなっていることが好ましい。
 なお、本実施形態においては、電荷蓄積部MEM1、MEM2の絶縁膜720aや、増幅トランジスタAMP1、AMP2のゲート絶縁膜720aのみを薄膜化することに限定されるものではない。本実施形態においては、電荷蓄積部MEM1、MEM2の絶縁膜720aのみを薄膜化してもよく、受光素子10上の素子(電荷蓄積部MEM、転送トランジスタTG、振り分けトランジスタVG、電荷排出トランジスタOFG、増幅トランジスタAMP、リセットトランジスタRST及び選択トランジスタSEL)のゲート電極150、152、154、156、158、160、162及び電極154に接する絶縁膜720を薄膜化してもよい。
 以上のように、本実施形態によれば、電荷蓄積部MEMの絶縁膜720aや、増幅トランジスタAMPのゲート絶縁膜720a等を薄膜化することにより、サイズを大きくすることなく、電荷蓄積部MEMの容量を増加させ、トランジスタのランダムノイズを低減することができる。従って、本実施形態によれば、上述した第1の実施形態に係る構成と組み合わせることで、より広いダイナミックレンジを確保しつつ、kTCノイズの影響をより少なくすることができる、受光素子10及び測距モジュール1を提供することができる。なお、本実施形態は、上述した第1の実施形態及びその変形例と組み合わせて実施することができる。
 <<8. 第3の実施形態>>
 ところで、上述の第2の実施形態においては、電荷蓄積部MEMの絶縁膜720aや、増幅トランジスタAMPのゲート絶縁膜720a等を薄膜化し、電荷蓄積部MEMの容量を増加させ、増幅トランジスタAMPのランダムノイズを低減していた。しかしながら、ゲート絶縁膜720aの薄膜化を進めた場合、上述のような効果を得られるものの、リーク電流が増加してしまうため、薄膜化にも限界がある。そこで、本発明者らは、同じ膜厚であっても、上述の酸化膜に比べて、電荷蓄積部MEMの容量を増加させることができる高い比誘電率を持つ高誘電体膜を上記絶縁膜720aの代わりに使用することを着想した。上記絶縁膜720aとして高誘電体膜を使用することにより、膜厚を薄くしても、リーク電流の増加を避けつつ、電荷蓄積部MEMの容量の増加や、増幅トランジスタAMPのランダムノイズの低減を両立することができる。
 ここで、図21、図22A、及び図22Bを参照して、高誘電体膜からなる絶縁膜を有する電荷蓄積部MEM1、MEM2及び増幅トランジスタAMP1、AMP2についての、本開示の第4の実施形態を説明する。なお、図21は、本実施形態に係る受光素子10の平面構成例を示す説明図であって、半導体基板200の表面の上方から受光素子10を見た場合の図となり、第1の実施形態の受光素子10と同様である。また、図22Aは、図24のE―E´線に沿って受光素子10を切断した際の断面図であり、図22Bは、図24のF-F´線に沿って受光素子10を切断した際の断面図である。詳細には、図22A及び図22Bにおいては、図中の上側が半導体基板200の表面側となり、図中の下側が半導体基板200の裏面側となる。
 詳細には、本実施形態においては、例えば、図22Aに示すように、増幅トランジスタAMP1の、サイドウォール730に覆われたゲート電極160の下方に位置する絶縁膜(第3の絶縁層)740は、高誘電体膜からなる。そして、絶縁膜740の比誘電率は、リセットトランジスタRST1のゲート電極158及び選択トランジスタSEL1のゲート電極162の下方に位置する絶縁膜(第3の絶縁層)720に比べて高い。
 また、本実施形態においては、例えば、図22Bに示すように、電荷蓄積部MEM1の、サイドウォール730に覆われた電極154の下方に位置する絶縁膜(第1の絶縁層)740は、高誘電体膜からなる。絶縁膜740の比誘電率は、転送トランジスタTG1のゲート電極156の下方に位置する絶縁膜(第2の絶縁層)720に比べて高い。
 なお、本実施形態においては、増幅トランジスタAMP1のゲート電極160の下方に位置する絶縁膜740及び電荷蓄積部MEM1の電極154の下方に位置する絶縁膜740は、同一材料から形成されてもよい。
 より具体的には、本実施形態においては、高誘電体膜は、酸化シリコン(SiO)の比誘電率(3.9)に比べて高い比誘電率を持つ材料であり、4以上の比誘電率を持つ材料であることが好ましい。本実施形態においては、例えば、高誘電体膜は、金属酸化膜であって、Al、HfSiON、Y、Ta、La、TiO、HfO、ZrO、HfZrO等の材料から形成することができる。
 絶縁膜740として、上記高誘電体膜を使用する場合には、Vth(閾値電圧)の調整のため、ゲート電極150、152、154、156、158、160、162を形成する材料として、TiN、TaN、NiSi等の金属材料を使用してもよい。
 さらに、本実施形態においては、増幅トランジスタAMP1のゲート電極160の下方に位置する絶縁膜740及び電荷蓄積部MEM1の電極154の下方に位置する絶縁膜740は、半導体基板200の上方から見た場合、隣接する素子を干渉しない程度に、ゲート電極160及び電極154に比べて広くなっていることが好ましい。
 なお、本実施形態においては、電荷蓄積部MEM1、MEM2の絶縁膜740や、増幅トランジスタAMP1、AMP2のゲート絶縁膜740のみを高誘電体膜で形成することに限定されるものではない。本実施形態においては、電荷蓄積部MEM1、MEM2の絶縁膜740のみを高誘電体膜で形成してもよく、受光素子10上の素子(電荷蓄積部MEM、転送トランジスタTG、振り分けトランジスタVG、電荷排出トランジスタOFG、増幅トランジスタAMP、リセットトランジスタRST及び選択トランジスタSEL)のゲート電極150、152、154、156、158、160、162及び電極154に接する絶縁膜720を高誘電体膜によって形成してもよい。
 以上のように、本実施形態によれば、電荷蓄積部MEMの絶縁膜740や、増幅トランジスタAMPのゲート絶縁膜740等を高誘電体膜で形成することにより、SiOを使用した場合と比べて膜厚を薄くすることなく、電荷蓄積部MEMの容量の増加や、増幅トランジスタAMPのランダムノイズの低減を両立することができる。従って、本実施形態によれば、上述した第1の実施形態に係る構成と組み合わせることで、より広いダイナミックレンジを確保しつつ、kTCノイズの影響をより少なくすることができる、受光素子10及び測距モジュール1を提供することができる。なお、本実施形態は、上述した第1の実施形態及びその変形例と組み合わせて実施することができる。
 <<9. まとめ>>
 以上のように、本開示の実施形態及び変形例によれば、広いダイナミックレンジを確保しつつ、kTCノイズの影響を少なくすることができる、受光素子10及び測距モジュール1を提供することができる。
 以上、実施の形態およびその変形例、適用例ならびに応用例を挙げて本開示を説明したが、本開示は上記実施の形態等に限定されるものではなく、種々変形が可能である。なお、本明細書中に記載された効果は、あくまで例示である。本開示の効果は、本明細書中に記載された効果に限定されるものではない。本開示が、本明細書中に記載された効果以外の効果を持っていてもよい。
 なお、上述した本開示の実施形態及び変形例においては、上述した各半導体領域の導電型を逆にしてもよく、例えば、本実施形態及び変形例は、電子の代わりに、正孔を電荷として用いる素子に適用することが可能である。
 また、上述した本開示の実施形態及び変形例においては、半導体基板は、必ずしもシリコン基板でなくてもよく、他の基板(例えば、SOI(Silicon ON Insulator)基板やSiGe基板等)であってもよい。また、上記半導体基板は、このような種々の基板上に半導体構造等が形成されたものであってもよい。
 また、上述した本開示の実施形態及び変形例においては、受光素子10は、1つのチップ上に、照射部や処理回路等とともに形成されてもよく、もしくは、1つのパッケージ内に設けられてもよく、特に限定されるものではない。
 なお、本開示の実施形態及び変形例においては、上述の各層、各膜、各素子等を形成する方法としては、例えば、物理気相成長法(PVD(Physical Vapor Deposition)法)及びCVD(Chemical Vapor Deposition)法等を挙げることができる。PVD法としては、抵抗加熱あるいは高周波加熱を用いた真空蒸着法、EB(電子ビーム)蒸着法、各種スパッタリング法(マグネトロンスパッタリング法、RF(Radio Frequency)-DC(Direct Current)結合形バイアススパッタリング法、ECR(Electron Cyclotron Resonance)スパッタリング法、対向ターゲットスパッタリング法、高周波スパッタリング法等)、イオンプレーティング法、レーザーアブレーション法、分子線エピタキシー(Molecular Beam Epitaxy;MBE)法、レーザ転写法等を挙げることができる。また、CVD法としては、プラズマCVD法、熱CVD法、MO(Metal Organic)CVD法、光CVD法等を挙げることができる。さらに、他の方法としては、電解メッキ法や無電解メッキ法、スピンコート法;浸漬法;キャスト法;マイクロコンタクトプリント法;ドロップキャスト法;スクリーン印刷法やインクジェット印刷法、オフセット印刷法、グラビア印刷法、フレキソ印刷法といった各種印刷法;スタンプ法;スプレー法;エアドクタコーター法、ブレードコーター法、ロッドコーター法、ナイフコーター法、スクイズコーター法、リバースロールコーター法、トランスファーロールコーター法、グラビアコーター法、キスコーター法、キャストコーター法、スプレーコーター法、スリットオリフィスコーター法、カレンダーコーター法といった各種コーティング法を挙げることができる。また、各層のパターニング法としては、シャドーマスク、レーザ転写、フォトリソグラフィー等の化学的エッチング、紫外線やレーザ等による物理的エッチング等を挙げることができる。加えて、平坦化技術としては、CMP(Chemical Mechanical Polishing)法、レーザ平坦化法、リフロー法等を挙げることができる。すなわち、本開示の実施形態及び変形例に係る素子は、既存の半導体装置の製造工程を用いて、容易に、且つ、安価に製造することが可能である。
 <<10. 電子機器の構成例>>
 なお、受光素子10は、上述したように測距モジュール1に適用できる他、例えば、測距機能を備えるカメラ、測距機能を備えたスマートフォンといった各種の電子機器に適用することができる。そこで、図23を参照して、本技術を適用した電子機器としての、スマートフォン900の構成例について説明する。図23は、本開示の実施形態に係る測距モジュール1を適用した電子機器としてのスマートフォン900の構成例を示すブロック図である。
 図23に示すように、スマートフォン900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、及びRAM(Random Access Memory)903を含む。また、スマートフォン900は、ストレージ装置904、通信モジュール905、及びセンサモジュール907を含む。さらに、スマートフォン900は、上述した測距モジュール1が適用され得る測距モジュール908を含み、加えて、撮像装置909、表示装置910、スピーカ911、マイクロフォン912、入力装置913、及びバス914を含む。また、スマートフォン900は、CPU901に代えて、又はこれとともに、DSP(Digital Signal Processor)等の処理回路を有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、又はストレージ装置904等に記録された各種プログラムに従って、スマートフォン900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。CPU901、ROM902、及びRAM903は、バス914により相互に接続されている。また、ストレージ装置904は、スマートフォン900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置904は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス等により構成される。このストレージ装置904は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種のデータ等を格納する。
 通信モジュール905は、例えば、通信ネットワーク906に接続するための通信デバイスなどで構成された通信インタフェースである。通信モジュール905は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、WUSB(Wireless USB)用の通信カード等であり得る。また、通信モジュール905は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。通信モジュール905は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号等を送受信する。また、通信モジュール905に接続される通信ネットワーク906は、有線又は無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信又は衛星通信等である。
 センサモジュール907は、例えば、モーションセンサ(例えば、加速度センサ、ジャイロセンサ、地磁気センサ等)、生体情報センサ(例えば、脈拍センサ、血圧センサ、指紋センサ等)、又は位置センサ(例えば、GNSS(Global Navigation Satellite System)受信機等)等の各種のセンサを含む。
 測距モジュール908は、スマートフォン900の表面に設けられ、例えば、当該表面と向かい合う、ユーザの指先、手のひら、顔等の凹凸形状や動きを測距結果として取得することができる。このような測距結果は、ユーザの認証や、ユーザのジェスチャの認識に用いることができる。また、測距モジュール908は、例えば、スマートフォン900から対象物800までの距離を取得したり、対象物800の表面の3次元形状データを取得したりすることもできる。
 撮像装置909は、スマートフォン900の表面に設けられ、スマートフォン900の周囲に位置する対象物800等を撮像することができる。詳細には、撮像装置909は、CMOS(Complementary MOS)イメージセンサ等の撮像素子(図示省略)と、撮像素子で光電変換された信号に対して撮像信号処理を施す信号処理回路(図示省略)とを含んで構成することができる。さらに、撮像装置909は、撮像レンズ、絞り機構、ズームレンズ、及びフォーカスレンズ等により構成される光学系機構(図示省略)及び、上記光学系機構の動作を制御する駆動系機構(図示省略)をさらに有することができる。そして、上記撮像素子は、対象物800からの入射光を光学像として集光し、上記信号処理回路は、結像された光学像を画素単位で光電変換し、各画素の信号を撮像信号として読み出し、画像処理することにより撮像画像を取得することができる。
 表示装置910は、スマートフォン900の表面に設けられ、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等の表示装置であることができる。表示装置910は、操作画面や、上述した撮像装置909が取得した撮像画像などを表示することができる。
 スピーカ911は、例えば、通話音声や、上述した表示装置910が表示する営巣コンテンツに付随する音声等を、ユーザに向けて出力することができる。
 マイクロフォン912は、例えば、ユーザの通話音声、スマートフォン900の機能を起動するコマンドを含む音声や、スマートフォン900の周囲環境の音声を集音することができる。
 入力装置913は、例えば、ボタン、キーボード、タッチパネル、マウス等、ユーザによって操作される装置である。入力装置913は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置913を操作することによって、スマートフォン900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 以上、スマートフォン900の構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
 <<11. 内視鏡手術システムへの応用例>>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図24は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図24では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。さらに、鏡筒11101の先端には、本開示の実施形態に係る測距モジュール1の照射部20及び受光部30が内蔵されてもよい。このような測距モジュール1の一部が搭載されることにより、医者の目視による手術だけでなく、測距モジュール1による距離情報を参照することにより、手術の精度をより高めることができる。
 例えば、内視鏡11100の構成の一例を示す図25の構成のように、カメラヘッド11102内には、本開示の実施形態に係る測距モジュール1の照射部20及び受光部30であるiToFセンサ15004が設けられる。詳細には、観察対象からの反射光(観察光)は、鏡筒11101を通過して、カメラヘッド11102内のレンズ15001によって集光され、ハーフミラー15002で反射され、iToFセンサ15004で受光される。さらに、当該iToFセンサ15004によって観察光が光電変換され、観察光に対応する電気信号が生成され、メモリ15005に格納された後、後述する測距信号処理装置11209に送信される。
 さらに、図25に示すように、カメラヘッド11102の内部には撮像素子15003が設けられており、観察対象からの反射光(観察光)は、鏡筒11101を通過して、レンズ15001によって集光され、ハーフミラー15002で反射され、当該撮像素子15003で受光される。当該撮像素子15003によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、一度メモリ15005に格納された後、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。測距信号処理装置11209は、本開示の実施形態に係る測距モジュール1の制御部40及び処理部60が設けられ、距離情報を取得することが可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図26は、図24に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。具体的には、受光素子10を、撮像部11402の構成の一部として適用することができる。撮像部11402の構成の一部として本開示に係る技術を適用することにより、術部までの距離を高精度に測定することができ、より鮮明な術部画像を得ることができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <<12. 移動体への応用例>>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図27は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図27に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。また、車外情報検出ユニット12030には、iToFセンサ12032が接続される。iToFセンサ12032は、本開示の実施形態に係る測距モジュール1として機能することができる。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検出した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図27の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図28は、撮像部12031の設置位置の例を示す図である。
 図28では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。また、本開示の実施形態に係る測距モジュール1の照射部20及び受光部30が内蔵されるiToFセンサモジュール12201は、例えば、車両12100のフロントノーズに設けられる。
 なお、図24には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、車外情報検出ユニット12030や撮像部12031に適用され得る。具体的には、受光素子10または測距モジュール1を、車外情報検出ユニット12030や撮像部12031の距離検出処理ブロックに適用することができる。車外情報検出ユニット12030や撮像部12031に、本開示に係る技術を適用することにより、人、車、障害物、標識又は路面上の文字等の物体までの距離を高精度に測定することができ、得られた距離情報を用いて、ドライバの疲労を軽減したり、ドライバや車両の安全度を高めることが可能になる。
 <<13. 補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 半導体基板内に設けられ、光を電荷に変換する光電変換部と、
 前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、
 前記光電変換部から前記電荷が転送される第2の電荷蓄積部と、
 を備え、
 前記第1及び第2の電荷蓄積部のそれぞれは、電極、第1の絶縁層、及び半導体層の積層からなる、
 受光素子。
(2)
 前記第1及び前記第2の電荷蓄積部のそれぞれは、前記電極に第1の電圧を印加することにより、前記第1の絶縁層の直下に位置する前記半導体層の最表面に生じる反転領域に、前記電荷を蓄積する、
 上記(1)に記載の受光素子。
(3)
 前記積層は、前記第1の絶縁層と前記半導体層との間に、前記半導体層に埋め込まれた埋込層をさらに有する、
 上記(1)に記載の受光素子。
(4)
 前記半導体層は、第1の導電型の半導体層であり、
 前記埋込層は、前記第1の導電型とは反対の導電型である第2の導電型の半導体層である、
 上記(3)に記載の受光素子。
(5)
 前記第1及び前記第2の電荷蓄積部のそれぞれは、前記電極に第2の電圧を印加することにより、前記半導体層内に生じるチャネル領域に前記電荷を蓄積する、
 上記(3)又は(4)に記載の受光素子。
(6)
 半導体基板内に設けられ、光を電荷に変換する光電変換部と、
 前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、
 前記光電変換部から前記電荷が転送される第2の電荷蓄積部と、
 を備え、
 前記第1及び第2の電荷蓄積部のそれぞれは、
 半導体層と、
 前記半導体層に形成されたトレンチに埋め込まれた絶縁層と、
 前記絶縁層に埋め込まれた縦型電極と、
 を有する、
 受光素子。
(7)
 前記電極は、金属膜からなり、
 前記第1の絶縁層は、酸化膜からなる、
 上記(1)~(5)のいずれか1つに記載の受光素子。
(8)
 前記酸化膜の膜厚は、5.0nm以下である、
 上記(7)に記載の受光素子。
(9)
 前記第1の絶縁層の比誘電率は、4以上である、
 上記(1)~(5)のいずれか1つに記載の受光素子。
(10)
 前記光電変換部から前記第1の電荷蓄積部へ前記電荷を振り分ける第1の振り分けトランジスタと、
 前記光電変換部から前記第2の電荷蓄積部へ前記電荷を振り分ける第2の振り分けトランジスタと、
 をさらに備える、
 上記(1)~(5)のいずれか1つに記載の受光素子。
(11)
 前記第1及び第2の振り分けトランジスタのゲートのそれぞれには、互いに異なるタイミングで所定の電圧が印加される、上記(10)に記載の受光素子。
(12)
 前記半導体基板の表面と反対側の面に設けられた、微細な凹凸が形成されたモスアイ構造をさらに備える、
 上記(1)~(11)のいずれか1つに記載の受光素子。
(13)
 前記半導体基板を貫く第1の画素分離部をさらに備える、
 上記(1)~(11)のいずれか1つに記載の受光素子。
(14)
 前記半導体基板の厚み方向に沿って、前記半導体基板の表面と反対側の面から、前記半導体基板の途中まで貫く、第2の画素分離部をさらに備える、
 上記(1)~(11)のいずれか1つに記載の受光素子。
(15)
 1つ又は複数の浮遊拡散領域と、
 前記第1の電荷蓄積部に転送された前記電荷を前記1つ又は複数の浮遊拡散領域へ転送する第1の転送トランジスタと、
 前記第2の電荷蓄積部に転送された前記電荷を前記1つ又は複数の浮遊拡散領域へ転送する第2の転送トランジスタと、
 をさらに備える、
 上記(10)に記載の受光素子。
(16)
 前記浮遊拡散領域へ転送された前記電荷を増幅して画素信号として出力する1つ又は複数の増幅トランジスタと、
 選択信号に従って前記画素信号を出力する1つ又は複数の選択トランジスタと、
 前記浮遊拡散領域に蓄積した前記電荷をリセットする1つ又は複数のリセットトランジスタと、
 をさらに備える、
 上記(15)に記載の受光素子。
(17)
 前記第1の絶縁層は、第1の酸化膜からなり、
 前記第1及び第2の転送トランジスタのそれぞれは、前記半導体基板上に設けられた第2の酸化膜を有し、
 前記第1の酸化膜の膜厚は、前記第2の酸化膜に比べて薄い、
 上記(16)に記載の受光素子。
(18)
 前記増幅トランジスタ、前記選択トランジスタ及び前記リセットトランジスタのそれぞれは、前記半導体基板上に設けられた第3の酸化膜を有し、
 前記増幅トランジスタの前記第3の酸化膜の膜厚は、前記選択トランジスタ及び前記リセットトランジスタの前記第3の酸化膜に比べて薄い、
 上記(17)に記載の受光素子。
(19)
 前記第1及び第2の転送トランジスタのそれぞれは、前記半導体基板上に設けられた第2の絶縁層を有し、
 前記第1の絶縁層の比誘電率は、前記第2の絶縁層に比べて高い、
 上記(16)に記載の受光素子。
(20)
 前記増幅トランジスタ、前記選択トランジスタ及び前記リセットトランジスタのそれぞれは、前記半導体基板上に設けられた第3の絶縁層を有し、
 前記増幅トランジスタの前記第3の絶縁層の比誘電率は、前記選択トランジスタ及び前記リセットトランジスタの前記第3の絶縁層に比べて高い、
 上記(19)に記載の受光素子。
(21)
 前記光電変換部から前記電荷が転送される複数の第3の電荷蓄積部をさらに備え、
 前記各第3の電荷蓄積部のそれぞれは、電極、第4の絶縁層、及び半導体層の積層からなる、
 上記(1)に記載の受光素子。
(22)
 1つ又は複数の受光素子を備える受光装置であって、
 前記受光素子は、
 半導体基板内に設けられ、光を電荷に変換する光電変換部と、
 前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、
 前記光電変換部から前記電荷が転送される第2の電荷蓄積部と、
 を有し、
 前記第1及び第2の電荷蓄積部のそれぞれは、電極、第1の絶縁層、及び半導体層の積層からなる、
 受光装置。
(23)
 対象物に、周期的に明るさを変動させて光を照射する照射部と、
 前記照射部を制御する照射制御部と、
 をさらに備え、
 前記光電変換部は、前記対象物からの反射光を受光する、
 上記(22)に記載の受光装置。
 1  測距モジュール
 10  受光素子
 12  画素アレイ部
 20  照射部
 30  受光部
 32  垂直駆動回路部
 34  カラム信号処理回路部
 36  水平駆動回路部
 38  出力回路部
 40  制御部
 42  画素駆動配線
 44  制御回路部
 46  水平信号線
 48  垂直信号線
 50  振り分けトランジスタ駆動部
 52  信号処理部
 54  データ格納部
 60  処理部
 100、102、102a、102b、104a、104b、106a、106b、108a、108b、110a、110b、112a、112b、114a、114b、116a、116b  N型半導体領域
 150a、150b、152a、152b、156a、156b、158a、158b、160a、160b、162a、162b  ゲート電極
 154a、154b、306、406  電極
 170  絶縁層
 172  埋込層
 174  トレンチ
 178  埋込電極部
 200  半導体基板
 202  反射防止膜
 202a  モスアイ構造
 204  平坦化膜
 206  遮光膜
 208  オンチップレンズ
 210、210a  画素分離部
 300  配線層
 302、402  絶縁膜
 304、404  金属膜
 400  基板
 600、602  中心線
 710  ビア
 720、720a  絶縁膜
 730  サイドウォール
 740  高誘電率膜
 800  対象物
 802a、802b   領域
 900  スマートフォン
 901  CPU
 902  ROM
 903  RAM
 904  ストレージ装置
 905  通信モジュール
 907  センサモジュール
 908  測距モジュール
 909  撮像装置
 910  表示装置
 911  スピーカ
 912  マイクロフォン
 913  入力装置
 AMP、AMP1、AMP2  増幅トランジスタ
 FD、FD1、FD2  浮遊拡散領域
 MEM、MEM1、MEM2  電荷蓄積部
 O  中心点
 OFG、OFG1、OFG2  電荷排出トランジスタ
 PD  フォトダイオード
 RST、RST1、RST2  リセットトランジスタ
 SEL、SEL1、SEL2  選択トランジスタ
 TG、TG1、TG2  転送トランジスタ
 VDD  電源電位
 VG、VG1、VG2  振り分けトランジスタ
 VSL、VSL1、VSL2  信号線

Claims (23)

  1.  半導体基板内に設けられ、光を電荷に変換する光電変換部と、
     前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、
     前記光電変換部から前記電荷が転送される第2の電荷蓄積部と、
     を備え、
     前記第1及び第2の電荷蓄積部のそれぞれは、電極、第1の絶縁層、及び半導体層の積層からなる、
     受光素子。
  2.  前記第1及び前記第2の電荷蓄積部のそれぞれは、前記電極に第1の電圧を印加することにより、前記第1の絶縁層の直下に位置する前記半導体層の最表面に生じる反転領域に、前記電荷を蓄積する、
     請求項1に記載の受光素子。
  3.  前記積層は、前記第1の絶縁層と前記半導体層との間に、前記半導体層に埋め込まれた埋込層をさらに有する、
     請求項1に記載の受光素子。
  4.  前記半導体層は、第1の導電型の半導体層であり、
     前記埋込層は、前記第1の導電型とは反対の導電型である第2の導電型の半導体層である、
     請求項3に記載の受光素子。
  5.  前記第1及び前記第2の電荷蓄積部のそれぞれは、前記電極に第2の電圧を印加することにより、前記半導体層内に生じるチャネル領域に前記電荷を蓄積する、
     請求項3に記載の受光素子。
  6.  半導体基板内に設けられ、光を電荷に変換する光電変換部と、
     前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、
     前記光電変換部から前記電荷が転送される第2の電荷蓄積部と、
     を備え、
     前記第1及び第2の電荷蓄積部のそれぞれは、
     半導体層と、
     前記半導体層に形成されたトレンチに埋め込まれた絶縁層と、
     前記絶縁層に埋め込まれた縦型電極と、
     を有する、
     受光素子。
  7.  前記電極は、金属膜からなり、
     前記第1の絶縁層は、酸化膜からなる、
     請求項1に記載の受光素子。
  8.  前記酸化膜の膜厚は、5.0nm以下である、
     請求項7に記載の受光素子。
  9.  前記第1の絶縁層の比誘電率は、4以上である、
     請求項1に記載の受光素子。
  10.  前記光電変換部から前記第1の電荷蓄積部へ前記電荷を振り分ける第1の振り分けトランジスタと、
     前記光電変換部から前記第2の電荷蓄積部へ前記電荷を振り分ける第2の振り分けトランジスタと、
     をさらに備える、
     請求項1に記載の受光素子。
  11.  前記第1及び第2の振り分けトランジスタのゲートのそれぞれには、互いに異なるタイミングで所定の電圧が印加される、請求項10に記載の受光素子。
  12.  前記半導体基板の表面と反対側の面に設けられた、微細な凹凸が形成されたモスアイ構造をさらに備える、
     請求項1に記載の受光素子。
  13.  前記半導体基板を貫く第1の画素分離部をさらに備える、
     請求項1に記載の受光素子。
  14.  前記半導体基板の厚み方向に沿って、前記半導体基板の表面と反対側の面から、前記半導体基板の途中まで貫く、第2の画素分離部をさらに備える、
     請求項1に記載の受光素子。
  15.  1つ又は複数の浮遊拡散領域と、
     前記第1の電荷蓄積部に転送された前記電荷を前記1つ又は複数の浮遊拡散領域へ転送する第1の転送トランジスタと、
     前記第2の電荷蓄積部に転送された前記電荷を前記1つ又は複数の浮遊拡散領域へ転送する第2の転送トランジスタと、
     をさらに備える、
     請求項10に記載の受光素子。
  16.  前記浮遊拡散領域へ転送された前記電荷を増幅して画素信号として出力する1つ又は複数の増幅トランジスタと、
     選択信号に従って前記画素信号を出力する1つ又は複数の選択トランジスタと、
     前記浮遊拡散領域に蓄積した前記電荷をリセットする1つ又は複数のリセットトランジスタと、
     をさらに備える、
     請求項15に記載の受光素子。
  17.  前記第1の絶縁層は、第1の酸化膜からなり、
     前記第1及び第2の転送トランジスタのそれぞれは、前記半導体基板上に設けられた第2の酸化膜を有し、
     前記第1の酸化膜の膜厚は、前記第2の酸化膜に比べて薄い、
     請求項16に記載の受光素子。
  18.  前記増幅トランジスタ、前記選択トランジスタ及び前記リセットトランジスタのそれぞれは、前記半導体基板上に設けられた第3の酸化膜を有し、
     前記増幅トランジスタの前記第3の酸化膜の膜厚は、前記選択トランジスタ及び前記リセットトランジスタの前記第3の酸化膜に比べて薄い、
     請求項17に記載の受光素子。
  19.  前記第1及び第2の転送トランジスタのそれぞれは、前記半導体基板上に設けられた第2の絶縁層を有し、
     前記第1の絶縁層の比誘電率は、前記第2の絶縁層に比べて高い、
     請求項16に記載の受光素子。
  20.  前記増幅トランジスタ、前記選択トランジスタ及び前記リセットトランジスタのそれぞれは、前記半導体基板上に設けられた第3の絶縁層を有し、
     前記増幅トランジスタの前記第3の絶縁層の比誘電率は、前記選択トランジスタ及び前記リセットトランジスタの前記第3の絶縁層に比べて高い、
     請求項19に記載の受光素子。
  21.  前記光電変換部から前記電荷が転送される複数の第3の電荷蓄積部をさらに備え、
     前記各第3の電荷蓄積部のそれぞれは、電極、第4の絶縁層、及び半導体層の積層からなる、
     請求項1に記載の受光素子。
  22.  1つ又は複数の受光素子を備える受光装置であって、
     前記受光素子は、
     半導体基板内に設けられ、光を電荷に変換する光電変換部と、
     前記光電変換部から前記電荷が転送される第1の電荷蓄積部と、
     前記光電変換部から前記電荷が転送される第2の電荷蓄積部と、
     を有し、
     前記第1及び第2の電荷蓄積部のそれぞれは、電極、第1の絶縁層、及び半導体層の積層からなる、
     受光装置。
  23.  対象物に、周期的に明るさを変動させて光を照射する照射部と、
     前記照射部を制御する照射制御部と、
     をさらに備え、
     前記光電変換部は、前記対象物からの反射光を受光する、
     請求項22に記載の受光装置。
PCT/JP2020/044962 2019-12-13 2020-12-03 受光素子及び受光装置 WO2021117589A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20899921.9A EP4075792A4 (en) 2019-12-13 2020-12-03 LIGHT RECEIVING ELEMENT AND LIGHT RECEIVING DEVICE
CN202080075721.2A CN114631189A (zh) 2019-12-13 2020-12-03 光接收元件和光接收装置
KR1020227017227A KR20220112758A (ko) 2019-12-13 2020-12-03 수광 소자 및 수광 장치
US17/781,666 US20220375969A1 (en) 2019-12-13 2020-12-03 Light receiving element and light receiving apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019225912 2019-12-13
JP2019-225912 2019-12-13
JP2020-166859 2020-10-01
JP2020166859A JP2021097215A (ja) 2019-12-13 2020-10-01 受光素子及び受光装置

Publications (1)

Publication Number Publication Date
WO2021117589A1 true WO2021117589A1 (ja) 2021-06-17

Family

ID=76330291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044962 WO2021117589A1 (ja) 2019-12-13 2020-12-03 受光素子及び受光装置

Country Status (5)

Country Link
US (1) US20220375969A1 (ja)
EP (1) EP4075792A4 (ja)
KR (1) KR20220112758A (ja)
CN (1) CN114631189A (ja)
WO (1) WO2021117589A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054832A (ja) * 2009-09-03 2011-03-17 Panasonic Corp 増幅型固体撮像素子およびその製造方法
JP2013207321A (ja) * 2012-03-27 2013-10-07 Sony Corp 固体撮像装置、及び、電子機器
WO2017022220A1 (ja) * 2015-08-04 2017-02-09 パナソニックIpマネジメント株式会社 固体撮像装置
JP2018147975A (ja) * 2017-03-03 2018-09-20 ソニー株式会社 撮像素子
JP2019004149A (ja) 2017-06-15 2019-01-10 三星電子株式会社Samsung Electronics Co.,Ltd. 距離測定のためのイメージセンサ
JP2019145563A (ja) * 2018-02-16 2019-08-29 ソニーセミコンダクタソリューションズ株式会社 センサ装置および電子機器
WO2019181466A1 (ja) * 2018-03-19 2019-09-26 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054832A (ja) * 2009-09-03 2011-03-17 Panasonic Corp 増幅型固体撮像素子およびその製造方法
JP2013207321A (ja) * 2012-03-27 2013-10-07 Sony Corp 固体撮像装置、及び、電子機器
WO2017022220A1 (ja) * 2015-08-04 2017-02-09 パナソニックIpマネジメント株式会社 固体撮像装置
JP2018147975A (ja) * 2017-03-03 2018-09-20 ソニー株式会社 撮像素子
JP2019004149A (ja) 2017-06-15 2019-01-10 三星電子株式会社Samsung Electronics Co.,Ltd. 距離測定のためのイメージセンサ
JP2019145563A (ja) * 2018-02-16 2019-08-29 ソニーセミコンダクタソリューションズ株式会社 センサ装置および電子機器
WO2019181466A1 (ja) * 2018-03-19 2019-09-26 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4075792A4

Also Published As

Publication number Publication date
US20220375969A1 (en) 2022-11-24
CN114631189A (zh) 2022-06-14
EP4075792A1 (en) 2022-10-19
KR20220112758A (ko) 2022-08-11
EP4075792A4 (en) 2023-01-04

Similar Documents

Publication Publication Date Title
WO2021193254A1 (ja) 撮像装置及び電子機器
US20220181364A1 (en) Imaging element and semiconductor element
WO2021193915A1 (ja) 撮像装置及び電子機器
EP3920224A1 (en) Solid-state imaging element, electronic apparatus, and method for manufacturing solid-state imaging element
WO2020100607A1 (ja) 撮像装置
US20220028912A1 (en) Imaging element and imaging apparatus
WO2021125116A1 (ja) 受光装置
WO2021124974A1 (ja) 撮像装置
WO2021131844A1 (ja) 受光素子及び受光装置
WO2019176303A1 (ja) 撮像装置駆動回路および撮像装置
WO2021117589A1 (ja) 受光素子及び受光装置
WO2022009627A1 (ja) 固体撮像装置および電子機器
JP2019165066A (ja) 撮像素子、電子機器
JP2021097215A (ja) 受光素子及び受光装置
US20220122852A1 (en) Etching method for oxide semiconductor film
WO2019176302A1 (ja) 撮像素子および撮像素子の製造方法
TW202133423A (zh) 受光元件及受光裝置
WO2023047632A1 (ja) 撮像装置及び電子機器
WO2022124131A1 (ja) 受光素子、受光装置及び電子機器
WO2023058352A1 (ja) 固体撮像装置
WO2022201839A1 (ja) 撮像素子及び撮像装置
WO2023189664A1 (ja) 撮像装置及び半導体装置
WO2022209365A1 (ja) 撮像装置、撮像装置の製造方法、及び、電子機器
CN117063286A (zh) 摄像元件和摄像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20899921

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020899921

Country of ref document: EP

Effective date: 20220713