DE112020000903T5 - Lawinen-fotodiodensensor und abstandsmessvorrichtung - Google Patents

Lawinen-fotodiodensensor und abstandsmessvorrichtung Download PDF

Info

Publication number
DE112020000903T5
DE112020000903T5 DE112020000903.3T DE112020000903T DE112020000903T5 DE 112020000903 T5 DE112020000903 T5 DE 112020000903T5 DE 112020000903 T DE112020000903 T DE 112020000903T DE 112020000903 T5 DE112020000903 T5 DE 112020000903T5
Authority
DE
Germany
Prior art keywords
area
semiconductor substrate
element separation
areas
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020000903.3T
Other languages
English (en)
Inventor
Shinichiro Yagi
Toshifumi Wakano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112020000903T5 publication Critical patent/DE112020000903T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/02016Circuit arrangements of general character for the devices
    • H01L31/02019Circuit arrangements of general character for the devices for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02027Circuit arrangements of general character for the devices for devices characterised by at least one potential jump barrier or surface barrier for devices working in avalanche mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0216Coatings
    • H01L31/02161Coatings for devices characterised by at least one potential jump barrier or surface barrier
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0232Optical elements or arrangements associated with the device
    • H01L31/02327Optical elements or arrangements associated with the device the optical elements being integrated or being directly associated to the device, e.g. back reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0236Special surface textures
    • H01L31/02363Special surface textures of the semiconductor body itself, e.g. textured active layers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0236Special surface textures
    • H01L31/02366Special surface textures of the substrate or of a layer on the substrate, e.g. textured ITO/glass substrate or superstrate, textured polymer layer on glass substrate
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by at least one potential-jump barrier or surface barrier, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier or surface barrier
    • H01L31/107Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier or surface barrier the potential barrier working in avalanche mode, e.g. avalanche photodiode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/50Photovoltaic [PV] energy

Abstract

Die Abstandsmessgenauigkeit wird verbessert. Ein Lawinen-Fotodiodensensor gemäß einer Ausführungsform enthält ein erstes Halbleitersubstrat (51) und ein zweites Halbleitersubstrat (52), das an eine erste Oberfläche des ersten Halbleitersubstrats gebondet ist, wobei das erste Halbleitersubstrat eine Vielzahl fotoelektrischer Umwandlungsbereiche (21), die in einer Matrix angeordnet ist, und einen Elementtrennungsbereich (157) enthält, um die Vielzahl fotoelektrischer Umwandlungsbereiche elementweise voneinander zu trennen, die Vielzahl fotoelektrischer Umwandlungsbereiche einen ersten fotoelektrischen Umwandlungsbereich (21) enthält, der Elementtrennungsbereich ein erstes Elementtrennungsgebiet (157A) und ein zweites Elementtrennungsgebiet (157B) aufweist, der erste fotoelektrische Umwandlungsbereich zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet ist, das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche (181) enthält, die an einer der ersten Oberfläche entgegengesetzten zweiten Oberfläche angeordnet und zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet sind, und das zweite Halbleitersubstrat eine mit jedem der fotoelektrischen Umwandlungsbereiche verbundene Leseschaltung (22) enthält.

Description

  • [Technisches Gebiet]
  • Die vorliegende Offenbarung bezieht sich auf einen Lawinen-Fotodiodensensor und eine Abstandsmessvorrichtung.
  • [Hintergrundtechnik]
  • Ein Bildsensor zur Abstandsmessung, der einen Abstand unter Verwendung einer Laufzeit- (ToF-) Technik misst, hat in den letzten Jahren Aufmerksamkeit auf sich gezogen. Beispielsweise kann für den Bildsensor zur Abstandsmessung ein Pixel-Array verwendet werden, das gebildet wird, indem eine Vielzahl von Pixeln mit Einzelphotonen-Lawinendioden (SPAD-) in einer Ebene unter Verwendung der Technologie integrierter Schaltungen mit komplementären Metall-Oxid-Halbleiter- (CMOS-) Sensoren angeordnet wird. In einem SPAD-Pixel tritt eine Lawinenverstärkung auf, falls ein Photon in dessen PN-Übergangsgebiet eines hohen elektrischen Feldes eintritt, während eine viel höhere Spannung als eine Durchbruchspannung angelegt ist. Das Detektieren des Zeitpunkts, zu dem ein Strom kurzzeitig fließt, ermöglicht hier eine Abstandsmessung mit hoher Genauigkeit.
  • [Zitatliste]
  • [Patentliteratur]
    • [PTL 1] JP 2018-88488 A
    • [PTL 2] JP 2017-108062 A
    • [PTL 3] WO 2018/074530
  • [Zusammenfassung]
  • [Technisches Problem]
  • Der Abstand zu einem Objekt wird basierend auf einem vom Objekt reflektierten Licht berechnet, wenn der Abstand zum Objekt unter Verwendung des Bildsensors zur Abstandsmessung wie oben beschrieben gemessen wird. Wenn die Menge an reflektiertem Licht wie etwa jene von einem entfernten Objekt gering ist, kann folglich das reflektierte Licht im Umgebungslicht (auch Störlicht genannt) verdeckt sein und kann die Abstandsmessgenauigkeit abnehmen.
  • Daher schlägt die vorliegende Offenbarung einen Lawinen-Fotodiodensensor und eine Abstandsmessvorrichtung vor, die imstande sind, die Abstandsmessgenauigkeit zu verbessern.
  • [Lösung für das Problem]
  • Um die obigen Probleme zu lösen, enthält ein Lawinen-Fotodiodensensor gemäß der vorliegenden Offenbarung ein erstes Halbleitersubstrat und ein zweites Halbleitersubstrat, das an eine erste Oberfläche des ersten Halbleitersubstrats gebondet ist, wobei das erste Halbleitersubstrat eine Vielzahl fotoelektrischer Umwandlungsteile bzw. -bereiche, die in einer Matrix angeordnet sind, und einen Elementtrennungsbereich enthält, um die Vielzahl fotoelektrischer Umwandlungsbereiche elementweise voneinander zu trennen, die Vielzahl fotoelektrischer Umwandlungsbereiche einen ersten fotoelektrischen Umwandlungsbereich enthält, der Elementtrennungsbereich ein erstes Elementtrennungsgebiet und ein zweites Elementtrennungsgebiet aufweist, der erste fotoelektrische Umwandlungsbereich zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet ist, das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche enthält, die an einer der ersten Oberfläche entgegengesetzten zweiten Oberfläche angeordnet und zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet sind, und das zweite Halbleitersubstrat eine Leseschaltung enthält, die mit jedem der fotoelektrischen Umwandlungsbereiche verbunden ist.
  • Figurenliste
    • [1] 1 ist ein Blockdiagramm, das eine beispielhafte Konfiguration eines ToF-Sensors darstellt, der eine Abstandsmessvorrichtung gemäß einer ersten Ausführungsform ist.
    • [2] 2 ist ein Diagramm, um ein optisches System des ToF-Sensors gemäß der ersten Ausführungsform zu erläutern.
    • [3] 3 ist ein Blockdiagramm, das eine beispielhafte schematische Konfiguration eines lichtempfangenden Teils bzw. Bereichs gemäß der ersten Ausführungsform darstellt.
    • [4] 4 ist ein schematisches Diagramm, das eine beispielhafte schematische Konfiguration eines effektiven Gebiets in einem SPAD-Array gemäß der ersten Ausführungsform darstellt.
    • [5] 5 ist ein Schaltungsdiagramm, das eine beispielhafte schematische Konfiguration eines SPAD-Pixels gemäß der ersten Ausführungsform darstellt.
    • [6] 6 ist ein Blockdiagramm, das ein Beispiel einer detaillierteren Konfiguration einer SPAD-Additionseinheit gemäß der ersten Ausführungsform darstellt.
    • [7] 7 ist ein Diagramm, das eine beispielhafte Chipkonfiguration des lichtempfangenden Bereichs gemäß der ersten Ausführungsform darstellt.
    • [8] 8 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß der ersten Ausführungsform darstellt.
    • [9] 9 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene A-A in 8 darstellt.
    • [10] 10 ist ein Diagramm, um ein Beispiel einer Mottenaugenstruktur gemäß der ersten Ausführungsform zu erläutern.
    • [11] 11 ist ein Diagramm, um ein anderes Beispiel der Mottenaugenstruktur gemäß der ersten Ausführungsform zu erläutern.
    • [12] 12 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer ersten Modifikation der ersten Ausführungsform darstellt.
    • [13] 13 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene B-B in 12 veranschaulicht.
    • [14] 14 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer zweiten Modifikation der ersten Ausführungsform darstellt.
    • [15] 15 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene C-C in 14 veranschaulicht.
    • [16] 16 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer dritten Modifikation der ersten Ausführungsform darstellt.
    • [17] 17 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer vierten Modifikation der ersten Ausführungsform darstellt.
    • [18] 18 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer fünften Modifikation der ersten Ausführungsform darstellt.
    • [19] 19 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer zweiten Ausführungsform darstellt.
    • [20] 20 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene G-G in 19 darstellt.
    • [21] 21 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer ersten Modifikation der zweiten Ausführungsform darstellt.
    • [22] 22 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene H-H in 21 darstellt.
    • [23] 23 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer zweiten Modifikation der zweiten Ausführungsform darstellt.
    • [24] 24 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene J-J in 23 darstellt.
    • [25] 25 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer dritten Modifikation der zweiten Ausführungsform darstellt.
    • [26] 26 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer vierten Modifikation der zweiten Ausführungsform darstellt.
    • [27] 27 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer fünften Modifikation der zweiten Ausführungsform darstellt.
    • [28] 28 ist ein Blockdiagramm, das eine beispielhafte schematische Konfiguration eines Fahrzeugsteuerungssystems darstellt.
    • [29] 29 ist ein erläuterndes Diagramm, das ein Beispiel der Installationspositionen von Einheiten zur Detektion von Informationen von außerhalb des Fahrzeugs und Bildgebungseinheiten darstellt.
  • [Beschreibung von Ausführungsformen]
  • Im Folgenden wird unter Bezugnahme auf die Zeichnungen eine Ausführungsform der vorliegenden Offenbarung im Detail beschrieben. In den folgenden Ausführungsformen werden die gleichen Teile mit den gleichen Bezugsziffern bezeichnet und wird folglich eine wiederholte Beschreibung unterlassen.
  • Die vorliegende Offenbarung wird in der unten dargestellten Reihenfolge der Punkte beschrieben.
    • 1. Erste Ausführungsform
    • 1.1 Abstandsmessvorrichtung (ToF-Sensor)
    • 1.2 Optisches System
    • 1.3 Lichtempfangender Bereich
    • 1.4 SPAD-Array
    • 1.5 SPAD-Pixel
    • 1.6 Beispielhafter schematischer Betrieb eines SPAD-Pixels
    • 1.7 SPAD-Additionseinheit
    • 1.8 Abtastperiode
    • 1.9 Beispielhafte Chipkonfiguration
    • 1.10 Beispielhafte Querschnittsstruktur
    • 1.11 Mottenaugenstruktur
    • 1.12 Betrieb und Vorteile
    • 1.13 Modifikationen
    • 1.13.1 Erste Modifikation
    • 1.13.2 Zweite Modifikation
    • 1.13.3 Dritte Modifikation
    • 1.13.4 Vierte Modifikation
    • 1.13.5 Fünfte Modifikation
    • 2. Zweite Ausführungsform
    • 2.1 Beispielhafte Querschnittsstruktur
    • 2.2 Betrieb und Vorteile
    • 2.3 Modifikationen
    • 2.3.1 Erste Modifikation
    • 2.3.2 Zweite Modifikation
    • 2.3.3 Dritte Modifikation
    • 2.3.4 Vierte Modifikation
    • 2.3.5 Fünfte Modifikation
    • 3. Anwendungsbeispiele
  • 1. Erste Ausführungsform
  • Zunächst wird mit Verweis auf die Zeichnungen eine erste Ausführungsform im Detail beschrieben.
  • 1.1 Abstandsmessvorrichtung (ToF-Sensor)
  • 1 ist ein Blockdiagramm, das eine beispielhafte schematische Konfiguration eines ToF-Sensors darstellt, der eine Abstandsmessvorrichtung gemäß der ersten Ausführungsform ist. Wie in 1 dargestellt ist, enthält der ToF-Sensor 1 einen Controller 11, einen lichtemittierenden Teil bzw. Bereich 13, einen lichtempfangenden Bereich 14, eine Berechnungseinheit 15 und eine externe Schnittstelle (I/F) 19.
  • Der Controller 11 besteht zum Beispiel aus einer Informationsverarbeitungsvorrichtung wie etwa einer zentralen Verarbeitungseinheit (CPU) und steuert jede Komponente des ToF-Sensors 1.
  • Der externe I/F 19 kann beispielsweise ein Kommunikationsadapter zum Einrichten einer Kommunikation mit einem externen Host 80 über ein Kommunikationsnetzwerk sein, das mit jedem beliebigen Standard verträglich ist, wie etwa ein drahtloses lokales Netzwerk (LAN), ein drahtgebundenes LAN, ein Controller-Area-Netzwerk (CAN), ein lokales Zwischenverbindungsnetzwerk (LIN) oder FlexRay (eingetragenes Warenzeichen).
  • Wenn der ToF-Sensor 1 beispielsweise an einem Automobil oder dergleichen montiert ist, kann der Host 80 hier eine im Automobil oder dergleichen montierte Motorsteuereinheit (ECU) sein. Wenn der ToF-Sensor 1 an einem autonomen mobilen Körper wie etwa einem autonomen mobilen Roboter wie etwa einem Haustierroboter, einem Staubsaugerroboter, einem unbemannten Luftfahrzeug oder einem nachfolgenden Transportroboter montiert ist, kann der Host 80 eine Steuerungsvorrichtung oder dergleichen sein, die den autonomen mobilen Körper steuert.
  • Der lichtemittierende Bereich 13 enthält zum Beispiel eine oder eine Vielzahl von Halbleiterlaserdioden als Lichtquelle und emittiert Laserlicht L1 in der Form eines Impulses mit einer vorbestimmten Zeitbreite (engl.: time width) mit einer vorbestimmten Periode (auch Lichtemissionsperiode genannt). Der lichtemittierende Bereich 13 emittiert beispielsweise Laserlicht L1 mit einer Zeitbreite von 10 Nanosekunden (ns) mit einer Periode von 100 Megahertz (MHz). Das vom lichtemittierenden Bereich 13 emittierte Laserlicht L1 wird beispielsweise von einem Objekt 90 reflektiert, wenn sich das Objekt 90 innerhalb eines Abstandsmessbereichs befindet, und das reflektierte Licht L2 fällt auf den lichtempfangenden Bereich 14.
  • Der lichtempfangende Bereich 14 ist ein Lawinen-Fotodiodensensor, dessen Details später beschrieben werden, und enthält zum Beispiel eine Vielzahl von SPAD-Pixeln, die in einem Array angeordnet sind, und gibt Informationen (zum Beispiel entsprechend der Anzahl an Detektionssignalen, die später beschrieben werden) in Bezug auf die Anzahl an SPAD-Pixel aus, die jeweils den Einfall bzw. das Auftreffen eines Photons nach der Lichtemission des lichtemittierenden Bereichs 13 detektiert haben (worauf hier im Folgenden als Anzahl von Detektionen verwiesen wird). Beispielsweise detektiert der lichtempfangende Bereich 14 das Auftreffen von Photonen mit einer vorbestimmten Abtastperiode als Antwort auf eine Lichtemission des lichtemittierenden Bereichs 13 und gibt die Anzahl von Detektionen aus.
  • Die Berechnungseinheit 15 zählt die Anzahl von Detektionen, die vom lichtempfangenden Bereich 14 ausgegeben wird, für jede Vielzahl von SPAD-Pixeln (zum Beispiel entsprechend einem oder einer Vielzahl von Makropixeln, die später beschrieben werden) und erzeugt ein Histogramm, wobei die horizontale Achse die Laufzeit ist und die vertikale Achse ein kumulativer Pixelwert ist, basierend auf einem Pixelwert, der durch die Zählung erhalten wird. Beispielsweise führt die Berechnungseinheit 15 wiederholt das Zählen der Anzahl an Detektionen und die Berechnung eines Pixelwerts bei der vorbestimmten Abtastfrequenz als Antwort auf eine Lichtemission des lichtemittierenden Bereichs 13 für jede einer Vielzahl von Lichtemissionen des lichtemittierenden Bereichs 13 aus, wodurch ein Histogramm erzeugt wird, in dem die horizontale Achse (Histogramm-Klasse bzw. -Bin) die Abtastperiode entsprechend der Laufzeit ist und die vertikale Achse ein kumulativer Pixelwert ist, der erhalten wird, indem der in jeder Abtastperiode erhaltene Pixelwert akkumuliert wird.
  • Ferner wendet die Berechnungseinheit 15 einen vorbestimmten Filterprozess auf das erzeugte Histogramm an und identifiziert dann eine Laufzeit, bei der der kumulative Pixelwert aus dem gefilterten Histogramm einen Spitzenwert erreicht. Die Berechnungseinheit 15 berechnet dann basierend auf der identifizierten Laufzeit den Abstand von dem ToF-Sensor 1 oder einer Vorrichtung, an der der ToF-Sensor 1 montiert ist, zu dem im Abstandsmessbereich vorhandenen Objekt 90. Die von der Berechnungseinheit 15 berechnete Abstandsinformation wird zum Beispiel über die externe I/F 19 an den Host 80 oder dergleichen ausgegeben.
  • 1.2 Optisches System
  • 2 ist ein Diagramm, um ein optisches System des ToF-Sensors gemäß der ersten Ausführungsform zu erläutern. 2 veranschaulicht ein optisches System vom sogenannten Scan-Typ, das den Blickwinkel des lichtempfangenden Bereichs 14 in der horizontalen Richtung abtastet bzw. scannt. Das optische System des ToF-Sensors ist jedoch nicht auf dieses beschränkt und kann beispielsweise das eines sogenannten ToF-Sensors vom Flash-Typ sein, bei dem der Blickwinkel des lichtempfangenden Bereichs 14 fixiert ist.
  • Wie in 2 dargestellt ist, enthält das optische System des ToF-Sensors 1 eine Lichtquelle 131, eine Kollimatorlinse 132, einen Halbspiegel 133, einen Galvanometerspiegel 135, eine lichtempfangende Linse 146 und ein SPAD-Array 141. Die Lichtquelle 131, die Kollimatorlinse 132, der Halbspiegel 133 und der Galvanometerspiegel 135 sind beispielsweise im lichtemittierenden Bereich 13 in 1 enthalten. Die lichtempfangende Linse 146 und das SPAD-Array 141 sind beispielsweise im lichtempfangenden Bereich 14 in 1 enthalten.
  • In der in 2 dargestellten Konfiguration wird von der Lichtquelle 131 emittiertes Laserlicht L1 durch die Kollimatorlinse 132 in rechteckiges paralleles Licht, dessen Querschnittsintensitätsspektrum in der vertikalen Richtung lang ist, umgewandelt und fällt dann auf den Halbspiegel 133. Der Halbspiegel 133 reflektiert einen Teil des einfallenden Laserlichts L1. Das vom Halbspiegel 133 reflektierte Laserlicht L1 fällt auf den Galvanometerspiegel 135. Der Galvanometerspiegel 135 schwingt in der horizontalen Richtung mit einer vorbestimmten Drehachse als Schwingungszentrum beispielsweise mittels einer Antriebseinheit 134, die unter der Steuerung des Controllers 11 arbeitet. Folglich wird das Laserlicht L1 horizontal so gescannt, dass der Blickwinkel SR des Laserlichts L1, das vom Galvanometerspiegel 136 reflektiert wird, über den Entfernungsmessbereich AR in der horizontalen Richtung hin und her läuft. Ein mikroelektromechanisches System (MEMS), ein Mikromotor oder dergleichen kann für die Antriebseinheit 134 genutzt werden.
  • Das vom Galvanometerspiegel 135 reflektierte Laserlicht L1 wird vom im Entfernungsmessbereich AR vorhandenen Objekt 90 reflektiert, und das reflektierte Licht L2 fällt auf den Galvanometerspiegel 135. Ein Teil des auf den Galvanometerspiegel 135 fallenden bzw. auftreffenden reflektierten Lichts L2 wird durch den Halbspiegel 133 durchgelassen und fällt auf die lichtempfangende Linse 146, wodurch auf einem spezifischen Gebiet (worauf hier im Folgenden als effektives Gebiet verwiesen wird) 142 im SPAD-Array ein Bild erzeugt wird. Das effektive Gebiet 142 kann das gesamte SPAD-Array 141 oder ein Teil dessen sein.
  • 1.3 Lichtempfangender Bereich
  • 3 ist ein Blockdiagramm, das eine beispielhafte schematische Konfiguration des lichtempfangenden Bereichs gemäß der ersten Ausführungsform darstellt. Wie in 3 dargestellt ist, enthält der lichtempfangende Bereich 14 ein SPAD-Array 141, eine Steuerungsschaltung 143 zur Zeitsteuerung, eine Ansteuerungsschaltung 144 und eine Ausgabeschaltung 145. In der folgenden Beschreibung kann auf die Steuerungsschaltung 143 zur Zeitsteuerung, die Ansteuerungsschaltung 144 und die Ausgabeschaltung 145 als periphere Schaltungen verwiesen werden.
  • Das SPAD-Array 141 enthält eine Vielzahl von in einer Matrix angeordneten SPAD-Pixeln 20. Pixel-Ansteuerungsleitungen LD (die in der Figur in der vertikalen Richtung verlaufen) sind mit den Spalten der Vielzahl von SPAD-Pixeln 20 verbunden, und Ausgangssignalleitungen LS (die in der Figur in der horizontalen Richtung verlaufen) sind mit den Reihen verbunden. Die einen Enden der Pixel-Ansteuerungsleitungen LD sind entsprechend den Spalten mit Ausgangsenden der Ansteuerungsschaltung 144 verbunden, und die einen Enden der Ausgangssignalleitungen LS sind entsprechend den Reihen mit Eingangsenden der Ausgabeschaltung 145 verbunden.
  • In der vorliegenden Ausführungsform wird das gesamte SPAD-Array 141 oder ein Teil davon genutzt, um das reflektierte Licht L2 zu detektieren. Das effektive Gebiet 142 im SPAD-Array 141 kann ein vertikal langes Rechteck ähnlich einem auf dem SPAD-Array 141 erzeugten Bild des reflektierten Lichts L2 sein, wenn das Laserlicht L1 vollkommen in das reflektierte Licht L2 reflektiert wird. Das effektive Gebiet 142 im SPAD-Array 141 ist jedoch nicht auf dieses beschränkt, und verschiedene Modifikationen können vorgenommen werden, wie etwa ein Gebiet, das größer oder kleiner als das auf dem SPAD-Array 141 erzeugte Bild des reflektierten Lichts L2 ist.
  • Die Ansteuerungsschaltung 144 enthält ein Schieberegister, einen Adressdecodierer und dergleichen und steuert die SPAD-Pixel 20 des SPAD-Arrays 141 alle gleichzeitig oder spaltenweise oder dergleichen an. Folglich enthält die Ansteuerungsschaltung 144 zumindest eine Schaltung, die eine Lösch- bzw. Quench-Spannung V_QCH, die später beschrieben wird, an jedes SPAD-Pixel 20 in einer ausgewählten Spalte des SPAD-Arrays 141 anlegt, und eine Schaltung, die eine Auswahlsteuerungsspannung V_SEL, die später beschrieben wird, an jedes SPAD-Pixel 20 in der ausgewählten Spalte anlegt. Die Ansteuerungsschaltung 144 wählt dann SPAD-Pixel 20 aus, die genutzt werden, um den Einfall von Photonen spaltenweise zu detektieren, indem die Auswahlsteuerungsspannung V_SEL an eine einer zu lesenden Spalte entsprechende Pixel-Ansteuerungsleitung LD angelegt wird.
  • Signale (auf die als Detektionssignale verwiesen wird) V_OUT, die von den SPAD-Pixeln 20 in der durch die Ansteuerungsschaltung 144 ausgewählten und gescannten Spalte ausgegeben werden, werden über die Ausgangssignalleitungen LS in die Ausgabeschaltung 145 eingespeist. Die Ausgabeschaltung 145 gibt die von den SPAD-Pixeln 20 eingespeisten Detektionssignale V_OUT an eine SPAD-Additionseinheit 40 aus, die für jedes Makropixel vorgesehen ist, was später beschrieben wird.
  • Die Steuerungsschaltung 143 zur Zeitsteuerung enthält einen Zeitsteuerungsgenerator, der verschiedene Zeitsteuerungssignale oder dergleichen erzeugt, und steuert basierend auf den vom Zeitsteuerungsgenerator erzeugten verschiedenen Zeitsteuerungssignalen die Ansteuerungs- und Ausgabeschaltungen 144 und 145.
  • 1.4 SPAD-Array
  • 4 ist ein schematisches Diagramm, das eine beispielhafte schematische Konfiguration des effektiven Gebiets im SPAD-Array gemäß der ersten Ausführungsform darstellt. Wie in 4 dargestellt ist, hat das effektive Gebiet 142 beispielsweise eine Konfiguration, in der eine Vielzahl von SPAD-Pixeln 20 in einer Matrix angeordnet ist. Die Vielzahl von SPAD-Pixeln 20 ist in eine Vielzahl von Makropixeln 30 gruppiert, die jeweils aus einer vorbestimmten Anzahl von in Reihen und/oder Spalten angeordneten SPAD-Pixeln 20 bestehen. Ein Gebiet, das durch Verbinden von Außenkanten von auf dem äußersten Umfang jedes Makropixels 30 gelegenen SPAD-Pixeln 20 definiert wird, hat eine vorbestimmte Form (zum Beispiel ein Rechteck).
  • Das effektive Gebiet 142 besteht zum Beispiel aus einer Vielzahl von Makropixeln 30, die in der (der Spaltenrichtung entsprechenden) vertikalen Richtung angeordnet sind. In der vorliegenden Ausführungsform ist das effektive Gebiet 142 zum Beispiel in eine Vielzahl von Gebieten (worauf hier im Folgenden als SPAD-Gebiete verwiesen wird) unterteilt, die in der vertikalen Richtung angeordnet sind. In dem in 4 dargestellten Beispiel ist das effektive Gebiet 142 in vier SPAD-Gebiete 142-1 bis 142-4 unterteilt. Das ganz unten gelegene SPAD-Gebiet 142-1 entspricht beispielsweise dem Gebiet des untersten Viertels im Blickwinkel SR des effektiven Gebiets 142, das SPAD-Gebiet 142-2 über ihm entspricht beispielsweise dem Gebiet des zweituntersten Viertels im Blickwinkel SR, das SPAD-Gebiet 142-3 über ihm entspricht beispielsweise dem Gebiet des drittuntersten Viertels im Blickwinkel SR und das am höchsten gelegene SPAD-Gebiet 142-4 entspricht beispielsweise dem Gebiet des obersten Viertels im Blickwinkel SR.
  • 1.5 SPAD-Pixel
  • 5 ist ein Schaltungsdiagramm, das eine beispielhafte schematische Konfiguration eines SPAD-Pixels gemäß der ersten Ausführungsform darstellt. Wie in 5 dargestellt ist, enthält das SPAD-Pixel 20 einen fotoelektrischen Umwandlungsteil bzw. -bereich 21, der ein lichtempfangendes Element ist, und eine Leseschaltung 22, um zu detektieren, dass ein Photon auf den fotoelektrischen Umwandlungsbereich 21 fällt bzw. auftrifft.
  • Die Leseschaltung 22 enthält einen Lösch- bzw. Quench-Widerstand 23, einen Digitalwandler 25, einen Inverter 26, einen Puffer 27 und einen Auswahltransistor 24. Der Quench-Widerstand 23 besteht zum Beispiel aus einem Metall-Oxid-Halbleiter-Feldeffekttransistor (MOSFET) vom N-Typ (worauf hier im Folgenden als NMOS-Transistor verwiesen wird), dessen Drain mit einer Anode des fotoelektrischen Umwandlungsbereichs 21 verbunden ist und dessen Source über den Auswahltransistor 24 geerdet ist. Ferner wird eine voreingestellte Lösch- bzw. Quench-Spannung V_QCH, um zu ermöglichen, dass der NMOS-Transistor als Quench-Widerstand fungiert, über die Pixel-Ansteuerungsleitung LD von der Ansteuerungsschaltung 144 an ein Gate des den Quench-Widerstand 23 bildenden NMOS-Transistors angelegt.
  • In der vorliegenden Ausführungsform ist der fotoelektrische Umwandlungsbereich 21 eine SPAD. Die SPAD ist eine Lawinen-Fotodiode, die in einem Geiger-Modus arbeitet, wenn eine Sperrvorspannung, die gleich der Durchbruchspannung oder höher ist, zwischen einer Anode und einer Kathode davon angelegt ist, und kann das Auftreffen eines Photons detektieren. Das heißt, der fotoelektrische Umwandlungsbereich 21 erzeugt einen Lawinenstrom, wenn ein Photon auftrifft, während eine Sperrvorspannung V_SPAD, die gleich der Durchbruchspannung oder höher ist, gerade zwischen der Anode und Kathode angelegt ist.
  • Der Digitalwandler 25 enthält einen Widerstand 251 und einen NMOS-Transistor 252. Ein Drain des NMOS-Transistors 252 ist über den Widerstand 251 mit einer Stromversorgungsspannung VDD verbunden, und dessen Source ist geerdet. Die Spannung an einem Verbindungspunkt N1 zwischen der Anode des fotoelektrischen Umwandlungsbereichs 21 und dem Quench-Widerstand 23 wird an ein Gate des NMOS-Transistors 252 angelegt.
  • Der Inverter 26 enthält einen MOSFET 261 vom P-Typ (worauf hier im Folgenden als PMOS-Transistor verwiesen wird) und einen NMOS-Transistor 262. Ein Drain des PMOS-Transistors 261 ist mit der Stromversorgungsspannung VDD verbunden, und dessen Source ist mit einem Drain des NMOS-Transistors 262 verbunden. Der Drain des NMOS-Transistors 262 ist mit der Source des PMOS-Transistors 261 verbunden, und dessen Source ist geerdet. Die Spannung an einem Verbindungspunkt N2 zwischen dem Widerstand 251 und dem Drain des NMOS-Transistors 252 wird an ein Gate des PMOS-Transistors 261 und das Gate des NMOS-Transistors 262 angelegt. Eine Ausgabe des Inverters 26 wird in den Puffer 27 eingespeist.
  • Der Puffer 27 ist eine Schaltung für eine Impedanzumwandlung. Wenn ein Ausgangssignal vom Inverter 26 in den Puffer 27 eingespeist wird, führt der Puffer 27 eine Impedanzumwandlung am eingespeisten Ausgangssignal aus und gibt das umgewandelte Signal als Detektionssignal V_OUT aus.
  • Der Auswahltransistor 24 ist beispielsweise ein NMOS-Transistor, dessen Drain mit der Source des den Quench-Widerstand 23 bildenden NMOS-Transistors verbunden ist und dessen Source geerdet ist. Der Auswahltransistor 24 ist mit der Ansteuerungsschaltung 144 verbunden. Der Auswahltransistor 24 schaltet von Aus auf Ein, wenn die Auswahlsteuerungsspannung V_SEL von der Ansteuerungsschaltung 144 über die Pixel-Ansteuerungsleitung LD an ein Gate des Auswahltransistors 24 angelegt wurde.
  • 1.6 Beispielhafter schematischer Betrieb eines SPAD-Pixels
  • Die in 5 veranschaulichte Leseschaltung 22 arbeitet beispielsweise wie folgt. Zunächst wird, während die Auswahlsteuerungsspannung V_SEL von der Ansteuerungsschaltung 144 an den Auswahltransistor 24 angelegt wird, sodass der Auswahltransistor 24 eingeschaltet ist, eine Sperrvorspannung V_SPAD, die gleich der Durchbruchspannung oder höher ist, an den fotoelektrischen Umwandlungsbereich 21 angelegt. Dies gestattet einen Betrieb des fotoelektrischen Umwandlungsbereichs 21.
  • Auf der anderen Seite wird, während die Auswahlsteuerungsspannung V_SEL von der Ansteuerungsschaltung 144 nicht an den Auswahltransistor 24 angelegt wird, sodass der Auswahltransistor 24 ausgeschaltet ist, die Sperrvorspannung V_SPAD nicht an den fotoelektrischen Umwandlungsbereich 21 angelegt, was somit einen Betrieb des fotoelektrischen Umwandlungsbereichs 21 unterbindet.
  • Falls ein Photon auf den fotoelektrischen Umwandlungsbereich 21 auftrifft, während der Auswahltransistor 24 eingeschaltet ist, wird im fotoelektrischen Umwandlungsbereich 21 ein Lawinenstrom erzeugt. Folglich fließt ein Lawinenstrom durch den Quench-Widerstand 23 und steigt die Spannung am Verbindungspunkt N1 an. Wenn die Spannung am Verbindungspunkt N1 höher als die Einschaltspannung des NMOS-Transistors 252 wird, wird der NMOS-Transistor 252 eingeschaltet und ändert sich die Spannung am Verbindungspunkt N2 von der Stromversorgungsspannung VDD auf 0 V. Wenn sich die Spannung am Verbindungspunkt N2 von der Stromversorgungsspannung VDD auf 0 V geändert hat, wechselt der PMOS-Transistor 261 von ausgeschaltet zu eingeschaltet, wechselt der NMOS-Transistor 262 von eingeschaltet zu ausgeschaltet und ändert sich die Spannung an einem Verbindungspunkt N3 von 0 V auf die Stromversorgungsspannung VDD.
  • Infolgedessen wird vom Puffer 27 ein Detektionssignal V_OUT mit hohem Pegel ausgegeben.
  • Wenn die Spannung am Verbindungspunkt N1 weiter ansteigt, wird danach die zwischen der Anode und Kathode des fotoelektrischen Umwandlungsbereichs 21 angelegte Spannung kleiner als die Durchbruchspannung, wodurch der Lawinenstrom stoppt und die Spannung am Verbindungspunkt N1 abfällt. Wenn die Spannung am Verbindungspunkt N1 niedriger als die Einschaltspannung des NMOS-Transistors 452 geworden ist, wird dann der NMOS-Transistor 452 ausgeschaltet und wird die Ausgabe des Detektionssignals V OUT vom Puffer 27 gestoppt (wird ein niedriger Pegel).
  • Auf diese Weise gibt die Leseschaltung 22 während einer Dauer bzw. Zeitspanne von dem Zeitpunkt, zu dem ein Photon auf den fotoelektrischen Umwandlungsbereich 21 fällt und ein Lawinenstrom erzeugt wird, sodass der NMOS-Transistor 452 eingeschaltet wird, bis zu dem Zeitpunkt, zu dem der Lawinenstrom gestoppt wird, sodass der NMOS-Transistor 452 ausgeschaltet wird, ein Detektionssignal V_OUT mit hohem Pegel aus. Das Ausgangsdetektionssignal V_OUT wird über die Ausgabeschaltung 145 in die SPAD-Additionseinheit 40 für jedes Makropixel 30 eingespeist. Folglich wird in jede SPAD-Additionseinheit 40 die gleiche Anzahl an Detektionssignalen V_OUT wie die Anzahl an SPAD-Pixeln 20, wo das Auftreffen von Photonen detektiert wird, unter einer Vielzahl von SPAD-Pixeln 20, die ein Makropixel 30 bilden, (die Anzahl an Detektionen) eingespeist.
  • 1.7 SPAD-Additionseinheit
  • 6 ist ein Blockdiagramm, das ein Beispiel einer detaillierteren Konfiguration der SPAD-Additionseinheit gemäß der ersten Ausführungsform darstellt. Die SPAD-Additionseinheit 40 kann so konfiguriert sein, dass sie im lichtempfangenden Bereich 14 enthalten ist, oder kann so konfiguriert sein, dass sie in der Berechnungseinheit 15 enthalten ist.
  • Wie in 6 dargestellt ist, enthält die SPAD-Additionseinheit 40 beispielsweise eine Impulsformungseinheit 41 und eine empfangene Photonen zählende Einheit 42.
  • Die Impulsformungseinheit 41 formt die Impulswellenform von Detektionssignalen V_OUT, die über die Ausgabeschaltung 145 vom SPAD-Array 141 eingespeist werden, in eine Impulswellenform mit einer Zeitbreite, die dem Arbeitstakt der SPAD-Additionseinheit 40 entspricht.
  • Die empfangene Photonen zählende Einheit 42 zählt Detektionssignale V_OUT, die vom entsprechenden Makropixel 30 für jede Abtastperiode eingespeist werden, wodurch die Anzahl der SPAD-Pixel 20, wo das Auftreffen von Photonen detektiert wird, (die Anzahl an Detektionen) für jede Abtastperiode gezählt wird, und gibt diesen Zählwert als Pixelwert des Makropixels 30 aus.
  • 1.8 Abtastperiode
  • Die Abtastperiode ist hier das Intervall, in dem die Zeit von der Emission des Laserlichts L1 durch den lichtemittierenden Bereich 13 bis zur Detektion des Auftreffens eines Photons durch den lichtempfangenden Bereich 14 (Laufzeit) gemessen wird. Eine kürzere Periode als die Lichtemissionsperiode des lichtemittierenden Bereichs 13 wird für diese Abtastperiode eingestellt. Beispielsweise ermöglicht das Verkürzen der Abtastperiode eine Berechnung der Laufzeit eines vom lichtemittierenden Bereich 13 emittierten und vom Objekt 90 reflektierten Photons mit einer höheren Zeitauflösung. Dies bedeutet, dass ein Erhöhen der Abtastfrequenz eine Berechnung des Abstands zum Objekt 90 mit einer höheren Entfernungsmessauflösung ermöglicht.
  • Wenn beispielsweise t die Laufzeit von dem Zeitpunkt an, zu dem das Laserlicht L1 vom lichtemittierenden Bereich 13 emittiert wird, das dann vom Objekt 90 reflektiert wird, bis zu dem Zeitpunkt ist, zu dem das reflektierte Licht L2 auf den lichtempfangenden Bereich 14 fällt, kann der Abstand L zum Objekt 90 durch die folgende Formel (1) berechnet werden, da die Lichtgeschwindigkeit C konstant ist (C ≈ 300 000 000 Meter/Sekunde (m/s)). L = C × t / 2.
    Figure DE112020000903T5_0001
  • Wenn die Abtastfrequenz 1 GHz ist, ist daher die Abtastperiode 1 Nanosekunde (ns). In diesem Fall entspricht eine Abtastperiode 15 Zentimeter (cm). Dies zeigt, dass die Abstandsmessauflösung 15 cm ist, wenn die Abtastfrequenz 1 GHz ist. Wenn die Abtastfrequenz weiter auf 2 GHz verdoppelt wird, beträgt die Abtastperiode 0,5 Nanosekunden (ns), sodass eine Abtastperiode 7,5 Zentimeter (cm) entspricht. Dies bedeutet, dass die Abstandsmessauflösung halbiert werden kann, wenn die Abtastfrequenz verdoppelt wird. Folglich ermöglichen die Erhöhung der Abtastfrequenz und Verkürzung der Abtastperiode eine Berechnung des Abstands zum Objekt 90 mit höherer Genauigkeit.
  • 1.9 Beispielhafte Chipkonfiguration
  • 7 ist ein Diagramm, das eine beispielhafte Chipkonfiguration des lichtempfangenden Bereichs gemäß der ersten Ausführungsform darstellt. Wie in 7 dargestellt ist, hat der ToF-Sensor 1 zum Beispiel eine Struktur eines gebondeten Chips 50, in dem ein erster Chip 51 und ein zweiter Chip 52 vertikal aneinander gebondet sind. Der erste Chip 51 ist beispielsweise ein Halbleiterchip, in dem die fotoelektrischen Umwandlungsbereiche 21 der SPAD-Pixel 20 in einer Matrix angeordnet sind, und der zweite Chip 52 ist beispielsweise ein Halbleiterchip, in dem die Leseschaltungen 22 der SPAD-Pixel 20, die peripheren Schaltungen und dergleichen ausgebildet sind.
  • Beispielsweise kann ein sogenanntes direktes Bonden, bei dem Bonding-Oberflächen der ersten und zweiten Chips 51 und 52 abgeflacht bzw. eingeebnet werden und der erste und zweite Chip 51 und 52 durch intermolekulare Kraft aneinander gebondet werden, genutzt werden, um die ersten und zweiten Chips 51 und 52 aneinander zu bonden. Die vorliegende Offenbarung ist jedoch nicht darauf beschränkt, und beispielsweise kann ein sogenanntes Cu-Cu-Bonden, bei dem aus Kupfer (Cu) bestehende Elektroden-Pads, die auf den Bonding-Oberflächen der ersten und zweiten Chips 51 und 52 ausgebildet sind, aneinander gebondet werden, ein anderes Bump- bzw. Höcker-Bonden oder dergleichen verwendet werden.
  • Die ersten und zweiten Chips 51 und 52 sind zum Beispiel über einen Verbindungsbereich wie etwa eine Silizium-Durchkontaktierung (TSV), die das Halbleitersubstrat durchdringt, elektrisch verbunden. Zum Verbinden unter Ausnutzung von TSVs können beispielsweise ein sogenanntes Doppel-TSV-Verfahren, bei dem zwei TSVs, eine auf dem ersten Chip 51 vorgesehene TSV und eine vom ersten Chip 51 zum zweiten Chip 52 vorgesehene TSV, auf äußeren Oberflächen der Chips verbunden sind, ein sogenanntes gemeinsames TSV-Verfahren, bei dem die ersten und zweiten Chips 51 und 52 mittels einer vom ersten Chip 51 zum zweiten Chip 52 hindurchgehenden TSV verbunden sind, oder dergleichen übernommen werden.
  • Die ersten und zweiten Chips 51 und 52 sind jedoch über einen Cu-Cu-Bonding-Bereich oder einen Höcker-Bonding-Bereich elektrisch verbunden, wenn Cu-Cu-Bonding oder Höcker-Bonding genutzt wird, um die ersten und zweiten Chips 51 und 52 aneinander zu bonden.
  • Der in 7 dargestellte gebondete Chip 50 kann zusätzlich zum lichtempfangenden Bereich 14 die Berechnungseinheit 15, den lichtemittierenden Bereich 13, den Controller 11 und dergleichen enthalten.
  • 1.10 Beispielhafte Querschnittsstruktur
  • 8 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur des ersten Chips gemäß der ersten Ausführungsform darstellt. 9 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene A-A in 8 darstellt. 8 zeigt eine beispielhafte Querschnittsstruktur eines fotoelektrischen Umwandlungsbereichs 21 in einem SPAD-Pixel 20. In Wirklichkeit sind jedoch fotoelektrische Umwandlungsbereiche 21 mit der in 8 veranschaulichten Querschnittsstruktur auf dem ersten Chip 51 in einer Matrix wie in 9 dargestellt angeordnet. In 8 ist eine untere Oberfläche des ersten Chips 51 eine Lichteinfallsfläche.
  • Wie in 8 dargestellt ist, enthält der erste Chip 51 ein Halbleitersubstrat 150, eine Verdrahtungsschicht 170, einen Einebnungsfilm 161 und eine On-Chip-Linse 162.
  • Das Halbleitersubstrat 150 kann ein Halbleitersubstrat sein, das aus einem Halbleitermaterial oder einem Verbund-Halbleitermaterial wie etwa Silizium (Si), Germanium (Ge), Galliumarsenid (GaAs), Indiumgalliumarsenid (InGaAs), Galliumphosphid (GaP) oder Indiumphosphid (InP) besteht.
  • Im Halbleitersubstrat 150 ist ein fotoelektrischer Umwandlungsbereich 21 ausgebildet, der ein Halbleitergebiet 151 vom N-Typ, ein Halbleitergebiet 153 vom P-Typ, ein Halbleitergebiet 154 vom (P+)-Typ und eine Kontaktschicht 156 enthält.
  • Das Halbleitergebiet 151 vom N-Typ ist beispielsweise ein Wannengebiet und kann ein Gebiet sein, das eine niedrige Konzentration von Donatoren enthält. Das Halbleitergebiet 151 vom N-Typ kann beispielsweise ein rechteckiges Parallelepipedgebiet mit einem quadratischen oder rechteckigen Querschnitt parallel zu einer inneren Oberfläche des Halbleitersubstrats 150 sein.
  • Das Halbleitergebiet 153 vom P-Typ ist beispielsweise ein Gebiet, das eine vorbestimmte Konzentration von Akzeptoren enthält, und kann ein Gebiet sein, das zumindest Seiten- und Bodenflächen des Halbleitergebiets 151 vom N-Typ umgibt.
  • Das Halbleitergebiet 155 vom (N+)-Typ ist zum Beispiel ein Gebiet, das eine hohe Konzentration von Donatoren enthält, und ist auf einer äußeren Oberfläche des Halbleitersubstrats 150 angeordnet. Das Halbleitergebiet 154 vom (P+)-Typ ist beispielsweise ein Gebiet, das eine höhere Konzentration von Akzeptoren als das Halbleitergebiet 153 vom P-Typ enthält, und ist nahe der äußeren Oberfläche des Halbleitersubstrats 150 so angeordnet, dass das Halbleitergebiet 154 vom (P+)-Typ das Halbleitergebiet 155 vom (N+)-Typ berührt.
  • Das Halbleitergebiet 154 vom (P+)-Typ und das Halbleitergebiet 155 vom (N+)-Typ bilden einen PN-Übergang, der einen Lawinenstrom erzeugt. Folglich wird eine durch fotoelektrische Umwandlung im Halbleitergebiet 151 vom N-Typ erzeugte elektrische Ladung in das Halbleitergebiet 154 vom (P+)-Typ eingeführt und wird dann aufgrund einer zwischen dem Halbleitergebiet 154 vom (P+)-Typ und dem Halbleitergebiet 155 vom (N+)-Typ gegebenen verhältnismäßig großen Potentialdifferenz verstärkt (zu einer Lawine verstärkt).
  • Das Halbleitergebiet 155 vom (N+)-Typ fungiert auch als Kathode des fotoelektrischen Umwandlungsbereichs 21 und dient als Kontaktschicht, um den erzeugten Lawinenstrom aus dem Halbleitersubstrat 150 zu extrahieren. Auf der anderen Seite ist die Kontaktschicht 156 in einem Gebiet des Halbleitergebiets 153 vom P-Typ ausgebildet, das an der äußeren Oberfläche des Halbleitersubstrats 150 liegt und vom Halbleitergebiet 155 vom (N+)-Typ getrennt ist. Die Kontaktschicht 156 ist beispielsweise ein Gebiet vom (P++)-Typ, das eine hohe Konzentration von Akzeptoren enthält, und dient auch als Anode des fotoelektrischen Umwandlungsbereichs 21. Wenn beispielsweise die äußere Oberfläche des Halbleitersubstrats 150, an der die Kontaktschicht 156 ausgebildet ist, in Draufsicht betrachtet wird (siehe zum Beispiel 9, die später beschrieben wird), ist die Kontaktschicht 156 entlang inneren und äußeren Umfängen einer Fläche, die von einem Elementtrennungsbereich 157 umgeben ist, an der äußeren Oberfläche des Halbleitersubstrats 150 ausgebildet. Betrachtet man die Querschnittsstruktur, in der der Elementtrennungsbereich 157 als in zwei linke und rechte Gebiete (worauf als Elementtrennungsgebiete verwiesen wird) 157A und 157B unterteilt betrachtet wird, ist, wie in 8 dargestellt ist, die Kontaktschicht 156 in zwei Gebieten in einem Gebiet ausgebildet, das durch die beiden linken und rechten Elementtrennungsgebiete 157A und 157B definiert ist, wobei die beiden Gebiete an der Seite der äußeren Oberfläche des Halbleitersubstrats 150 und nahe den Elementtrennungsgebieten 157A bzw. 157B liegen.
  • Das Halbleitergebiet 155 vom (N+)-Typ kann auch als Anode des fotoelektrischen Umwandlungsbereichs 21 fungieren. In diesem Fall fungiert die Kontaktschicht 156 als Kathode des fotoelektrischen Umwandlungsbereichs 21.
  • Die fotoelektrischen Umwandlungsbereiche 21 mit der obigen Konfiguration sind durch die Elementtrennungsbereiche 157 wie oben beschrieben definiert. Beispielsweise sind die Elementtrennungsbereiche 157 in Gräben vorgesehen, die in einem Gittermuster ausgebildet sind, wenn sie von der Seite der äußeren oder inneren Oberfläche des Halbleitersubstrats 150 aus betrachtet werden, wie in 8 und 9 dargestellt ist.
  • Jeder Elementtrennungsbereich 157 enthält beispielsweise Isolierfilme 159, die innere seitliche Oberflächen eines im Halbleitersubstrat 150 ausgebildeten Grabens bedecken, und einen reflektierenden Film 158, der im Graben eingebettet ist, wobei die Isolierfilme 159 auf den inneren seitlichen Oberflächen ausgebildet sind. Hier ist es nicht wesentlich, dass der reflektierende Film 158 im Graben vollständig eingebettet ist, und in einem Teil des Grabens kann ein Hohlraum zurückbleiben.
  • Der reflektierende Film 158 ist beispielsweise ein Film, um auf den Elementtrennungsbereich 157 einfallendes Licht zu reflektieren. Für den reflektierenden Film 158 können beispielsweise nicht nur ein reflektierendes Material, das sichtbares Licht, Infrarotlicht oder dergleichen reflektiert, wie etwa Wolfram (W) verwendet werden, sondern auch ein Material mit hohem Brechungsindex wie etwa Silizium (Si), Germanium (Ge), Galliumphosphid (GaP), Aluminiumoxid (Al2O3), Ceroxid (CeO2), Hafniumoxid (HfO2), Indiumoxid (In2O3), Zinnoxid (SnO2), Niobpentoxid (Nb2O5), Magnesiumoxid (MgO), Tantalpentoxid (Ta2O5), Titanpentoxid (Ti3Os), ein anderes Titanoxid (wie etwa TiO oder TiO2), Wolframoxid (WO3), Yttriumoxid (Y2O3), Zinkoxid (ZnO), Zirkonoxid (ZrO2), Cerfluorid (CeF3), Gadoliniumfluorid (GdF3), Lanthanfluorid (LaF3) oder Neodymfluorid (NdF3). Das Material mit hohem Brechungsindex kann ein Material mit einem höheren Brechungsindex als das Substratmaterial des Halbleitersubstrats 150 sein.
  • Die Isolierfilme 159 sind beispielsweise Filme, um einen elektrischen Kontakt zwischen dem Halbleitersubstrat 150 und dem reflektierenden Film 158 zu verhindern. Beispielsweise kann ein isolierendes Material wie etwa Siliziumoxid (SiO2) oder Siliziumnitrid (SiN) für die Isolierfilme 159 verwendet werden. Die Isolierfilme 159 können jedoch weggelassen werden, wenn für den reflektierenden Film 158 ein isolierendes Material verwendet wird.
  • Indem man benachbarte SPAD-Pixel 20 durch die Elementtrennungsbereiche 157 auf diese Weise trennt, kann die Leckage von Licht in benachbarte SPAD-Pixel 20 reduziert werden, sodass eine Farbmischung zwischen benachbarten Pixeln begrenzt werden kann.
  • 8 veranschaulicht einen Elementtrennungsbereich 157 vom sogenannten Front-Full-Trench-Isolation- (FFTI-) Typ, der von der äußeren Oberfläche zur inneren Oberfläche des Halbleitersubstrats 150 hindurchgeht. Jedoch ist die Konfiguration des Elementtrennungsbereichs 157 nicht auf den FFTI-Typ beschränkt. Beispielsweise können verschiedene Modifikationen vorgenommen werden, wie etwa ein Elementtrennungsbereich vom sogenannten Deep-Trench-Isolation- (DTI-) Typ, der von der äußeren Oberfläche bis zur Mitte des Halbleitersubstrats vorhanden ist, oder ein Elementtrennungsbereich vom sogenannten Reverse-Deep-Trench-Isolation- (RDTI-) Typ, der von der inneren Oberfläche bis zur Mitte des Halbleitersubstrats 150 vorhanden ist.
  • Ferner ist eine Vielzahl von regelmäßig oder zufällig angeordneten konkav-konvexen Bereichen 181 auf der inneren Oberfläche des Halbleitersubstrats 150 über die ganzen jeweiligen, durch die Elementtrennungsbereiche 157 definierten Gebiete 180, das heißt über eine effektive Lichteinfallsfläche des Halbleitersubstrats 150, vorgesehen, wie in 8 und 9 dargestellt ist.
  • Die einzelnen konkav-konvexen Bereiche 181 können verschiedene Formen aufweisen, wie etwa beispielsweise ein polygonales Prisma wie etwa ein viereckiges Prisma, ein dreieckiges Prisma oder ein hexagonales Prisma, eine polygonale Pyramide wie etwa eine viereckige Pyramide, eine dreieckige Pyramide oder eine hexagonale Pyramide, einen polygonalen Pyramidenstumpf wie etwa einen viereckigen Pyramidenstumpf, einen dreieckigen Pyramidenstumpf oder einen hexagonalen Pyramidenstumpf, einen Konus (einschließlich eines elliptischen Konus) oder einen abgeschnittenen Konus. Die Änderung des Brechungsindex entlang der Lichtausbreitungsrichtung kann beispielsweise eher allmählich eingerichtet werden, indem die Form so ausgebildet wird, dass der Durchmesser in Richtung der Spitze abnimmt. Die Form schließt auch eine Form mit einer Spitze unter einem stumpfen Winkel oder eine Form mit einer flachen Spitze (wie etwa einen abgeschnittenen Pyramidenstumpf oder einen abgeschnittenen Konus) ein.
  • Das Innere des konkav-konvexen Bereichs 181 kann mit einem Isolierfilm wie etwa Siliziumoxid (SiO2) oder Siliziumnitrid (SiN) gefüllt sein. Die Größe jedes konkav-konvexen Bereichs 181 kann auf verschiedene Weise modifiziert werden, solange sie eine Größe ist, die den Reflexionsgrad der inneren Oberfläche des Halbleitersubstrats 150 reduzieren kann, wie etwa mehrere Mikrometer (µm) oder mehrere Nanometer (nm).
  • Indem man die innere Oberfläche des Halbleitersubstrats 150 mit einer Mottenaugenstruktur ausbildet, die auf diese Weise eine Vielzahl konkav-konvexer Bereiche 181 enthält, ist es möglich, den Reflexionsgrad auf der inneren Oberfläche des Halbleitersubstrats 150 zu reduzieren. Dadurch ist es möglich, die Effizienz des Lichteinfalls auf dem fotoelektrischen Umwandlungsbereich 21 zu erhöhen, und infolgedessen ist es möglich, die Quanteneffizienz des fotoelektrischen Umwandlungsbereichs 21 zu erhöhen.
  • Ferner kann, indem man den reflektierenden Film 158 im Elementtrennungsbereich 157 und die Mottenaugenstruktur kombiniert, durch die Mottenaugenstruktur gestreutes oder gebeugtes Licht vom reflektierenden Film 158 reflektiert werden. Dadurch ist es möglich, die Laufstrecke eines auf das Halbleitersubstrat 150 fallenden Lichts innerhalb des fotoelektrischen Umwandlungsbereichs 21 zu verlängern, und infolgedessen ist es möglich, die Quanteneffizienz des fotoelektrischen Umwandlungsbereichs 21 zu erhöhen.
  • Die On-Chip-Linse 162 ist über den aus einem Siliziumoxidfilm, einem Siliziumnitridfilm oder dergleichen bestehenden Einebnungsfilm 161 auf der inneren Oberfläche des Halbleitersubstrats 150 vorgesehen. Der Einebnungsfilm 161 kann eine Pinning-Schicht oder dergleichen enthalten, die an einer Grenze mit dem Halbleitersubstrat 151 vorgesehen ist. Eine äußere Oberfläche der On-Chip-Linse 162 ist beispielsweise gekrümmt, was ermöglicht, dass das einfallende Licht nahe der Mitte des fotoelektrischen Umwandlungsbereichs 21 fokussiert wird.
  • Auf der anderen Seite ist die oben beschriebene Verdrahtungsschicht 170 auf der Seite der äußeren Oberfläche des Halbleitersubstrats 150 vorgesehen. Die Verdrahtungsschicht 170 enthält einen Isolierfilm 171 wie etwa einen Siliziumoxidfilm oder einen Siliziumnitridfilm. Beispielsweise sind im Isolierfilm 171 eine Durchgangsverdrahtung 172 in Kontakt mit dem Halbleitergebiet 155 vom (N+)-Typ, das auch als die Kathode des fotoelektrischen Umwandlungsbereichs 21 fungiert, und eine Durchgangsverdrahtung 176 in Kontakt mit der Kontaktschicht 156 vorgesehen, die auch als Anode des fotoelektrischen Umwandlungsbereichs 21 fungiert.
  • Ferner sind beispielsweise ein aus Kupfer (Cu) bestehendes Elektroden-Pad 173 in Kontakt mit der Durchgangsverdrahtung 172 und ein aus Kupfer (Cu) bestehendes Elektroden-Pad 177 in Kontakt mit der Durchgangsverdrahtung 176 an einer äußeren Oberfläche des Isolierfilms 171 (einer dem Halbleitersubstrat 150 entgegengesetzten Oberfläche) vorgesehen. Diese Elektroden-Pads 173 und 177 werden als Elektroden-Pads genutzt, wenn die ersten und zweiten Chips 51 und 52 Cu-Cugebondet werden. Wenn die ersten und zweiten Chips 51 und 52 in einer anderen Bonding-Form elektrisch und mechanisch gebondet werden, können folglich die Elektroden-Pads 173 und 177 durch für das Bonden verwendete Bauteile ersetzt werden.
  • Obgleich eine detaillierte Veranschaulichung des zweiten Chips 52 weggelassen wird, zeigt 8 aus Kupfer (Cu) bestehende Elektroden-Pads 191 und 195, die für ein Cu-Cu-Bonding genutzt werden, einen Anschluss 192, der ein elektrisches Potential (zum Beispiel +3 Volt (V)) an die Kathode des fotoelektrischen Umwandlungsbereichs 21 anlegt, und einen Anschluss 196, der ein elektrisches Potential (zum Beispiel -20 Volt (V)) an die Anode anlegt.
  • Wenn über den Anschluss 192 beispielsweise +3 Volt (V) an die Kathode (das Halbleitergebiet 155 vom (N+)-Typ) des fotoelektrischen Umwandlungsbereichs 21 angelegt wird und über den Anschluss 196 -20 V an die Anode (die Kontaktschicht 156) angelegt wird, wird beispielsweise theoretisch eine Sperrvorspannung V_SPAD von 23 V zwischen dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ angelegt.
  • Da die Sperrvorspannung V_SPAD eine Potentialdifferenz ist, die gleich der Durchbruchspannung des Halbleitergebiets 155 vom (N+) -Typ und des Halbleitergebiets 154 vom (P+)-Typ oder größer ist, bewegt sich eine durch fotoelektrische Umwandlung erzeugte elektrische Ladung aufgrund eines im Halbleitergebiet 151 vom N-Typ ausgebildeten elektrischen Feldes und wird in das Halbleitergebiet 154 vom (P+)-Typ eingeführt, sodass ein Lawinenstrom in dem aus dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ bestehenden PN-Übergangsgebiet erzeugt wird. Dieser Lawinenstrom wird über den Anschluss 192 in die Leseschaltung 22 eingespeist.
  • P- und N-Typen können in der oben beschriebenen Konfiguration gegeneinander getauscht werden. In diesem Fall wird das Halbleitergebiet 151 vom N-Typ durch ein Halbleitergebiet vom P-Typ ersetzt, wird das Halbleitergebiet 153 vom P-Typ durch ein Halbleitergebiet vom N-Typ ersetzt, wird das Halbleitergebiet 154 vom (P+)-Typ durch ein Halbleitergebiet vom (N+)-Typ ersetzt und wird das Halbleitergebiet 155 vom (N+)-Typ durch ein Halbleitergebiet vom (P+)-Typ ersetzt. Ferner wird die Kontaktschicht 156 durch ein Gebiet vom (N++)-Typ ersetzt.
  • 1.11 Mottenaugenstruktur
  • Mit Verweis auf 10 wird hier die Mottenaugenstruktur beschrieben. Die Mottenaugenstruktur ist ein Gebiet, in dem feine konkav-konvexe Bereiche 181 ausgebildet sind. Die Konkavität und Konvexität ändern sich jedoch in Abhängigkeit davon, wo eine als Referenz verwendete Oberfläche (worauf hier im Folgenden als Referenzoberfläche verwiesen wird) eingerichtet wird.
  • Die Mottenaugenstruktur ist ein Gebiet mit einer feinen konkav-konvexen Struktur, die an der Grenzfläche (der Grenzfläche auf der Seite der lichtempfangenden Oberfläche) des Halbleitergebiets 153 vom P-Typ über dem Halbleitergebiet 151 vom N-Typ ausgebildet ist, das das Ladungsspeicherungsgebiet ist. Diese konkav-konvexe Struktur ist auf dem Halbleitergebiet 151 vom N-Typ, das heißt auf der Seite der lichtempfangenden Oberfläche des Halbleitersubstrats 150, ausgebildet. Daher kann die Referenzoberfläche eine vorbestimmte Oberfläche des Halbleitersubstrats 150 sein. Diese Beschreibung setzt sich unter Bezugnahme auf den Fall fort, in dem ein Teil des Halbleitersubstrats 150 beispielsweise als Referenzoberfläche genutzt wird.
  • 10 ist eine vergrößerte Ansicht der Umgebung konkav-konvexer Bereiche 181. Der Fall, in dem der Einebnungsfilm 161 eine Pinning-Schicht 163 als dessen Unterschicht (auf der Seite des Halbleitersubstrats 150) und einen transparenten Isolierfilm 164 über der Pinning-Schicht 163 umfasst, wird in dieser Beschreibung veranschaulicht.
  • In dem in 10 dargestellten Beispiel wird angenommen, dass Grenzflächen der konkav-konvexen Bereiche 181 zwischen der Pinning-Schicht 163 und dem transparenten Isolierfilm 164 obere Oberflächen 181-1 sind. Ferner sind Grenzflächen zwischen der Pinning-Schicht 163 und dem Halbleitersubstrat 150 untere Oberflächen 181-2.
  • Ferner wird angenommen, dass eine Referenzoberfläche A eine Oberfläche an der Position ist, wo die oberen Oberflächen 181-1 ausgebildet sind, und eine Referenzoberfläche C eine Oberfläche an der Position ist, wo die unteren Oberflächen 181-2 ausgebildet sind. Es wird angenommen, dass die Referenzoberfläche B eine zwischen der Referenzoberfläche A und der Referenzoberfläche C gelegene Oberfläche, das heißt eine zwischen den oberen Oberflächen 181-1 und den unteren Oberflächen 181-2 gelegene Oberfläche, ist.
  • Wenn die Referenzoberfläche A als Referenz verwendet wird, sind die Formen der konkav-konvexen Bereiche 181 konkave Formen in Bezug auf die Referenzoberfläche A. Das heißt, wenn die Referenzoberfläche A als Referenz verwendet wird, liegen die unteren Oberflächen 181-2 an einer Position, die unter der Referenzoberfläche A (= obere Oberfläche 181-1) zurückgesetzt ist, und sind die konkav-konvexen Bereiche 181 Gebiete, wo feine Konkavitäten ausgebildet sind. Mit anderen Worten ist, wenn die Referenzoberfläche A als Referenz verwendet wird, eine Konkavität zwischen einer oberen Oberfläche 181-1 und einer oberen Oberfläche 181-1 ausgebildet, und somit können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, in denen feine Konkavitäten ausgebildet sind.
  • Wenn die Referenzoberfläche C als Referenz verwendet wird, sind die Formen der konkav-konvexen Bereiche 181 konvexe Formen in Bezug auf die Referenzoberfläche C. Das heißt, wenn die Referenzoberfläche C als Referenz verwendet wird, liegen die oberen Oberflächen 181-1 an einer Position, die über die Referenzoberfläche C (= untere Oberfläche 181-2) hinausragt, und sind die konkav-konvexen Bereiche 181 Gebiete, wo feine Konvexitäten ausgebildet sind. Mit anderen Worten ist, wenn die Referenzoberfläche C als Referenz verwendet wird, eine Konvexität zwischen einer unteren Oberfläche 181-2 und einer unteren Oberfläche 181-2 ausgebildet, und somit können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, in denen feine Konvexitäten ausgebildet sind.
  • Wenn die Referenzoberfläche B als Referenz verwendet wird, sind die Formen der konkav-konvexen Bereiche 181 konkave und konvexe Formen in Bezug auf die Referenzoberfläche B. Das heißt, wenn die Referenzoberfläche B als Referenz verwendet wird, liegen die unteren Oberflächen 181-2 an einer Position, die unter der Referenzoberfläche B (= in der Mitte zwischen oberen Oberflächen 181-1 und unteren Oberflächen 181-2 gelegene Oberfläche) zurückgesetzt ist, und somit können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, wo feine Konkavitäten ausgebildet sind.
  • Wenn die Referenzoberfläche B als Referenz verwendet wird, liegen ferner die oberen Oberflächen 181-1 an einer Position, die über die Referenzoberfläche B hinausragt, und somit können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, in denen feine Konvexitäten ausgebildet sind.
  • Die Mottenaugenstruktur kann je nachdem, wo die Referenzoberfläche in der Querschnittsansicht des SPAD-Pixels 20 wie oben beschrieben festgelegt wird, als ein mit feinen Konkavitäten ausgebildetes Gebiet, ein mit feinen Konvexitäten ausgebildetes Gebiet oder ein mit feinen Konkavitäten und Konvexitäten ausgebildetes Gebiet ausgedrückt werden.
  • In der folgenden Beschreibung werden als ein Beispiel die konkav-konvexen Bereiche 181 mit Bezug auf den Fall beschrieben, in dem die Referenzoberfläche A, das heißt die obere Oberfläche 181-1, als Referenzoberfläche genutzt wird, und die Beschreibung setzt sich unter der Annahme fort, dass die konkav-konvexen Bereiche 181 Gebiete sind, in denen feine Konkavitäten ausgebildet sind.
  • Der Abstand von Mitte zu Mitte bzw. der Pitch von Konkavitäten, der der Periode von Konkavitäten in den konkav-konvexen Bereichen 181 entspricht, ist zum Beispiel auf 250 nm oder mehr festgelegt.
  • In dem in 10 dargestellten Beispiel ist der Fall, in dem die konkav-konvexen Bereiche 181 eine Form aufweisen, die die Ebenen der oberen Oberfläche 181-1 und der unteren Oberfläche 181-2 kombiniert, als ein Beispiel dargestellt; die konkav-konvexen Bereiche 181, auf die die vorliegende Technologie angewendet wird, schließen jedoch auch jene mit einer Form wie in 11 dargestellt ein.
  • In 11 dargestellte konkav-konvexe Bereiche 181 sind in einer Querschnittsansicht in der Form von Dreiecken ausgebildet. Selbst mit solch einer Form kann eine Referenzoberfläche festgelegt werden und kann in Bezug auf die Referenzoberfläche eine Konkavität oder eine Konvexität definiert werden.
  • Da die in 11 dargestellten konkav-konvexen Bereiche 181 in einer Querschnittsansicht in der Form von Dreiecken ausgebildet sind, wird als ein Beispiel der Referenzoberfläche eine deren Scheitelpunkte verbindende Oberfläche als Referenzoberfläche festgelegt.
  • Eine Oberfläche, die eine Scheitelpunkte auf der Seite des transparenten Isolierfilms 164 unter den Scheitelpunkten der Dreiecke der konkav-konvexen Bereiche 181 in der Querschnittsansicht verbindende Linie enthält, wird als Referenzoberfläche A definiert. Eine Oberfläche, die eine Linie enthält, die Scheitelpunkte auf der Unterseite, das heißt Scheitelpunkte auf der Seite des Halbleitergebiets 151 vom N-Typ, unter den Scheitelpunkten der Dreiecke der konkav-konvexen Bereiche 181 verbindet, wird als Referenzoberfläche C definiert. Eine Oberfläche zwischen der Referenzoberfläche A und der Referenzoberfläche C wird als Referenzoberfläche B definiert.
  • Selbst wenn eine Referenzoberfläche an den Positionen von Scheitelpunkten der Dreiecke der konkav-konvexen Bereiche 181 wie oben beschrieben festgelegt wird, kann ähnlich dem mit Verweis auf 10 beschriebenen Fall die Form der konkav-konvexen Bereiche 181 in Abhängigkeit davon, wo die Referenzoberfläche festgelegt wird, verschieden ausgedrückt werden.
  • Das heißt, wenn die Referenzoberfläche A als Referenz verwendet wird, sind die Formen der konkav-konvexen Bereiche 181 Formen mit dreieckigen (talartigen) Konkavitäten, die von der Referenzoberfläche A aus nach unten gewandt sind. Das heißt, wenn die Referenzoberfläche A als Referenz verwendet wird, liegen Talgebiete unter der Referenzoberfläche A und entsprechen die Talgebiete Konkavitäten, und daher sind die konkav-konvexen Bereiche 181 Gebiete, in denen feine Konkavitäten ausgebildet sind. Mit anderen Worten ist, wenn die Referenzoberfläche A als Referenz verwendet wird, eine Konkavität zwischen dem Scheitelpunkt eines Dreiecks und dem Scheitelpunkt eines benachbarten Dreiecks ausgebildet, und somit können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, in denen feine Konkavitäten ausgebildet sind.
  • Wenn die Referenzoberfläche C als Referenz verwendet wird, sind die Formen der konkav-konvexen Bereiche 181 Formen mit dreieckigen (spitzen) Konvexitäten, die von der Referenzoberfläche C aus nach oben gewandt sind. Das heißt, wenn die Referenzoberfläche C als Referenz verwendet wird, liegen Spitzengebiete über der Referenzoberfläche C und entsprechen die Spitzengebiete Konvexitäten, und daher sind die konkav-konvexen Bereiche 181 Gebiete, in denen feine Konvexitäten ausgebildet sind. Mit anderen Worten ist, wenn die Referenzoberfläche C als Referenz verwendet wird, eine Konvexität zwischen den Scheitelpunkten der Basis eines Dreiecks ausgebildet, und somit können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, in denen feine Köpfe ausgebildet sind.
  • Wenn die Referenzoberfläche B als Referenz verwendet wird, sind die Formen der konkav-konvexen Bereiche 181 Formen mit Konkavitäten und Konvexitäten (Tälern und Spitzen) in Bezug auf die Referenzoberfläche B. Das heißt, wenn die Referenzoberfläche B als Referenz verwendet wird, können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, die mit feinen Konkavitäten und Konvexitäten ausgebildet sind, da sie Konkavitäten, die unter der Referenzoberfläche B Täler ausbilden, und Konvexitäten, die über der Referenzoberfläche B Spitzen ausbilden, aufweisen.
  • Selbst wenn die Formen der konkav-konvexen Bereiche 181 wie in 11 dargestellt Zickzackformen mit Spitzen und Tälern sind, können die konkav-konvexen Bereiche 181 als Gebiete definiert werden, die je nachdem, wo die Referenzoberfläche in der Querschnittsansicht des SPAD-Pixels 20 wie oben beschrieben festgelegt ist, als mit feinen Konkavitäten ausgebildete Gebiete, mit feinen Konvexitäten ausgebildete Gebiete oder mit feinen Konkavitäten und Konvexitäten ausgebildete Gebiete ausgedrückt werden.
  • Wenn beispielsweise die Referenzoberfläche die Grenzfläche zwischen einer Schicht über dem transparenten Isolierfilm 164 im Einebnungsfilm 161 und dem transparenten Isolierfilm 164 in dem konkav-konvexen Bereichen 181 ist, die in 10 oder 11 dargestellt sind, können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, die mit feinen Konkavitäten ausgebildet sind, da die Formen der konkav-konvexen Bereiche 181 zurückgesetzte Gebiete (Täler) aufweisen.
  • Wenn die Referenzoberfläche die Grenzfläche zwischen dem Halbleitergebiet 153 vom P-Typ und dem Halbleitergebiet 151 vom N-Typ ist, können ferner die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, die mit feinen Konvexitäten ausgebildet sind, da die Formen der konkav-konvexen Bereiche 181 hervorstehende Gebiete (Spitzen) aufweisen.
  • Mit einer vorbestimmten flachen Oberfläche in der Querschnittsansicht des SPAD-Pixels 20, die als Referenzoberfläche genutzt wird, können die Formen der konkav-konvexen Bereiche 181 auch in Abhängigkeit davon ausgedrückt werden, ob sie in Bezug auf die Referenzoberfläche wie oben beschrieben in der Form von Tälern ausgebildet sind oder in der Form von Spitzen ausgebildet sind.
  • Ferner kann ein Gebiet zwischen SPAD-Pixeln 20, das heißt, ein den Elementtrennungsgebieten 157 entsprechendes Gebiet, als flaches Gebiet ausgebildet sein, in dem keine konkav-konvexen Bereiche 181 ausgebildet sind. In diesem Fall kann eine dieses flache Gebiet enthaltende Oberfläche als Referenzoberfläche genutzt werden.
  • Wenn die das flache Gebiet enthaltende Oberfläche als Referenzoberfläche genutzt wird, können die konkav-konvexen Bereiche 181 als Gebiete bezeichnet werden, in denen feine Konkavitäten ausgebildet sind, da man die Formen der konkav-konvexen Bereiche 181 als Formen bezeichnen kann, die unter der Referenzoberfläche zurückgesetzte Bereiche aufweisen, das heißt talartige Bereiche aufweisen.
  • Die konkav-konvexen Bereiche 181 sind Gebiete, die in Abhängigkeit davon, wo die Referenzoberfläche in der Querschnittsansicht des SPAD-Pixels 20 wie oben beschrieben festgelegt wird, als mit feinen Konkavitäten ausgebildete Gebiete, mit feinen Konvexitäten ausgebildete Gebiete oder mit feinen Konkavitäten und Konvexitäten ausgebildete Gebiete bezeichnet werden können.
  • Die konkav-konvexen Bereiche 181 können je nach dem Verfahren zum Ausbilden der konkav-konvexen Bereiche 181 als mit feinen Konkavitäten ausgebildete Ausformungsgebiete, mit feinen Konvexitäten ausgebildete Ausformungsgebiete oder mit feinen Konkavitäten und Konkavitäten ausgebildete Ausformungsgebiete ausgedrückt werden.
  • Falls beispielsweise die in 10 dargestellten konkav-konvexen Bereiche 181 so ausgebildet werden, dass sie Formen aufweisen, bei dem die oberen Oberflächen 181-1 größer als die unteren Oberflächen 181-2 ausgebildet sind, kann man sagen, dass die Konkavitäten entsprechenden Bereiche gebildet werden, indem das Substrat (das Halbleitersubstrat 150) gekratzt bzw. abgeschabt wird, während Konvexitäten entsprechende Bereiche übrigbleiben.
  • Wenn die Menge des abgeschabten Substrats 50% übersteigt, ist die Menge des abgeschabten Substrats (Silizium) größer als die Menge des verbliebenen Substrats, sodass Konkavitäten und Konvexitäten ausgebildet sind, wobei die Fläche der Konkavitäten größer als die Fläche der Konvexitäten ist. Das heißt, in diesem Ausbildungsverfahren werden Konkavitäten und Konvexitäten so gebildet, dass Konkavitäten dominieren, und somit kann ausgedrückt werden, dass die konkav-konvexen Bereiche 181 gebildet werden, indem eine Vielzahl von Konvexitäten vorgesehen wird.
  • Wenn ferner die Menge des abgeschabten Substrats 50% oder weniger beträgt, ist die Menge des abgeschabten Substrats (Siliziums) geringer als die Menge des verbliebenen Substrats, sodass Konkavitäten und Konvexitäten gebildet werden, wobei die Fläche der Konkavitäten kleiner als die Fläche der Konvexitäten ist. Das heißt, in diesem Ausbildungsverfahren werden Konkavitäten und Konvexitäten so ausgebildet, dass Konvexitäten dominieren, und somit kann ausgedrückt werden, dass die konkav-konvexen Bereiche 181 gebildet werden, indem eine Vielzahl von Konkavitäten vorgesehen wird.
  • Aus diesen Tatsachen kann je nach dem Verfahren zum Ausbilden der konkav-konvexen Bereiche 181 abgeleitet werden, dass eine Vielzahl von Konvexitäten vorgesehen wird, wenn Konkavitäten dominant sind, und kann abgeleitet werden, dass eine Vielzahl von Konkavitäten vorgesehen wird, wenn das Substrat dominiert.
  • Die konkav-konvexen Bereiche 181 sind Gebiete, die je nach dem Verfahren zum Ausbilden der konkav-konvexen Bereiche 181 wie oben beschrieben als mit feinen Konkavitäten ausgebildete Gebiete, mit feinen Konvexitäten ausgebildete Gebiete oder mit feinen Konkavitäten und Konvexitäten ausgebildete Gebiete in der Querschnittsansicht des SPAD-Pixels 20 ausgedrückt werden können.
  • Obgleich sich die folgende Beschreibung unter der Annahme fortsetzt, dass die konkav-konvexen Bereiche 181 mit feinen Konkavitäten ausgebildete Gebiete sind, kann dieser Ausdruck bzw. diese Beschreibung auch Gebiete wie etwa mit feinen Konvexitäten ausgebildete Gebiete oder mit feinen Konkavitäten und Konvexitäten ausgebildete Gebiete wie oben beschrieben einschließen.
  • 1.12 Betrieb und Vorteile
  • Indem man die obige Konfiguration gemäß der vorliegenden Ausführungsform bereitstellt, ist es möglich, den Reflexionsgrad auf der inneren Oberfläche des Halbleitersubstrats 150 zu reduzieren. Dadurch ist es möglich, die Effizienz des Lichteinfalls auf den fotoelektrischen Umwandlungsbereich 21 zu erhöhen, und infolgedessen ist es möglich, die Quanteneffizienz des fotoelektrischen Umwandlungsbereichs 21 zu erhöhen.
  • Indem man den reflektierenden Film 158 in dem Elementtrennungsbereich 157 und die Mottenaugenstruktur kombiniert, kann ferner durch die Mottenaugenstruktur gestreutes oder gebeugtes Licht vom reflektierenden Film 158 so reflektiert werden, dass es möglich ist, die Laufstrecke zu verlängern, und infolgedessen ist es möglich, die Quanteneffizienz des fotoelektrischen Umwandlungsbereichs 21 zu erhöhen.
  • 1.13 Modifikationen
  • In der oben beschriebenen Ausführungsform ist der Fall veranschaulicht, in dem die gesamte effektive Lichteinfallsoberfläche (Gebiet 180) auf der inneren Oberfläche des Halbleitersubstrats 150 mit den konkav-konvexen Bereichen 181 versehen ist, um eine Mottenaugenstruktur auszubilden. Jedoch ist das Gebiet, in dem die konkav-konvexen Bereiche 181 ausgebildet sind, nicht auf die gesamte effektive Lichteinfallsoberfläche (Gebiet 180) auf der inneren Oberfläche des Halbleitersubstrats 150 beschränkt. Folglich werden im Folgenden mit Verweis auf einige Beispiele Modifikationen des Gebiets 180 beschrieben, in denen die konkav-konvexen Bereiche 181 ausgebildet sind.
  • 1.13.1 Erste Modifikation
  • 12 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer ersten Modifikation veranschaulicht. 13 ist eine Querschnittsansicht, die eine Querschnittsstruktur der Ebene B-B in 12 darstellt. Ähnlich 8 zeigt 12 eine beispielhafte Querschnittsstruktur eines fotoelektrischen Umwandlungsbereichs 21 in einem SPAD-Pixel 20. In Wirklichkeit sind jedoch fotoelektrische Umwandlungsbereiche 21 mit der in 12 veranschaulichten Querschnittsstruktur auf dem ersten Chip 51 in einer Matrix wie in 13 dargestellt angeordnet. In 12 ist eine untere Oberfläche des ersten Chips 51 eine Lichteinfallsoberfläche.
  • Wie in 12 und 13 dargestellt ist, kann ein Gebiet 180B, in dem konkav-konvexe Bereiche 181 ausgebildet sind, ein Gebiet sein, das bei einem zentralen Bereich eines durch den Elementtrennungsbereich 157 definierten Gebiets (worauf hier im Folgenden als Pixelgebiet verwiesen wird) an der inneren Oberfläche des Halbleitersubstrats 150 beispielsweise über dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ liegt. Mit anderen Worten kann ein Gebiet (flacher Bereich), in dem keine konkav-konvexen Bereiche 181 ausgebildet sind, auf dem äußeren Umfang des Pixelgebiets zum Beispiel über der Kontaktschicht 156 vorhanden sein. Wenn aufwärts als die Richtung von der inneren Oberfläche zur äußeren Oberfläche des Halbleitersubstrats 150, die zur Richtung der Substratdicke des Halbleitersubstrats 150 parallel ist, definiert ist, kann dies in dieser Beschreibung als „über“ definiert werden.
  • 1.13.2 Zweite Modifikation
  • 14 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer zweiten Modifikation darstellt. 15 ist eine Querschnittsansicht, die eine Querschnittsstruktur der Ebene C-C in 14 darstellt. Ähnlich 8 zeigt 17 eine beispielhafte Querschnittsstruktur eines fotoelektrischen Umwandlungsbereichs 21 in einem SPAD-Pixel 20. In Wirklichkeit jedoch sind fotoelektrische Umwandlungsbereiche 21 mit der in 14 veranschaulichten Querschnittsstruktur auf dem ersten Chip 51 in einer Matrix wie in 15 dargestellt angeordnet. In 14 ist eine untere Oberfläche des Chips 51 eine Lichteinfallsoberfläche.
  • Wie in 14 und 15 dargestellt ist, kann ein Gebiet 180C, in dem konkav-konvexe Bereiche 181 ausgebildet sind, ein Gebiet sein, das bei einem äußeren peripheren Bereich im Pixelgebiet zum Beispiel über der Kontaktschicht 156 liegt. Mit anderen Worten kann ein Gebiet (flacher Bereich), in dem keine konkav-konvexen Bereiche 181 ausgebildet sind, in der Mitte des Pixelgebiets beispielsweise über dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ vorhanden sein.
  • 1.13.3 Dritte Modifikation
  • 16 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer dritten Modifikation darstellt. 16 stellt zum Beispiel eine beispielhafte Querschnittsstruktur einer Ebene dar, die der Ebene A-A in der beispielhaften Querschnittsstruktur des ersten Chips 51 entspricht, die in 8 dargestellt ist.
  • Wie in 16 dargestellt ist, kann ein Gebiet 180D, in dem konkav-konvexe Bereiche 181 ausgebildet sind, ein kreuzförmiges Gebiet sein, das das Pixelgebiet in eine (2 × 2)-Matrix unterteilt. Mit anderen Worten können Gebiete, in denen keine konkav-konvexen Bereiche 181 ausgebildet sind, an den vier Ecken des Pixelgebiets vorhanden sein.
  • 1.13.4 Vierte Modifikation
  • 17 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer vierten Modifikation darstellt. Ähnlich 16 stellt 17 beispielsweise eine beispielhafte Querschnittsstruktur einer Ebene dar, die der Ebene A-A in der beispielhaften Querschnittsstruktur des ersten Chips 51 entspricht, die in 8 dargestellt ist.
  • Wie in 17 dargestellt ist, können Gebiete 180E, in denen konkav-konvexe Bereiche 181 ausgebildet sind, die vier Ecken des Pixelgebiets sein. Mit anderen Worten kann ein Gebiet, in dem keine konkav-konvexen Bereiche 181 ausgebildet sind, in einem kreuzförmigen Gebiet, das das Pixelgebiet in eine (2 × 2)-Matrix unterteilt, vorhanden sein.
  • 1.13.5 Fünfte Modifikation
  • 18 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer fünften Modifikation darstellt. Ähnlich 16 oder 17 stellt 18 beispielsweise eine beispielhafte Querschnittsstruktur einer Ebene dar, die der Ebene A-A in der beispielhaften Querschnittsstruktur des ersten Chips 51 entspricht, die in 8 dargestellt ist.
  • Wie in 18 dargestellt ist, kann ein Gebiet 180F, in dem konkav-konvexe Bereiche 181 ausgebildet sind, ein kreuzförmiges Gebiet sein, das in der Mitte des Pixelgebiets zum Beispiel über den Gebieten des Halbleitergebiets 155 vom (N+)-Typ und des Halbleitergebiets 154 vom (P+)-Typ liegt.
  • Wie in den oben beschriebenen ersten bis fünften Modifikationen müssen die konkav-konvexen Bereiche 181 gemäß der ersten Ausführungsform nicht im gesamten Pixelgebiet ausgebildet sein und können in zumindest einem Teil des Pixelgebiets ausgebildet sein. Die erste Ausführungsform und deren Modifikationen, die oben beschrieben wurden, sind nur Beispiele und können verschieden modifiziert werden.
  • 2. Zweite Ausführungsform
  • Als Nächstes wird mit Verweis auf die Zeichnungen eine zweite Ausführungsform im Detail beschrieben.
  • In der ersten Ausführungsform und deren Modifikationen, die oben beschrieben wurden, ist der Fall veranschaulicht, in dem das Gebiet für eine fotoelektrische Umwandlung, das heißt das Halbleitergebiet 151 vom N-Typ, ein rechteckiges Parallelepiped ist. Jedoch ist beispielsweise die Zeit, die es braucht, bis eine in einem Bereich in der Nähe der inneren Oberfläche des Halbleitersubstrats 150, insbesondere in der Nähe des Elementtrennungsbereichs 157 im Pixelgebiet, erzeugte elektrische Ladung in das Halbleitergebiet 154 vom (P+)-Typ eingeführt wird, lang, da der Abstand von diesem Bereich zum Halbleitergebiet 154 vom (P+)-Typ lang ist. Daher tritt ein zeitliches Zittern bzw. Jitter (engl.: jitter) aufgrund der Differenz der Zeit auf, die es braucht, bis eine auf der Seite der äußeren Oberfläche des Halbleitersubstrats 150 oder in der Nähe des Elementtrennungsbereichs 157 erzeugte elektrische Ladung in das Halbleitergebiet 154 vom (P+)-Typ eingeführt wird, so dass eine Möglichkeit besteht, dass die Abstandsmessgenauigkeit abnimmt.
  • Folglich werden mit Verweis auf Beispiele in der vorliegenden Ausführungsform eine Festkörper-Bildgebungsvorrichtung und eine Abstandsmessvorrichtung beschrieben, die imstande sind, zeitliches Zittern bzw. Jitter zu reduzieren und eine Abnahme der Abstandsmessgenauigkeit zu begrenzen. In der folgenden Beschreibung werden die gleichen Komponenten wie jene der obigen Ausführungsform oder deren Modifikationen mit den gleichen Bezugsziffern bezeichnet, und deren detaillierte Beschreibung wird unterlassen.
  • Die grundlegenden Konfigurationen und Vorgänge bzw. Operationen der Festkörper-Bildgebungsvorrichtung und der Abstandsmessvorrichtung gemäß der vorliegenden Ausführungsform können die Gleichen wie jene der obigen Ausführungsform oder deren Modifikationen sein. In der vorliegenden Ausführungsform ist jedoch die Querschnittsstruktur des fotoelektrischen Umwandlungsbereichs 21, der auf dem ersten Chip 51 ausgebildet ist, durch eine beispielhafte Querschnittsstruktur ersetzt, die später beschrieben wird.
  • 2.1 Beispielhafte Querschnittsstruktur
  • 19 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß der zweiten Ausführungsform darstellt. 20 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene G-G in 19 darstellt. 19 zeigt eine beispielhafte Querschnittsstruktur eines fotoelektrischen Umwandlungsbereichs 21 in einem SPAD-Pixel 20. In Wirklichkeit sind jedoch fotoelektrische Umwandlungsbereiche 21 mit der in 19 veranschaulichten Querschnittsstruktur auf dem ersten Chip 51 in einer Matrix wie in 20 dargestellt angeordnet. In 19 ist eine untere Oberfläche des ersten Chips 51 eine Lichteinfallsoberfläche.
  • Wie in 19 und 20 dargestellt ist, weist der erste Chip 51 gemäß der vorliegenden Ausführungsform einen Graben 202G im äußeren Umfang des Pixelgebiets auf der inneren Oberfläche des Halbleitersubstrats 120 zum Beispiel in einem Gebiet 280G, das über der Kontaktschicht 156 liegt, in der gleichen Querschnittsstruktur wie jener des ersten Chips 51 auf, die mit Verweis auf 12 und 13 in der ersten Modifikation der ersten Ausführungsform beschrieben wurde, so dass die Lichteinfallsoberfläche 203G bei diesem Bereich (das heißt die Bodenfläche des Grabens 202G) so konfiguriert ist, dass sie dem Halbleitergebiet 154 vom (P+)-Typ nahe kommt (worauf hierin im Folgenden als „angehoben“ verwiesen wird).
  • In den dem Gebiet 280G entsprechenden Bereichen im Halbleitergebiet 151 vom N-Typ und dem Halbleitergebiet 153 vom P-Typ sind Stufen vorgesehen, um ein Gebiet sicherzustellen, in dem der Graben 202G angeordnet ist.
  • Beispielsweise kann ein lichtdurchlässiger Film 201G, um durch den Einebnungsfilm 161 auf den fotoelektrischen Umwandlungsbereich 21 einfallendes Licht zu leiten, innerhalb des Grabens 202G vorgesehen werden. Beispielsweise kann für den lichtdurchlässigen Film 201G ein Material, das sichtbares Licht, Infrarotlicht oder dergleichen durchlässt, wie etwa ein Siliziumoxidfilm oder ein Siliziumnitridfilm verwendet werden.
  • Eine Vielzahl von regelmäßig oder zufällig angeordneten konkav-konvexen Bereichen 181 kann auf der Bodenfläche (der Lichteinfallsoberfläche 203G) des Grabens 202G ähnlich dem Gebiet 180B vorgesehen werden, das in der Mitte des Pixelgebiets an der inneren Oberfläche des Halbleitersubstrats 150 zum Beispiel über dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ liegt.
  • 2.2 Betrieb und Vorteile
  • Indem man die obige Konfiguration gemäß der vorliegenden Ausführungsform bereitstellt, ist es möglich, die Differenz in der Bewegungsdistanz einer durch fotoelektrische Umwandlung erzeugten elektrischen Ladung zu reduzieren, so dass es möglich ist, ein zeitliches Zittern bzw. Jitter aufgrund der Differenz der Zeit zu reduzieren, die es braucht, um eine elektrische Ladung in das Halbleitergebiet 154 vom (P+)-Typ einzuführen, und somit eine Abnahme der Abstandsmessgenauigkeit zu reduzieren.
  • Andere Konfigurationen, Operationen und Vorteile können die Gleichen wie jene der obigen Ausführungsform oder deren Modifikationen sein, und folglich wird deren detaillierte Beschreibung hier unterlassen.
  • 2.3 Modifikationen
  • In der oben beschriebenen zweiten Ausführungsform ist der Fall beschrieben, in der äußere periphere Bereich des Pixelgebiets auf der inneren Oberfläche des Halbleitersubstrats 150, zum Beispiel das Gebiet über der Kontaktschicht 156, angehoben ist und konkav-konvexe Bereiche 181 in sowohl dem angehobenen Gebiet 280G als auch der Mitte des Pixelgebiets, zum Beispiel dem über dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ gelegenen Gebiet, vorgesehen sind. Das angehobene Gebiet und das Gebiet, in dem konkav-konvexe Bereiche 181 ausgebildet sind, sind jedoch nicht auf diese beschränkt. Somit werden Verweis auf einige Beispiele Modifikationen des Gebiets, in dem der Graben ausgebildet ist, und des Gebiets, in dem konkav-konvexe Bereiche ausgebildet sind, beschrieben.
  • 2.3.1 Erste Modifikation
  • 21 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer ersten Modifikation darstellt. 22 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene H-H in 21 darstellt. Ähnlich 8 zeigt 21 eine beispielhafte Querschnittsstruktur eines fotoelektrischen Umwandlungsbereichs 21 in einem SPAD-Pixel 20. In Wirklichkeit sind jedoch fotoelektrische Umwandlungsbereiche 21 mit der in 21 veranschaulichten Querschnittsstruktur auf dem ersten Chip 51 in einer Matrix wie in 22 dargestellt angeordnet. In 21 ist eine untere Oberfläche des ersten Chips 51 eine Lichteinfallsoberfläche.
  • Wie in 21 und 22 dargestellt ist, weist der erste Chip 51 gemäß der vorliegenden Ausführungsform einen Graben 202H in der Mitte des Pixelgebiets an der inneren Oberfläche des Halbleitersubstrats 150, zum Beispiel in einem Gebiet 280H, das über dem Halbleitergebiet 155 vom (N+) -Typ und dem Halbleitergebiet 154 vom (P+)-Typ liegt, in der gleichen Querschnittsstruktur wie jener des ersten Chips 51 auf, die mit Verweis auf 14 und 15 in der zweiten Modifikation der ersten Ausführungsform beschrieben wurde, so dass die Lichteinfallsoberfläche 203H bei diesem Bereich (das heißt die Bodenfläche des Grabens 202H) so ausgestaltet (angehoben) ist, dass sie dem Halbleitergebiet 154 vom (P+)-Typ nahekommt.
  • Eine Aussparung ist in Bereichen vorgesehen, die dem Gebiet 280H in dem Halbleitergebiet 151 vom N-Typ und dem Halbleitergebiet 153 vom P-Typ entsprechen, um ein Gebiet sicherzustellen, in dem der Graben 202H angeordnet ist.
  • Beispielsweise kann ein lichtdurchlässiger Film 201H, um durch den Einebnungsfilm 161 auf den fotoelektrischen Umwandlungsbereich 21 einfallendes Licht zu leiten, ähnlich der ersten Modifikation innerhalb des Grabens 202H vorgesehen werden. Beispielsweise kann für den lichtdurchlässigen Film 201H ein Material, das sichtbares Licht, Infrarotlicht oder dergleichen durchlässt, wie etwa ein Siliziumoxidfilm oder ein Siliziumnitridfilm verwendet werden.
  • Eine Vielzahl von regelmäßig oder zufällig angeordneten konkav-konvexen Bereichen 181 kann auf der Bodenfläche (der Lichteinfallsoberfläche 203H) des Grabens 202H ähnlich dem Gebiet 180C vorgesehen werden, das auf dem äußeren Umfang des Pixelgebiets auf der inneren Oberfläche des Halbleitersubstrats 150 zum Beispiel über der Kontaktschicht 156 liegt.
  • 2.3.2 Zweite Modifikation
  • 23 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer zweiten Modifikation darstellt. 24 ist eine Querschnittsansicht, die eine Querschnittsstruktur einer Ebene J-J in 23 darstellt. Ähnlich 8 zeigt 23 eine beispielhafte Querschnittsstruktur eines fotoelektrischen Umwandlungsbereichs 21 in einem SPAD-Pixel 20. In Wirklichkeit sind jedoch fotoelektrische Umwandlungsbereiche 21 mit der in 23 veranschaulichten Querschnittsstruktur auf dem ersten Chip 51 in einer Matrix wie in 24 dargestellt angeordnet. In 23 ist eine untere Oberfläche des ersten Chips 51 eine Lichteinfallsoberfläche.
  • In der oben beschriebenen zweiten Modifikation ist der Fall beschrieben, in dem eine Vielzahl von regelmäßig oder zufällig angeordneten konkav-konvexen Bereichen 181 auf sowohl dem Gebiet 180C, das auf dem äußeren Umfang des Pixelgebiets auf der inneren Oberfläche des Halbleitersubstrats 150 zum Beispiel über der Kontaktschicht 156 liegt, als auch dem Gebiet 280H vorgesehen sind, das in dessen Mitte zum Beispiel über dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ liegt. Die vorliegende Offenbarung ist jedoch nicht auf solch eine Konfiguration beschränkt und kann eine Konfiguration aufweisen, in der in einem des Gebiets 180C und des Gebiets 280H keine konkav-konvexen Bereiche 181 ausgebildet sind, wie beispielsweise in 23 und 24 dargestellt ist. Der Fall, in dem die konkav-konvexen Bereiche 181 des Gebiets 180C weggelassen sind, ist in 23 und 24 veranschaulicht.
  • 2.3.3 Dritte Modifikation
  • 25 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer dritten Modifikation zeigt. 25 zeigt beispielsweise eine beispielhafte Querschnittsstruktur einer Ebene, die der Ebene G-G in der in 19 dargestellten beispielhaften Querschnittsstruktur des ersten Chips 51 entspricht.
  • Wie in 25 dargestellt ist, kann das angehobene Gebiet 280K ein kreuzförmiges Gebiet sein, das das Pixelgebiet in eine (2×2)-Matrix unterteilt. Die konkav-konvexen Bereiche 181 können im angehobenen Gebiet 280K ausgebildet sein oder können in einem nicht angehobenen Gebiet (einem anderen Gebiet als das Gebiet 280K in jedem Pixelgebiet) ausgebildet sein oder können in all diesen Gebieten ausgebildet sein.
  • 2.3.4 Vierte Modifikation
  • 26 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer vierten Modifikation darstellt. Ähnlich 25 zeigt 26 beispielsweise eine beispielhafte Querschnittsstruktur einer Ebene, die der Ebene G-G in der in 19 dargestellten beispielhaften Querschnittsstruktur des ersten Chips 51 entspricht.
  • Wie in 26 dargestellt ist, können angehobene Gebiete 280L die vier Ecken des Pixelgebiets sein. Die konkav-konvexen Bereiche 181 können in jedem der vier angehobenen Gebiete 280L ausgebildet sein oder können in einem nicht angehobenen Gebiet (einem anderen Gebiet als dem Gebiet 280L in jedem Pixelgebiet) ausgebildet sein oder können all diesen Gebieten ausgebildet sein.
  • 2.3.5 Fünfte Modifikation
  • 27 ist eine Querschnittsansicht, die eine beispielhafte Querschnittsstruktur eines ersten Chips gemäß einer fünften Modifikation darstellt. Ähnlich 25 oder 26 zeigt 27 beispielsweise eine beispielhafte Querschnittsstruktur einer Ebene, die der Ebene G-G in der in 19 dargestellten beispielhaften Querschnittsstruktur des ersten Chips 51 entspricht.
  • Wie in 27 dargestellt ist, kann ein angehobenes Gebiet 280M ein kreuzförmiges Gebiet sein, das in der Mitte des Pixelgebiets zum Beispiel über dem Halbleitergebiet 155 vom (N+)-Typ und dem Halbleitergebiet 154 vom (P+)-Typ liegt. Die konkav-konvexen Bereiche 181 können im angehobenen Gebiet 280M ausgebildet sein oder können in einem nicht angehobenen Gebiet (einem anderen Gebiet als dem Gebiet 280M in jedem Pixelgebiet) ausgebildet sein oder können in all diesen Gebieten ausgebildet sein.
  • Wie in den oben beschriebenen ersten bis fünften Modifikationen ist das angehobene Gebiet nicht auf den äußeren Umfang des Pixelgebiets, zum Beispiel die Umgebung des Gebiets über der Kontaktschicht 156, beschränkt und kann verschieden modifiziert werden. Die zweite Ausführungsform und deren Modifikationen, die oben beschrieben wurden, sind nur Beispiele und können verschieden modifiziert werden.
  • 3. Anwendungsbeispiele
  • Die Technologie gemäß der vorliegenden Offenbarung kann für verschiedene Produkte verwendet werden. Beispielsweise kann die Technologie gemäß der vorliegenden Offenbarung für eine Vorrichtung genutzt werden, die auf einem beweglichen Körper beliebiger Art wie etwa einem Automobil, einem Elektrofahrzeug, einem Hybrid-Elektrofahrzeug, einem Motorrad, einem Fahrrad, einer beliebigen Vorrichtung für persönliche Mobilität, einem Flugzeug, einer Drohne, einem Schiff und einem Roboter, einer Baumaschine oder einer landwirtschaftlichen Maschine (Traktor) montiert ist.
  • 28 ist ein Blockdiagramm, das eine beispielhafte schematische Konfiguration eines Fahrzeugsteuerungssystems 7000 darstellt, das ein Beispiel eines Systems zur Steuerung beweglicher Körper ist, für das eine Technologie gemäß der vorliegenden Offenbarung verwendet werden kann. Das Fahrzeugsteuerungssystem 7000 umfasst eine Vielzahl elektronischer Steuereinheiten, die über ein Kommunikationsnetzwerk 7010 verbunden sind. In dem in 28 dargestellten Beispiel umfasst das Fahrzeugsteuerungssystem 7000 eine Antriebssystem-Steuereinheit 7100, eine Karosseriesystem-Steuereinheit 7200, eine Batterie-Steuereinheit 7300, eine Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs, eine Einheit 7500 zur Detektion von Information von innerhalb des Fahrzeugs und eine integrierte Steuereinheit 7600. Das Kommunikationsnetzwerk 7020, das diese Steuereinheiten miteinander verbindet, kann ein im Fahrzeug eingebautes Kommunikationsnetzwerk sein, das mit einem beliebigen Standard wie etwa einem Steuergerätenetz bzw. Controller Area Network (CAN), einem Local-Interconnect-Network (LIN), einem lokalen Netzwerk (LAN), FlexRay (eingetragenes Warenzeichen) oder dergleichen konform bzw. verträglich ist.
  • Jede Steuereinheit umfasst einen Mikrocomputer, der eine arithmetische Verarbeitung gemäß verschiedenen Arten von Programmen durchführt, eine Speichereinheit, die vom Mikrocomputer ausgeführte Programme oder Parameter, die für verschiedene Berechnungen verwendet werden, speichert, und eine Ansteuerschaltung, die verschiedene, zu steuernde Vorrichtungen ansteuert. Jede Steuereinheit enthält auch eine Netzwerk-I/F, um mit anderen Steuereinheiten über das Kommunikationsnetzwerk 7010 zu kommunizieren, und eine Kommunikations-I/F, um eine Kommunikation mit Vorrichtungen, Sensoren oder dergleichen innerhalb oder außerhalb des Fahrzeugs über eine drahtgebundene Kommunikation oder drahtlose Kommunikation durchzuführen. In 28 sind als funktionale Komponenten der integrierten Steuereinheit 7600 ein Mikrocomputer 7610, eine universelle Kommunikations-I/F 7620, eine dedizierte Kommunikations-I/F 7630, eine Positionsbestimmungseinheit 7640, eine Beacon-Signale (engl.: beacon) empfangende Einheit 7650, eine I/F 7660 für eine Vorrichtung im Fahrzeug, eine Audio/Bild-Ausgabeeinheit 7670, eine I/F 7680 für ein im Fahrzeug eingebautes Netzwerk und eine Speichereinheit 7690 dargestellt. Die anderen Steuereinheiten enthalten ebenfalls einen Mikrocomputer, eine Kommunikations-I/F, einer Speichereinheit und dergleichen.
  • Die Antriebssystem-Steuereinheit 7100 steuert gemäß verschiedenen Programmen den Betrieb von Vorrichtungen bezüglich des Antriebssystems des Fahrzeugs. Beispielsweise dient die Antriebssystem-Steuereinheit 7100 als Steuerungsvorrichtung für eine Antriebskraft-Erzeugungsvorrichtung, um die Antriebskraft des Fahrzeugs zu erzeugen, etwa einen Verbrennungsmotor oder einen Antriebsmotor, einen Antriebskraft-Übertragungsmechanismus, um die Antriebskraft auf Räder zu übertragen, einen Lenkmechanismus, um den Lenkwinkel des Fahrzeugs einzustellen, eine Bremsvorrichtung, um die Bremskraft des Fahrzeugs zu erzeugen, oder dergleichen. Die Antriebssystem-Steuereinheit 7100 kann als Steuerungsvorrichtung eines Antiblockier-Bremssystems (ABS), einer elektronischen Stabilitätskontrolle (ESAC) oder dergleichen fungieren.
  • Ein Detektor 7110 für den Fahrzeugzustand ist mit der Antriebssystem-Steuereinheit 7100 verbunden. Der Detektor 7110 für den Fahrzeugzustand umfasst beispielsweise einen Gyro-Sensor, der eine Winkelgeschwindigkeit einer axialen Drehbewegung einer Fahrzeugkarosserie detektiert, einen Beschleunigungssensor, der die Beschleunigung des Fahrzeugs detektiert, und/oder Sensoren, um einen Umfang einer Betätigung eines Gaspedals, einen Umfang einer Betätig eines Bremspedals, den Lenkwinkel eines Lenkrades, die Motordrehzahl und die Rotationsgeschwindigkeit der Räder zu detektieren. Die Antriebssystem-Steuereinheit 7100 führt unter Verwendung von vom Detektor 7110 für den Fahrzeugzustand eingespeisten Signalen eine arithmetische Verarbeitung durch, um den Verbrennungsmotor, den Antriebsmotor, eine elektrische Servolenkvorrichtung, die Bremsvorrichtung oder dergleichen zu steuern.
  • Die Karosseriesystem-Steuereinheit 7200 steuert gemäß verschiedenen Programmen den Betrieb verschiedener, an der Fahrzeugkarosserie vorgesehener Vorrichtungen. Beispielsweise dient die Karosseriesystem-Steuereinheit 7200 als Steuerungsvorrichtung für ein schlüsselloses Zugangssystem, ein System für intelligente Schlüssel, eine automatische Fenstervorrichtung oder verschiedene Leuchten wie etwa Frontscheinwerfer, Heckscheinwerfer, Bremsleuchten, Fahrtrichtungsanzeiger oder Nebelleuchten. In diesem Fall können Funkwellen, die von einer tragbaren Vorrichtung, die den Schlüssel ersetzt, oder Signale verschiedener Schalter in die Karosseriesystem-Steuereinheit 7200 eingespeist werden. Die Karosseriesystem-Steuereinheit 7200 empfängt Einspeisungen dieser Funkwellen oder Signale und steuert die Türverriegelungsvorrichtung, die automatische Fenstervorrichtung, die Leuchten und dergleichen des Fahrzeugs.
  • Die Batterie-Steuereinheit 7300 steuert eine Sekundärbatterie 7310, die eine Stromversorgungsquelle für den Antriebsmotor ist, gemäß verschiedenen Programmen. Beispielsweise werden in die Batterie-Steuereinheit 7300 Informationen wie etwa die Batterietemperatur, die Ausgangsspannung der Batterie oder die verbleibende Kapazität der Batterie von einer die Sekundärbatterie 7310 enthaltenden Batterievorrichtung eingegeben. Die Batterie-Steuereinheit 7300 führt unter Verwendung dieser Signale eine arithmetische Verarbeitung durch und führt eine Steuerung zur Temperatureinstellung der Sekundärbatterie 7310 oder eine Steuerung einer in der Batterievorrichtung bereitgestellten Kühlvorrichtung oder dergleichen durch.
  • Die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs detektiert Informationen über die äußere Umgebung des Fahrzeugs, in dem das Fahrzeugsteuerungssystem 7000 montiert ist. Beispielsweise sind mit der Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs Bildgebungseinheiten 7410 und/oder Detektoren 7420 für Information von außerhalb des Fahrzeugs verbunden. Die Bildgebungseinheiten 7410 umfassen eine Laufzeit-(ToF) Kamera (engl.: time-of-flight), eine Stereokamera, Monokular-Kamera, eine Infrarotkamera und/oder andere Kameras. Die Detektoren 7420 für Information von außerhalb des Fahrzeugs umfassen beispielsweise einen Umgebungssensor, um das aktuelle Wetter oder Wetterbedingungen zu detektieren, und/oder einen Sensor zur Detektion von Umgebungsinformationen, um andere Fahrzeuge, Hindernisse, Fußgänger oder dergleichen um das Fahrzeug herum zu detektieren, in dem das Fahrzeugsteuerungssystem 7000 montiert ist.
  • Der Umgebungssensor kann zum Beispiel einen Regentropfensensor, der regnerisches Wetter detektiert, einen Nebelsensor, der Nebel detektiert, einen Sonnensensor, der den Grad der Sonneneinstrahlung detektiert und/oder einen Schneesensor umfassen, der Schneefall detektiert. Der Sensor zur Detektion von Umgebungsinformationen kann einen Ultraschallsensor, eine Radarvorrichtung und/oder eine LIDAR-Vorrichtung (Lichtdetektions- und Entfernungsmessvorrichtung oder Laserbild-Detektions- und Entfernungsmessvorrichtung) umfassen. Die Bildgebungseinheiten 7410 und die Detektoren 7420 für Information von außerhalb des Fahrzeugs können als unabhängige Sensoren oder Vorrichtung vorgesehen werden oder können als eine Vorrichtung, in der eine Vielzahl von Sensoren oder Vorrichtungen integriert ist, vorgesehen werden.
  • 29 stellt hier ein Beispiel von Installationspositionen der Bildgebungseinheiten 7410 und der Detektoren 7420 für Information von außerhalb des Fahrzeugs dar. Bildgebungseinheiten 7910, 7912, 7914, 7916 und 7918 sind zum Beispiel an den Stellen von einer Frontpartie, Seitenspiegeln, der hinteren Stoßstange, einer Hecktür und einem oberen Bereich einer Windschutzscheibe im Fahrgastraum des Fahrzeugs 7900 angeordnet. Die an der Frontpartie vorgesehene Bildgebungseinheit 7910 und die am oberen Bereich der Windschutzscheibe im Fahrgastraum vorgesehene Bildgebungseinheit 7918 können vorwiegend ein Bild vor dem Fahrzeug 7900 gewinnen bzw. aufnehmen. Die an den Seitenspiegeln vorgesehenen Bildgebungseinheiten 7912 und 7914 können vorwiegend ein Bild an den Seiten des Fahrzeugs 7900 aufnehmen. Die an der hinteren Stoßstange oder der Hecktür vorgesehene Bildgebungseinheit 7916 kann vorwiegend ein Bild des Bereichs hinter dem Fahrzeug 7900 aufnehmen. Die am oberen Bereich der Windschutzscheibe im Fahrgastraum vorgesehene Bildgebungseinheit 7918 wird vorwiegend genutzt, um ein vorausfahrendes Fahrzeug, einen Fußgänger, ein Hindernis, eine Verkehrsampel, ein Verkehrszeichen, eine Fahrbahn oder dergleichen zu detektieren.
  • 29 stellt auch ein Beispiel von Photographier- bzw. Abbildungsbereichen der Bildgebungseinheiten 7910, 7912, 7914 und 7916 dar. Der Abbildungsbereich a gibt den Abbildungsbereich der an der Frontpartie vorgesehenen Bildgebungseinheit 7910 an, Abbildungsbereiche b und c geben die Abbildungsbereiche der Bildgebungseinheiten 7912 bzw. 7914 an, die an den Seitenspiegeln vorgesehen sind, und der Abbildungsbereich d gibt den Abbildungsbereich der an der hinteren Stoßstange oder der Hecktür vorgesehenen Bildgebungseinheit 7916 an. Ein Bild aus der Vogelperspektive des Fahrzeugs 7900 kann zum Beispiel durch Überlagern von Bilddaten erhalten werden, die von den Bildgebungseinheiten 7910, 7912, 7914 und 1716 erfasst wurden.
  • Die Detektoren 7920, 7922, 7924, 7926, 7928 und 7930 für Information von außerhalb des Fahrzeugs, die an der Vorderseite, der Rückseite, den Seiten, den Ecken und dem oberen Bereich der Windschutzscheibe im Fahrgastraum des Fahrzeugs 7900 vorgesehen sind, können jeweils zum Beispiel ein Ultraschallsensor oder eine Radarvorrichtung sein. Die Detektoren 7920, 7926 und 7930 für Information von außerhalb des Fahrzeugs, die an der Frontpartie, der hinteren Stoßstange, der Hecktür und dem oberen Bereich der Windschutzscheibe im Fahrgastraum des Fahrzeugs 7900 vorgesehen sind, können jeweils beispielsweise eine LIDAR-Vorrichtung sein. Diese Detektoren 7920 bis 7930 für Information von außerhalb des Fahrzeugs werden vorwiegend genutzt, um ein vorausfahrendes Fahrzeug, einen Fußgänger, ein Hindernis oder dergleichen zu detektieren.
  • Die Beschreibung setzt sich zu 28 zurückkehrend fort. Die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs lässt die Bildgebungseinheiten 7410 ein Bild von außerhalb des Fahrzeugs aufnehmen und empfängt die aufgenommenen Bilddaten. Außerdem empfängt die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs eine Detektionsinformation von den Detektoren 7420 für Information von außerhalb des Fahrzeugs. Wenn die Detektoren 7420 für Information von außerhalb des Fahrzeugs jeweils ein Ultraschallsensor, eine Radarvorrichtung oder eine LIDAR-Vorrichtung sind, überträgt die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs Ultraschallwellen, elektromagnetische Wellen oder dergleichen und empfängt eine Information empfangener reflektierter Wellen. Auf Basis der empfangenen Information kann die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs eine Verarbeitung zur Detektion eines Objekts wie etwa einer Person, eines Fahrzeugs, eines Hindernisses, eines Verkehrszeichens, eines Zeichens auf der Straßenoberfläche oder dergleichen oder eine Verarbeitung zur Detektion eines Abstands dazu durchführen. Die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs kann auf Basis der empfangenen Information eine Verarbeitung zur Umgebungserkennung durchführen, um Niederschlag, Nebel, Bedingungen der Straßenoberfläche oder dergleichen zu erkennen.
  • Ferner kann auf Basis der empfangenen Bilddaten die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs eine Verarbeitung zur Bilderkennung, um eine Person, ein Fahrzeug, ein Hindernis, ein Verkehrszeichen, ein Zeichen auf einer Straßenoberfläche zu erkennen, oder eine Verarbeitung zur Detektion des Abstands dazu durchführen. Die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs kann eine Verarbeitung wie etwa einer Verzerrungskorrektur, einer Ausrichtung an den empfangenen Bilddaten durchführen und die von verschiedenen Bildgebungseinheiten 7410 aufgenommenen Bilddaten synthetisieren, um ein Bild aus der Vogelperspektive oder ein Panoramabild zu erzeugen. Die Einheit 7400 zur Detektion von Information von außerhalb des Fahrzeugs kann eine Verarbeitung zur Blickwinkel- bzw. Perspektivenkonversion unter Verwendung der von den verschiedenen Bildgebungseinheiten 7410 aufgenommenen Bilddaten durchführen.
  • Die Einheit 7500 zur Detektion von Information von innerhalb des Fahrzeugs detektiert Informationen über das Innere des Fahrzeugs. Der Detektor 7510 für den Fahrerzustand, der en Zustand des Fahrers detektiert, ist mit der Einheit 7500 zur Detektion von Information von innerhalb des Fahrzeugs verbunden. Der Detektor 7510 für den Fahrerzustand kann eine Kamera, die den Fahrer aufnimmt, einen Biosensor, der die biologischen Informationen des Fahrers detektiert, ein Mikrophon, das ein Geräusch im Fahrgastraum erfasst, oder dergleichen umfassen. Der Biosensor ist beispielsweise in eine Sitzfläche oder das Lenkrad integriert und detektiert biometrische Informationen einen auf einem Sitz sitzenden Insassen oder des das Lenkrad haltenden Fahrers. Auf Basis einer vom Detektor 7510 für den Fahrerzustand eingegebenen Detektionsinformation kann die Einheit 7500 zur Detektion von Information von innerhalb des Fahrzeugs einen Ermüdungsgrad oder den Konzentrationsgrad des Fahrers berechnen und kann bestimmen, ob der Fahrer döst oder nicht. Die Einheit 7500 zur Detektion von Information von innerhalb des Fahrzeugs kann an dem erfassten Audiosignal eine Verarbeitung wie etwa eine Verarbeitung zur Rauschunterdrückung durchführen.
  • Die integrierte Steuereinheit 7600 steuert den Gesamtbetrieb des Fahrzeugsteuerungssystems 7000 gemäß verschiedenen Programmen. Mit der integrierten Steuereinheit 7600 ist eine Eingabeeinheit 7800 verbunden. Die Eingabeeinheit 7800 ist beispielsweise mittels einer Vorrichtung, an der eine Eingabeoperation von einem Insassen durchgeführt werden kann, wie etwa eines Berührungsfelds, einer Taste, eines Mikrophons, eines Schalters, eines Hebels oder dergleichen implementiert. Daten, die erhalten werden, indem eine Spracherkennung an einer Audio-Eingabe über das Mikrophon durchgeführt wird, können in die integrierte Steuereinheit 7600 eingeben werden. Die Eingabeeinheit 7800 kann zum Beispiel eine Fernsteuerungsvorrichtung, die Infrarotstrahlung oder andere Funkwellen nutzt, oder eine extern verbundene Vorrichtung wie etwa ein Mobiltelefon oder ein persönlicher digitaler Assistent (PDA) sein, die einen Betrieb des Fahrzeugsteuerungssystems 7000 unterstützt. Die Eingabeeinheit 7800 kann zum Beispiel eine Kamera sein, in welchem Fall der Insasse eine Information mittels einer Geste eingeben kann. Alternativ dazu können Daten eingegeben werden, die erhalten werden, indem die Bewegung einer tragbaren Vorrichtung detektiert wird, die ein Insasse bei sich trägt. Ferner kann die Eingabeeinheit 7800 beispielsweise eine Eingabesteuerungsschaltung enthalten, die ein Eingangssignal auf Basis einer Information, die von einem Insassen oder dergleichen unter Verwendung der oben beschriebenen Eingabeeinheit 7800 eingegeben wird, erzeugt und das erzeugte Eingangssignal an die integrierte Steuereinheit 7600 abgibt. Durch Betätigen der Eingabeeinheit 7800 gibt der Insasse oder dergleichen verschiedene Daten in das Fahrzeugsteuerungssystem 7000 ein und weist das Fahrzeugsteuerungssystem 7000 an, eine Verarbeitungsoperation durchzuführen.
  • Die Speichereinheit 7690 kann einen Nurlesespeicher (ROM) zum Speichern verschiedener, vom Mikrocomputer ausgeführter Programme und einen Direktzugriffspeicher (RAM), um verschiedene Parameter, Berechnungsergebnisse, Sensorwerte und dergleichen zu speichern, enthalten. Die Speichereinheit 7690 mittels einer Magnetspeichervorrichtung wie etwa eines Festplattenlaufwerks (HDD), einer Halbleiter-Speichervorrichtung, einer optischen Speichervorrichtung, einer magnetooptischen Speichervorrichtung oder dergleichen realisiert sein.
  • Die universelle Kommunikations-I/F 7620 ist eine universelle Kommunikations-I/F, die eine Kommunikation mit verschiedenen, in einer äußeren Umgebung 7750 vorhandenen Vorrichtungen vermittelt. Die universelle Kommunikations-/F 7620 kann ein zellulares Kommunikationsprotokoll wie etwa ein globales System für mobile Kommunikation (GSM (eingetragenes Warenzeichen)), WiMAX (eingetragenes Warenzeichen), Long Term Evolution (LTE) (eingetragenes Warenzeichen)) oder erweitertes LTE (LTE-A) oder andere Protokolle zur drahtlosen Kommunikation wie etwa ein drahtloses LAN (auch als Wi-Fi (eingetragenes Warenzeichen) bezeichnet) oder Bluetooth (eingetragenes Warenzeichen) implementieren. Beispielsweise kann die universelle Kommunikations-I/F 7620 über eine Basisstation oder einen Zugangspunkt mit einer Vorrichtung (zum Beispiel einem Anwendungsserver oder einem Kontroll-Server), die auf einem externen Netzwerk (zum Beispiel dem Internet, einem Cloud-Netzwerk oder einem unternehmensspezifischen Netzwerk) vorhanden ist, verbunden werden. Die universelle Kommunikations-I/F 7620 kann auch zum Beispiel unter Verwendung einer Peer-to-Peer- (P2P-) Technologie mit einem in der Nähe des Fahrzeugs vorhandenen Endgerät (zum Beispiel einem Endgerät eines Fahrers, eines Fußgängers oder eines Ladens oder ein Endgerät für eine Maschine-Typ-Kommunikation (engl.: machine type communication) (MTC) ist) verbunden werden.
  • Die dedizierte Kommunikations-I/F 7630 ist eine Kommunikations-I/F, die ein zur Nutzung in einem Fahrzeug ausgelegtes Kommunikationsprotokoll unterstützt. Die dedizierte Kommunikations-I/F 7630 kann beispielsweise ein Standardprotokoll wie etwa einen drahtlosen Zugangs in einer Fahrzeugumgebung (WAVE), was eine Kombination der unteren Schicht IEEE802.11p und der oberen Schicht IEEE1609 ist, eine Nahbereichskommunikation (engl.: dedicated short-range communications) (DSRC) oder ein zellulares Kommunikationsprotokoll implementieren. Die dedizierte Kommunikations-I/F 7630 führt typischerweise eine V2X-Kommunikation aus, die ein Konzept ist, das eine oder mehrere einer Kommunikation von Fahrzeug zu Fahrzeug, einer Kommunikation zwischen einem Fahrzeug und Infrastruktur, einer Kommunikation zwischen einem Fahrzeug und einem Heim und einer Kommunikation zwischen einem Fahrzeug und einem Fußgänger umfasst.
  • Die Positionsbestimmungseinheit 7640 empfängt zum Beispiel Signale eines globalen Satellitennavigationssystems (GNNS) von einem GNSS-Satelliten (zum Beispiel Signale eines globalen Positionsbestimmungssystems (GPS) von GPS-Satelliten) und führt eine Positionsbestimmung aus, um eine Positionsinformation, die Länge, Breite und Höhenlage des Fahrzeugs umfasst zu erzeugen. Die Positionsbestimmungseinheit 7640 kann die aktuelle Position identifizieren, indem ein Signal mit einem drahtlosen Zugangspunkt ausgetauscht wird, oder kann eine Positionsinformation von einem Endgerät wie etwa einem Mobiltelefon, einem PHS oder einem Smartphone erhalten, das eine Positionsbestimmungsfunktion aufweist.
  • Die Beacon-Signale empfangende Einheit 7650 empfängt zum Beispiel eine Funkwelle oder elektromagnetische Welle, die von einer an einer Straße installierten Funkstation übertragen wird, und erhält Informationen wie etwa über die aktuelle Position, einen Verkehrsstau, eine gesperrte Straße oder die notwendige Zeit. Die Funktion der Beacon-Signale empfangenden Einheit 7650 kann in der oben beschriebenen dedizierten Kommunikations-I/F 7630 enthalten sein.
  • Die I/F 7660 für eine Vorrichtung im Fahrzeug ist eine Kommunikationsschnittstelle, die eine Verbindung zwischen dem Mikrocomputer 7610 und verschiedenen, im Fahrzeug vorhandenen Vorrichtungen 7760 im Fahrzeug vermittelt. Die I/F 7660 für eine Vorrichtung im Fahrzeug kann eine drahtlose Verbindung unter Verwendung eines Protokolls für drahtlose Kommunikation wie etwa drahtloses LAN, Bluetooth (eingetragenes Warenzeichen), eine Nahfeldkommunikation (NFC) oder eines drahtlosen USB (WUSB) einrichten. Die I/F 7660 für eine Vorrichtung im Fahrzeug kann auch eine drahtgebundene Verbindung wie etwa einen universellen seriellen Bus (USB), eine High-Definition-Multimedia-Schnittstelle (HDMI) (eingetragenes Warenzeichen) oder einen mobilen High-Definition-Link (MHL) über einen (nicht dargestellten) Verbindungsanschluss (und nötigenfalls ein Kabel) einrichten. Die Vorrichtungen 7760 im Fahrzeug können beispielsweise zumindest eine einer mobilen Vorrichtung oder einer tragbaren Vorrichtung, die ein Insasse mit sich führt, oder einer Informationsvorrichtung umfassen, die in das Fahrzeug getragen oder daran angebracht wird. Die Vorrichtungen 7760 im Fahrzeug können auch eine Navigationsvorrichtung einschließen, die nach einer Route zu einem beliebigen Ziel sucht. Die I/F 7660 für eine Vorrichtung im Fahrzeug tauscht Steuerungssignale oder Datensignale mit diesen Vorrichtungen 7760 im Fahrzeug aus.
  • Die I/F 7680 für ein im Fahrzeug eingebautes Netzwerk ist eine Schnittstelle, die eine Kommunikation zwischen dem Mikrocomputer 7610 und dem Kommunikationsnetzwerk 7010 vermittelt. Die I/F 7680 für ein im Fahrzeug eingebautes Netzwerk überträgt und empfängt Signale oder dergleichen gemäß einem vom Kommunikationsnetzwerk 7010 unterstützten vorbestimmten Protokoll.
  • Der Mikrocomputer 7610 der integrierten Steuereinheit 7600 steuert das Fahrzeugsteuerungssystem 7000 gemäß verschiedenen Programmen auf Basis von Informationen, die über die universelle Kommunikations-I/F 7620, die dedizierte Kommunikations-I/F 7630, die Positionsbestimmungseinheit 7640, die Beacon-Signale empfangende Einheit 7650, die I/F 7660 für eine Vorrichtung im Fahrzeug und/oder die I/F 7680 für ein im Fahrzeug eingebautes Netzwerk gewonnen werden. Beispielsweise kann der Mikrocomputer 7610 einen Steuerungszielwert für die Antriebskraft-Erzeugungsvorrichtung, den Lenkmechanismus oder die Bremsvorrichtung auf Basis der erlangten Informationen von innerhalb und außerhalb des Fahrzeugs berechnen und einen Steuerungsbefehl an die Antriebssystem-Steuereinheit 7100 ausgeben. Beispielsweise kann der Mikrocomputer 7610 eine kooperative Steuerung zu dem Zweck durchführen, Funktionen eines fortgeschrittenen Fahrzeugassistenzsystems (ADAS) zu implementieren, welche eine Kollisionsvermeidung oder eine Aufprallabschwächung des Fahrzeugs, eine Nachfolgefahrt basierend auf einem Abstand zwischen Fahrzeuge, eine die Fahrzeuggeschwindigkeit beibehaltende Fahrt, eine Warnung vor einer Kollision des Fahrzeugs oder eine Warnung vor einer Abweichung von der Fahrbahn des Fahrzeugs einschließen. Der Mikrocomputer 7610 kann auch eine für automatisches Fahren gedachte kooperative Steuerung, um unabhängig vom Eingriff des Fahrers autonom zu fahren, oder dergleichen durchführen, indem die Antriebskraft-Erzeugungsvorrichtung, der Lenkmechanismus, die Bremsvorrichtung oder dergleichen auf Basis der erhaltenen Informationen um das Fahrzeug herum gesteuert wird.
  • Der Mikrocomputer 7610 kann auf Basis von Informationen, die über die universelle Kommunikations-I/F 7620, die dedizierte Kommunikations-I/F 7630, die Positionsbestimmungseinheit 7640, die Beacon-Signale empfangende Einheit 7650, die I/F 7660 für eine Vorrichtung im Fahrzeug und/oder die I/F 7680 für ein im Fahrzeug eingebautes Netzwerk erhalten werden, eine dreidimensionale Abstandsinformation zwischen dem Fahrzeug und Objekten wie eine etwa Strukturen, Menschen oder dergleichen um das Fahrzeug herum erzeugen und eine lokale Karteninformation erzeugen, die Informationen um die gegenwärtige Position des Fahrzeugs herum enthält. Der Mikrocomputer 7610 kann auch eine Gefahr wie etwa eine Kollision des Fahrzeugs, einen Fußgänger oder dergleichen, der sich dem Fahrzeug nähert, der eine Einfahrt in eine gesperrte Straße auf Basis der erhaltenen Informationen vorhersagen und ein Warnsignal erzeugen. Das Warnsignal kann beispielsweise ein Signal zum Erzeugen eines Warntons oder ein Aufleuchten einer Warnleuchte sein.
  • Die Audio/Bild-Ausgabeeinheit 7670 überträgt ein Ausgangssignal, das ein Ton und/oder ein Bild ist, zu einer Ausgabevorrichtung, die dem Insassen des Fahrzeugs oder der äußeren Umgebung eine Information optisch oder akustisch mitteilen kann. In dem Beispiel von 28 sind als die Ausgabevorrichtung ein Audio-Lautsprecher 7710, eine Anzeigeeinheit 7720 und ein Armaturenbrett 7730 veranschaulicht. Die Anzeigeeinheit 7720 kann beispielsweise eine bordeigene Anzeige und/oder ein Head-up-Display umfassen. Die Anzeigeeinheit 7720 kann eine Funktion zur Anzeige einer erweiterten Realität (AR) enthalten. Die Ausgabevorrichtung kann andere Vorrichtungen als diese Vorrichtungen sein, wie etwa ein Kopfhörer, eine tragbare Vorrichtung wie etwa eine brillenartige Vorrichtung, die vom Insassen getragen wird, oder ein Projektor oder eine Lampe sein. Wenn die Ausgabevorrichtung eine Anzeigevorrichtung ist, zeigt die Anzeigevorrichtung Ergebnisse, die mittels des verschiedene Verarbeitungen durchführenden Mikrocomputers 7610 erhalten werden, oder von anderen Steuereinheiten empfangene Informationen in verschiedenen Formaten wie etwa als Text, Bild, Tabelle oder eine graphische Darstellung an. Wenn die Ausgabevorrichtung eine Ton- bzw. Audio-Ausgabevorrichtung ist, wandelt die Audio-Ausgabevorrichtung ein Audiosignal, das aus wiedergegebenen Audio-Daten, Tondaten oder dergleichen besteht, in ein analoges Signal um und gibt das analoge Signal akustisch aus.
  • In dem in 28 dargestellten Beispiel können zumindest zwei, über das Kommunikationsnetzwerk 7010 verbundene Steuereinheiten in eine Steuereinheit integriert sein. Alternativ dazu kann jede Steuereinheit aus einer Vielzahl von Steuereinheiten bestehen. Ferner kann das Fahrzeugsteuerungssystem 7000 eine (nicht dargestellte) andere Steuereinheit enthalten. In der obigen Beschreibung können einige oder alle der von einer beliebigen der Steuereinheiten ausgeführten Funktionen in einer anderen Steuereinheit integriert sein. Das heißt, eine vorbestimmte arithmetische Verarbeitung kann von einer beliebigen Steuereinheit durchgeführt werden, solange über das Kommunikationsnetzwerk 7010 Informationen gesendet und empfangen werden. Ähnlich kann eine Vielzahl von Steuereinheiten Detektionsinformationen über das Kommunikationsnetzwerk 7010 aneinander senden oder voneinander empfangen, während ein Sensor oder eine Vorrichtung, der oder die mit einer der Steuereinheiten verbunden ist, mit einer anderen Steuereinheit verbunden ist.
  • Ein Computerprogramm, um jede Funktion des mit Verweis auf 1 beschriebenen ToF-Sensors 1 gemäß der vorliegenden Ausführungsform zu realisieren, kann in jeder beliebigen Steuereinheit oder dergleichen implementiert sein. Ein computerlesbares Aufzeichnungsmedium, in dem solch ein Computerprogramm gespeichert ist, kann vorgesehen werden. Das Aufzeichnungsmedium ist beispielsweise eine Magnetplatte, eine optische Platte, eine magnetooptische Platte oder ein Flash-Speicher. Das Computerprogramm kann beispielsweise ohne Nutzung eines Aufzeichnungsmediums über ein Netzwerk verteilt werden.
  • In dem oben beschriebenen Fahrzeugsteuerungssystem 7000 kann der mit Verweis auf 1 beschriebene ToF-Sensor 1 gemäß der vorliegenden Ausführungsform für die integrierte Steuereinheit 7600 in der beispielhaften Anwendung, die in 28 dargestellt ist, verwendet werden. Zum Beispiel entsprechen der Controller 11, die Berechnungseinheit 15 und die externe I/F 19 des ToF-Sensors 1 dem Mikrocomputer 7610, der Speichereinheit 7690 und der I/F 7680 für ein im Fahrzeug montiertes Netzwerk der integrierten Steuereinheit 7600. Die vorliegende Offenbarung ist jedoch nicht darauf beschränkt, und das Fahrzeugsteuerungssystem 7000 kann dem Host 80 in 1 entsprechen.
  • Ferner kann zumindest eine der Komponenten des mit Verweis auf 1 beschriebenen ToF-Sensors 1 gemäß der vorliegenden Ausführungsform in einem Modul für die in 28 dargestellte integrierte Steuereinheit 7600 (zum Beispiel einem aus einem Die bestehenden integrierten Schaltungsmodul) realisiert sein. Alternativ dazu kann der mit Verweis auf 1 beschriebene TOF-Sensor 1 gemäß der vorliegenden Offenbarung durch eine Vielzahl von Steuereinheiten in dem in 28 dargestellten Fahrzeugsteuerungssystem 7000 realisiert sein.
  • Obgleich Ausführungsformen der vorliegenden Offenbarung oben beschrieben wurden, ist der technische Umfang der vorliegenden Offenbarung nicht auf die obigen Ausführungsformen, wie sie sind, beschränkt und können verschiedene Änderungen vorgenommen werden, ohne vom Kern der vorliegenden Offenbarung abzuweichen. Komponenten in verschiedenen Ausführungsformen und Modifikationen können ebenfalls wie jeweils geeignet kombiniert werden.
  • Ferner sind die Vorteile in jeder Ausführungsform, die in der vorliegenden Beschreibung beschrieben wurden, nur Beispiele und sind nicht beschränkt, und andere Vorteile können ebenfalls erzielt werden.
  • Die vorliegende Technologie kann auch die folgenden Konfigurationen annehmen.
    • (1) Ein Lawinen-Fotodiodensensor, aufweisend:
      • ein erstes Halbleitersubstrat; und
      • ein zweites Halbleitersubstrat, das an eine erste Oberfläche des ersten Halbleitersubstrats gebondet ist,
      • wobei
      • das erste Halbleitersubstrat enthält:
        • eine Vielzahl fotoelektrischer Umwandlungsbereiche, die in einer Matrix angeordnet sind; und
        • einen Elementtrennungsbereich, um die Vielzahl fotoelektrischer Umwandlungsbereiche elementweise voneinander zu trennen,
      • die Vielzahl fotoelektrischer Umwandlungsbereiche einen ersten fotoelektrischen Umwandlungsbereich enthält,
      • der Elementtrennungsbereich ein erstes Elementtrennungsgebiet und ein zweites Elementtrennungsgebiet aufweist,
      • der erste fotoelektrische Umwandlungsbereich zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet ist,
      • das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche enthält, die an einer der ersten Oberfläche entgegengesetzten zweiten Oberfläche angeordnet und zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet sind, und
      • das zweite Halbleitersubstrat eine Leseschaltung enthält, die mit jedem der fotoelektrischen Umwandlungsbereiche verbunden ist.
    • (2) Der Lawinen-Fotodiodensensor gemäß dem obigen (1), wobei der erste fotoelektrische Umwandlungsbereich ein Kathodengebiet eines ersten Leitfähigkeitstyps, das an der ersten Oberfläche des ersten Halbleitersubstrats vorgesehen ist, und ein Anodengebiet eines dem ersten Leitfähigkeitstyp entgegengesetzten zweiten Leitfähigkeitstyp enthält, wobei das Anodengebiet an der ersten Oberfläche vorgesehen ist.
    • (3) Der Lawinen-Fotodiodensensor gemäß dem obigen (2), wobei die Vielzahl konkav-konvexer Bereiche in einem Gebiet entsprechend zumindest dem Kathodengebiet oder dem Anodengebiet in der Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
    • (4) Der Lawinen-Fotodiodensensor gemäß einem der obigen (1) bis (3), wobei der erste fotoelektrische Umwandlungsbereich eine Lawinen-Fotodiode ist.
    • (5) Der Lawinen-Fotodiodensensor gemäß einem der obigen (1) bis (4), wobei jedes der ersten und zweiten Elementtrennungsgebiete einen reflektierenden Film oder einen Film mit hohem Brechungsindex enthält.
    • (6) Der Lawinen-Fotodiodensensor gemäß einem der obigen (1) bis (5), wobei jedes der ersten und zweiten Elementtrennungsgebiete das erste Halbleitersubstrat von der ersten Oberfläche bis zur zweiten Oberfläche durchdringt.
    • (7) Der Lawinen-Fotodiodensensor gemäß einem der obigen (1) bis (6), wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem gesamten, durch die ersten und zweiten Elementtrennungsgebiete definierten Gebiet angeordnet ist.
    • (8) Der Lawinen-Fotodiodensensor gemäß dem obigen (2), wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem Gebiet entsprechend dem Kathodengebiet in einer Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
    • (9) Der Lawinen-Fotodiodensensor gemäß dem obigen (2), wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem Gebiet entsprechend dem Anodengebiet in einer Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
    • (10) Der Lawinen-Fotodiodensensor gemäß dem obigen (2), wobei der Elementtrennungsbereich ferner dritte und vierte Elementtrennungsgebiete umfasst, die den ersten fotoelektrischen Umwandlungsbereich in einer von den ersten und zweiten Elementtrennungsgebieten verschiedenen Richtung definieren, und die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem kreuzförmigen Gebiet angeordnet ist, das ein durch die ersten bis vierten Elementtrennungsgebiete definiertes rechteckiges Gebiet in vier unterteilt.
    • (11) Der Lawinen-Fotodiodensensor gemäß dem obigen (2), wobei der Elementtrennungsbereich ferner dritte und vierte Elementtrennungsgebiete umfasst, die den ersten fotoelektrischen Umwandlungsbereich in einer von den ersten und zweiten Elementtrennungsgebieten verschiedenen Richtung definieren, und die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche an jeder von vier Ecken eines durch die ersten bis vierten Elementtrennungsgebiete definierten rechteckigen Gebiets angeordnet ist.
    • (12) Der Lawinen-Fotodiodensensor gemäß dem obigen (2), wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem kreuzförmigen Gebiet entsprechend dem Kathodengebiet in einer Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
    • (13) Der Lawinen-Fotodiodensensor gemäß einem der obigen (1) bis (12), wobei ein Graben an der zweiten Oberfläche des ersten Halbleitersubstrats in zumindest einem Teil eines durch die ersten und zweiten Elementtrennungsgebiete definierten Gebiets vorgesehen ist.
    • (14) Der Lawinen-Fotodiodensensor gemäß dem obigen (13), wobei die Vielzahl konkav-konvexer Bereiche auf einer Bodenfläche des Grabens vorgesehen ist.
    • (15) Der Lawinen-Fotodiodensensor gemäß dem obigen (13), wobei das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche enthält, die an einer Bodenfläche des Grabens vorgesehen sind.
    • (16) Der Lawinen-Fotodiodensensor gemäß einem der obigen (13) bis (15), wobei das erste Halbleitersubstrat ferner einen innerhalb des Grabens vorgesehenen lichtdurchlässigen Film enthält.
    • (17) Eine Abstandsmessvorrichtung, aufweisend:
      • einen lichtemittierenden Bereich, der dafür konfiguriert, Licht einer vorbestimmten Wellenlänge zu emittieren;
      • einen Lawinen-Fotodiodensensor, der dafür konfiguriert ist, ein Pixelsignal aus einem empfangenen Licht zu erzeugen; und
      • eine Berechnungseinheit, die dafür konfiguriert ist, einen Abstand zu einem Objekt basierend auf dem vom Lawinen-Fotodiodensensor erzeugten Pixelsignal zu berechnen,
      • der Lawinen-Fotodiodensensor aufweist:
        • ein erstes Halbleitersubstrat; und
        • ein zweites Halbleitersubstrat, das an eine erste Oberfläche des ersten Halbleitersubstrats gebondet ist,
        • wobei
        • das erste Halbleitersubstrat enthält:
      • eine Vielzahl fotoelektrischer Umwandlungsbereiche, die in einer Matrix angeordnet sind; und
      • einen Elementtrennungsbereich, um die Vielzahl fotoelektrischer Umwandlungsbereiche elementweise voneinander zu trennen,
      • die Vielzahl fotoelektrischer Umwandlungsbereiche einen ersten fotoelektrischen Umwandlungsbereich enthält,
      • der Elementtrennungsbereich ein erstes Elementtrennungsgebiet und ein zweites Elementtrennungsgebiet aufweist,
      • der erste fotoelektrische Umwandlungsbereich zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet ist,
      • das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche enthält, die an einer der ersten Oberfläche entgegengesetzten zweiten Oberfläche angeordnet und zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet sind, und
      • das zweite Halbleitersubstrat eine Leseschaltung enthält, die mit jedem der fotoelektrischen Umwandlungsbereiche verbunden ist.
  • Bezugszeichenliste
  • 1
    ToF-Sensor
    11
    Controller
    13
    lichtemittierender Bereich
    14
    lichtempfangender Bereich
    15
    Berechnungseinheit
    19
    externe I/F
    20
    SPAD-Pixel
    21
    fotoelektrischer Umwandlungsbereich
    22
    Leseschaltung
    23
    Lösch- bzw. Quench-Widerstand
    24
    Auswahltransistor
    25
    Digitalwandler
    251
    Widerstand
    252
    NMOS-Transistor
    26
    Inverter
    261
    PMOS-Transistor
    262
    NMOS-Transistor
    27
    Puffer
    30
    Makropixel
    40
    SPAD-Additionseinheit
    41
    Impulsformungseinheit
    42
    empfangene Photonen zählende Einheit
    50
    gebondeter Chip
    51
    Erster Chip
    52
    Zweiter Chip
    80
    Host
    90
    Objekt
    131
    Lichtquelle
    132
    Kollimatorlinse
    133
    Halbspiegel
    134
    Ansteuerungseinheit
    135
    Galvanometerspiegel
    141
    SPAD-Array
    142
    effektives Gebiet
    142-1 bis 142-4
    SPAD-Gebiet
    143
    Steuerungsschaltung zur Zeitsteuerung
    144
    Ansteuerungsschaltung
    145
    Ausgabeschaltung
    146
    lichtempfangende Linse
    150
    Halbleitersubstrat
    151
    Halbleitergebiet vom N-Typ
    153
    Halbleitergebiet vom P-Typ
    154
    Halbleitergebiet vom (P+)-Typ
    155
    Halbleitergebiet vom (N+)-Typ
    156
    Kontaktschicht
    157
    Elementtrennungsbereich
    157A, 157B
    Elementtrennungsgebiet
    158
    reflektierender Film
    159
    Isolierfilm
    161
    Einebnungsfilm
    162
    On-Chip-Linse
    163
    Pinning-Schicht
    164
    transparenter Isolierfilm
    170
    Verdrahtungsschicht
    171
    Isolierfilm
    172, 176
    Durchgangsverdrahtung
    173, 177, 191 und 195
    Elektroden-Pad
    180, 180B, 180C, 180D, 180E, 180F, 280G, 280H, 280K, 280L, 280M
    Gebiet
    181
    konkav-konvexer Bereich
    192, 196
    Anschluss
    201G, 201H
    lichtdurchlässiger Film
    202G, 202H
    Graben
    203G, 203H
    Einfallsoberfläche
    AR
    Abstandsmessbereich
    L1
    Laserlicht
    L2
    reflektiertes Licht
    LD
    Pixel-Ansteuerungsleitung
    LS
    Ausgangssignalleitung
    SR
    Blickwinkel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2018088488 A [0002]
    • JP 2017108062 A [0002]
    • WO 2018/074530 [0002]

Claims (17)

  1. Lawinen-Fotodiodensensor, aufweisend: ein erstes Halbleitersubstrat; und ein zweites Halbleitersubstrat, das an eine erste Oberfläche des ersten Halbleitersubstrats gebondet ist, wobei das erste Halbleitersubstrat enthält: eine Vielzahl fotoelektrischer Umwandlungsbereiche, die in einer Matrix angeordnet sind; und einen Elementtrennungsbereich, um die Vielzahl fotoelektrischer Umwandlungsbereiche elementweise voneinander zu trennen, die Vielzahl fotoelektrischer Umwandlungsbereiche einen ersten fotoelektrischen Umwandlungsbereich enthält, der Elementtrennungsbereich ein erstes Elementtrennungsgebiet und ein zweites Elementtrennungsgebiet aufweist, der erste fotoelektrische Umwandlungsbereich zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet ist, das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche enthält, die an einer der ersten Oberfläche entgegengesetzten zweiten Oberfläche angeordnet und zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet sind, und das zweite Halbleitersubstrat eine Leseschaltung enthält, die mit jedem der fotoelektrischen Umwandlungsbereiche verbunden ist.
  2. Lawinen-Fotodiodensensor nach Anspruch 1, wobei der erste fotoelektrische Umwandlungsbereich ein Kathodengebiet eines ersten Leitfähigkeitstyps, das an der ersten Oberfläche des ersten Halbleitersubstrats vorgesehen ist, und ein Anodengebiet eines dem ersten Leitfähigkeitstyp entgegengesetzten zweiten Leitfähigkeitstyp enthält, wobei das Anodengebiet an der ersten Oberfläche vorgesehen ist.
  3. Lawinen-Fotodiodensensor nach Anspruch 2, wobei die Vielzahl konkav-konvexer Bereiche in einem Gebiet entsprechend zumindest dem Kathodengebiet oder dem Anodengebiet in der Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
  4. Lawinen-Fotodiodensensor nach Anspruch 1, wobei der erste fotoelektrische Umwandlungsbereich eine Lawinen-Fotodiode ist.
  5. Lawinen-Fotodiodensensor nach Anspruch 1, wobei jedes der ersten und zweiten Elementtrennungsgebiete einen reflektierenden Film oder einen Film mit hohem Brechungsindex enthält.
  6. Lawinen-Fotodiodensensor nach Anspruch 1, wobei jedes der ersten und zweiten Elementtrennungsgebiete das erste Halbleitersubstrat von der ersten Oberfläche bis zur zweiten Oberfläche durchdringt.
  7. Lawinen-Fotodiodensensor nach Anspruch 1, wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem gesamten, durch die ersten und zweiten Elementtrennungsgebiete definierten Gebiet angeordnet ist.
  8. Lawinen-Fotodiodensensor nach Anspruch 2, wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem Gebiet entsprechend dem Kathodengebiet in einer Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
  9. Lawinen-Fotodiodensensor nach Anspruch 2, wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem Gebiet entsprechend dem Anodengebiet in einer Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
  10. Lawinen-Fotodiodensensor nach Anspruch 2, wobei der Elementtrennungsbereich ferner dritte und vierte Elementtrennungsgebiete umfasst, die den ersten fotoelektrischen Umwandlungsbereich in einer von den ersten und zweiten Elementtrennungsgebieten verschiedenen Richtung definieren, und die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem kreuzförmigen Gebiet angeordnet ist, das ein durch die ersten bis vierten Elementtrennungsgebiete definiertes rechteckiges Gebiet in vier unterteilt.
  11. Lawinen-Fotodiodensensor nach Anspruch 2, wobei der Elementtrennungsbereich ferner dritte und vierte Elementtrennungsgebiete umfasst, die den ersten fotoelektrischen Umwandlungsbereich in einer von den ersten und zweiten Elementtrennungsgebieten verschiedenen Richtung definieren, und die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche an jeder von vier Ecken eines durch die ersten bis vierten Elementtrennungsgebiete definierten rechteckigen Gebiets angeordnet ist.
  12. Lawinen-Fotodiodensensor nach Anspruch 2, wobei die Vielzahl konkav-konvexer Bereiche an der zweiten Oberfläche in einem kreuzförmigen Gebiet entsprechend dem Kathodengebiet in einer Substratdickenrichtung des ersten Halbleitersubstrats angeordnet ist.
  13. Lawinen-Fotodiodensensor nach Anspruch 1, wobei ein Graben an der zweiten Oberfläche des ersten Halbleitersubstrats in zumindest einem Teil eines durch die ersten und zweiten Elementtrennungsgebiete definierten Gebiets vorgesehen ist.
  14. Lawinen-Fotodiodensensor nach Anspruch 13, wobei die Vielzahl konkav-konvexer Bereiche auf einer Bodenfläche des Grabens vorgesehen ist.
  15. Lawinen-Fotodiodensensor nach Anspruch 13, wobei das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche enthält, die an einer Bodenfläche des Grabens vorgesehen sind.
  16. Lawinen-Fotodiodensensor nach Anspruch 13, wobei das erste Halbleitersubstrat ferner einen innerhalb des Grabens vorgesehenen lichtdurchlässigen Film enthält.
  17. Abstandsmessvorrichtung, aufweisend: einen lichtemittierenden Bereich, der dafür konfiguriert, Licht einer vorbestimmten Wellenlänge zu emittieren; einen Lawinen-Fotodiodensensor, der dafür konfiguriert ist, ein Pixelsignal aus einem empfangenen Licht zu erzeugen; und eine Berechnungseinheit, die dafür konfiguriert ist, einen Abstand zu einem Objekt basierend auf dem vom Lawinen-Fotodiodensensor erzeugten Pixelsignal zu berechnen, wobei der Lawinen-Fotodiodensensor aufweist: ein erstes Halbleitersubstrat; und ein zweites Halbleitersubstrat, das an eine erste Oberfläche des ersten Halbleitersubstrats gebondet ist, das erste Halbleitersubstrat enthält: eine Vielzahl fotoelektrischer Umwandlungsbereiche, die in einer Matrix angeordnet sind; und einen Elementtrennungsbereich, um die Vielzahl fotoelektrischer Umwandlungsbereiche elementweise voneinander zu trennen, die Vielzahl fotoelektrischer Umwandlungsbereiche einen ersten fotoelektrischen Umwandlungsbereich enthält, der Elementtrennungsbereich ein erstes Elementtrennungsgebiet und ein zweites Elementtrennungsgebiet aufweist, der erste fotoelektrische Umwandlungsbereich zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet ist, das erste Halbleitersubstrat ferner eine Vielzahl konkav-konvexer Bereiche enthält, die an einer der ersten Oberfläche entgegengesetzten zweiten Oberfläche angeordnet und zwischen dem ersten Elementtrennungsgebiet und dem zweiten Elementtrennungsgebiet angeordnet sind, und das zweite Halbleitersubstrat eine Leseschaltung enthält, die mit jedem der fotoelektrischen Umwandlungsbereiche verbunden ist.
DE112020000903.3T 2019-02-21 2020-02-06 Lawinen-fotodiodensensor und abstandsmessvorrichtung Pending DE112020000903T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019029912 2019-02-21
JP2019-029912 2019-02-21
PCT/JP2020/004602 WO2020170841A1 (ja) 2019-02-21 2020-02-06 アバランシェフォトダイオードセンサ及び測距装置

Publications (1)

Publication Number Publication Date
DE112020000903T5 true DE112020000903T5 (de) 2021-11-11

Family

ID=72143812

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020000903.3T Pending DE112020000903T5 (de) 2019-02-21 2020-02-06 Lawinen-fotodiodensensor und abstandsmessvorrichtung

Country Status (8)

Country Link
US (1) US20220140156A1 (de)
EP (2) EP3930012B1 (de)
JP (1) JPWO2020170841A1 (de)
KR (1) KR20210129638A (de)
CN (1) CN113287204A (de)
DE (1) DE112020000903T5 (de)
TW (1) TW202044570A (de)
WO (1) WO2020170841A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11335718B2 (en) * 2020-07-16 2022-05-17 Omnivision Technologies, Inc. Cell deep trench isolation structure for near infrared improvement
JP2022039524A (ja) * 2020-08-28 2022-03-10 株式会社東芝 半導体装置
JP2022083194A (ja) * 2020-11-24 2022-06-03 ソニーセミコンダクタソリューションズ株式会社 センサデバイス
TWI749951B (zh) * 2020-12-17 2021-12-11 華碩電腦股份有限公司 超音波傳感模組
KR20220108918A (ko) * 2021-01-28 2022-08-04 삼성전자주식회사 이미지 센서
JP2022175591A (ja) * 2021-05-14 2022-11-25 ソニーセミコンダクタソリューションズ株式会社 測距装置及び測距システム
WO2022264511A1 (ja) * 2021-06-17 2022-12-22 ソニーセミコンダクタソリューションズ株式会社 測距装置及び測距方法
US20230030282A1 (en) * 2021-07-30 2023-02-02 Sony Semiconductor Solutions Corporation Backside illuminated single photon avalanche diode
US20230065063A1 (en) * 2021-08-24 2023-03-02 Globalfoundries Singapore Pte. Ltd. Single-photon avalanche diodes with deep trench isolation
WO2023132003A1 (ja) * 2022-01-05 2023-07-13 キヤノン株式会社 光電変換装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108062A (ja) 2015-12-11 2017-06-15 ソニー株式会社 固体撮像素子、撮像装置、および、固体撮像素子の製造方法
WO2018074530A1 (en) 2016-10-18 2018-04-26 Sony Semiconductor Solutions Corporation Photodetector
JP2018088488A (ja) 2016-11-29 2018-06-07 ソニーセミコンダクタソリューションズ株式会社 センサチップおよび電子機器

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038542A1 (ja) * 2015-09-03 2017-03-09 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および電子装置
CN108463887B (zh) * 2016-01-21 2022-12-16 索尼公司 摄像器件和电子设备
CN109690777B (zh) * 2016-08-29 2023-06-27 浜松光子学株式会社 距离传感器及距离图像传感器
EP3712945A3 (de) * 2016-09-23 2020-12-02 Apple Inc. Gestapelte rückseiten-beleuchtete spad-arrays
JP7058479B2 (ja) * 2016-10-18 2022-04-22 ソニーセミコンダクタソリューションズ株式会社 光検出器
JP7114244B2 (ja) * 2017-11-30 2022-08-08 キヤノン株式会社 光検出装置、光検出システム、及び移動体
US10638063B2 (en) * 2018-07-11 2020-04-28 Semiconductor Components Industries, Llc Methods and apparatus for increased dynamic range of an image sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108062A (ja) 2015-12-11 2017-06-15 ソニー株式会社 固体撮像素子、撮像装置、および、固体撮像素子の製造方法
WO2018074530A1 (en) 2016-10-18 2018-04-26 Sony Semiconductor Solutions Corporation Photodetector
JP2018088488A (ja) 2016-11-29 2018-06-07 ソニーセミコンダクタソリューションズ株式会社 センサチップおよび電子機器

Also Published As

Publication number Publication date
EP3930012A1 (de) 2021-12-29
TW202044570A (zh) 2020-12-01
WO2020170841A1 (ja) 2020-08-27
JPWO2020170841A1 (ja) 2021-12-23
KR20210129638A (ko) 2021-10-28
EP4242692A2 (de) 2023-09-13
EP4242692A3 (de) 2024-02-28
US20220140156A1 (en) 2022-05-05
EP3930012B1 (de) 2023-07-12
EP3930012A4 (de) 2022-04-20
CN113287204A (zh) 2021-08-20

Similar Documents

Publication Publication Date Title
DE112020000903T5 (de) Lawinen-fotodiodensensor und abstandsmessvorrichtung
DE112019002068T5 (de) Lichtempfangsvorrichtung und abstandsmessvorrichtung
DE112016001187T5 (de) Strahllenkungs-Ladarsensor
DE112018006605T5 (de) Festkörperbildgebungsvorrichtung, Entfernungsvorrichtung und Herstellungsverfahren
DE112020002523T5 (de) Festkörper-bildgebungsvorrichtung und abstandsmessvorrichtung
DE112019000310T5 (de) Entfernungsmessvorrichtung und entfernungsmessverfahren
EP3920242A1 (de) Lichtempfangselement, festkörperbildgebungsvorrichtung und entfernungsmessvorrichtung
DE112018005189T5 (de) Halbleiterlaser-Ansteuerschaltung, Halbleiterlaser-Ansteuerschaltungsverfahren, Distanzmesseinrichtung und Elektronikeinrichtung
DE112021001015T5 (de) Bildgebungsvorrichtung und fahrzeugsteuerungsystem
WO2020153275A1 (ja) 測距装置、車載システム及び測距方法
WO2021125031A1 (ja) 固体撮像装置及び測距装置
DE112018004413T5 (de) Festkörper-bildaufnahmeelement, verfahren zur herstellung eines festkörper-bildaufnahmeelements und elektronische vorrichtung
DE112019003623T5 (de) Lichtempfangendes Element und abstandsmessendes Modul
DE102022102182A1 (de) Sipm-basierter sensor zur zusammenführung niedriger ebene
DE112019005789T5 (de) Festkörperbildgebungsvorrichtung und elektronische Einrichtung
EP4063784A1 (de) Lichtempfangselement und entfernungsmessmodul
DE112021005742T5 (de) Lichtempfangsvorrichtung und Abstandsmessvorrichtung
DE112020004690T5 (de) Abstandsmesssensor, signalverarbeitungsverfahren und abstandsmessmodul
US20220093669A1 (en) Light-receiving element, solid-state imaging device, and ranging device
DE112022003348T5 (de) Bildgebungselement und elektronische vorrichtung
DE112022002675T5 (de) Lichtdetektionsvorrichtung und entfernungsmessungssystem
DE112021002937T5 (de) Entfernungsmessvorrichtung
DE112020005922T5 (de) Bildgebungsvorrichtungen und bildgebungseinrichtungen und verfahren dafür
DE112022003108T5 (de) Abstandsmessvorrichtung und abstandsmessverfahren
DE112020006176T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und abstandsmessungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication