DE102018109752B4 - Bildsensor für abstandsmessungen - Google Patents

Bildsensor für abstandsmessungen Download PDF

Info

Publication number
DE102018109752B4
DE102018109752B4 DE102018109752.2A DE102018109752A DE102018109752B4 DE 102018109752 B4 DE102018109752 B4 DE 102018109752B4 DE 102018109752 A DE102018109752 A DE 102018109752A DE 102018109752 B4 DE102018109752 B4 DE 102018109752B4
Authority
DE
Germany
Prior art keywords
region
photoelectric conversion
image sensor
semiconductor substrate
conversion region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018109752.2A
Other languages
English (en)
Other versions
DE102018109752A1 (de
Inventor
Young-Gu Jin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE102018109752A1 publication Critical patent/DE102018109752A1/de
Application granted granted Critical
Publication of DE102018109752B4 publication Critical patent/DE102018109752B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • H01L27/14614Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor having a special gate structure
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/1461Pixel-elements with integrated switching, control, storage or amplification elements characterised by the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14638Structures specially adapted for transferring the charges across the imager perpendicular to the imaging plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Semiconductor Integrated Circuits (AREA)
  • Metal-Oxide And Bipolar Metal-Oxide Semiconductor Integrated Circuits (AREA)
  • Light Receiving Elements (AREA)
  • Electrodes Of Semiconductors (AREA)

Abstract

Bildsensor, aufweisend:ein Halbleitersubstrat (210) mit einem ersten Leitfähigkeitstyp, das eine erste Oberfläche (202) und eine zweite Oberfläche (204; 204a), die einander entgegengesetzt sind, und eine Wannenregion (220) angrenzend an die erste Oberfläche (202) aufweist, wobei das Halbleitersubstrat (210) eine Mehrzahl von Aussparungen (212) aufweist, die in der zweiten Oberfläche (204) so ausgebildet sind, dass sie zur erste Oberfläche (202) hin eingetieft sind;ein erstes vertikales Übertragungsgatter (244) und ein zweites vertikales Übertragungsgatter (254), die voneinander beabstandet sind und sich in einer Dickenrichtung des Halbleitersubstrats (210) von der ersten Oberfläche (202) aus erstrecken, so dass sie durch zumindest einen Teil der Wannenregion (220) verlaufen;eine photoelektrische Umwandlungsregion (230), die einen zweiten Leitfähigkeitstyp aufweist, der von dem erste Leitfähigkeitstyp verschieden ist, und die im Halbleitersubstrat (210) zwischen der Wannenregion (220) und der zweiten Oberfläche (204) angeordnet ist und das erste vertikale Übertragungsgatter (244) und das zweite vertikale Übertragungsgatter (254) in der Dickenrichtung des Halbleitersubstrats (210) überlagert;eine Verdrahtungsstruktur (300), die auf der ersten Oberfläche (202) des Halbleitersubstrats (210) angeordnet ist;eine Schicht mit fester negativer Ladung (292), eine Antireflexionsschicht (294) und eine Mikrolinse, die nacheinander auf die zweite Oberfläche (204) des Halbleitersubstrats (210) gestapelt sind; und Streuungsinduzierungsschichten (214), die in der Mehrzahl von Aussparungen (212) angeordnet sind und aus einem isolierenden Material bestehen, undwobei die Schicht (294) mit fester negativer Ladung die Streuungsinduzierungsschichten (214) so umgibt, dass die Streuungsinduzierungsschichten (214) und die zweite Oberfläche (204) des Halbleitersubstrats (210) voneinander beabstandet sind.

Description

  • HINTERGRUND
  • 1. Gebiet der Offenbarung
  • Die vorliegende Offenbarung betrifft einen Bildsensor. Genauer betrifft die vorliegende Offenbarung einen Bildsensor für Abstandsmessungen.
  • 2. Beschreibung der verwandten Technik
  • Ein üblicher Bildsensor hat keine Informationen über einen Abstand zu einem Subjekt. Um exakte Informationen über einen Abstand zu einem Subjekt zu erhalten, wurde ein Laufzeit- bzw. Time-of-Flight (ToF)-Bildsensor entwickelt. Ein Laufzeit-Bildsensor kann durch Messen einer Laufzeit zwischen einer Zeit, zu der Licht zu einem Subjekt emittiert wird, und einer Zeit, zu der von dem Subjekt reflektiertes Licht empfangen wird, Informationen über einen Abstand zu dem Subjekt erhalten.
  • Aus der US 2015/0115291 A1 ist ein Bildsensor bekannt, der aufweist: ein Halbleitersubstrat mit einem Graben und einem ersten Leitfähigkeitstyp, eine im Halbleitersubstrat unterhalb des Grabens ausgebildete fotoelektrische Umwandlungsschicht mit einem zweiten Leitfähigkeitstyp, erste und zweite Transfer-Gate-Elektroden, die im Graben mit einer Gate-Isolierschicht bedeckt sind, eine erste Ladungserkennungsschicht, die im Halbleitersubstrat benachbart zur ersten Transfer-Gate-Elektrode ausgebildet ist, und eine zweite Ladungserkennungsschicht, die im Halbleitersubstrat benachbart zur zweiten Transfer-Gate-Elektrode ausgebildet ist.
  • Aus der DE 10 2011 055 527 A1 sind Bildsensoren bekannt, die einen ersten und einen zweiten gestapelten Störstellenbereich mit unterschiedlichen Leitfähigkeitstypen aufweisen. Die Bildsensoren können außerdem einen potentialfreien Diffusionsbereich in dem ersten Störstellenbereich aufweisen. Die Bildsensoren können ferner eine Transfer-Gateelektrode aufweisen, die den potentialfreien Diffusionsbereich in dem ersten Störstellenbereich umgibt. Außerdem können die Transfer-Gateelektrode und der potenzialfreie Diffusionsbereich den zweiten Störstellenbereich überlagern.
  • Aus der US 2016/0056198 A1 ist ein CMOS-Bildsensor bekannt, der aufweist: eine Epitaxieschicht eines ersten Leitfähigkeitstyps und ersten und zweiten Oberflächen, eine erste Vorrichtungsisolationsschicht, die sich von der ersten Oberfläche zur zweiten Oberfläche erstreckt, um erste und zweite Pixelbereiche zu definieren, und eine Wannenverunreinigungsschicht eines zweiten Leitfähigkeitstyps, die neben der ersten Oberfläche und in der Epitaxieschicht jedes der ersten und zweiten Pixelbereiche ausgebildet ist, und eine zweite Vorrichtungsisolationsschicht, die in der Wannenverunreinigungsschicht in jedem der ersten und zweiten Pixelbereiche ausgebildet ist, um erste und zweite aktive Abschnitte zu definieren, die in jedem der ersten und zweiten Pixelbereiche voneinander beabstandet sind.
  • KURZFASSUNG
  • Die vorliegende Offenbarung gibt einen Bildsensor für Abstandsmessungen an, der ein Pixel miniaturisieren kann und eine Empfindlichkeit erhöhen kann.
  • Gemäß einem Aspekt der vorliegenden Offenbarung weist ein Bildsensor auf: ein Halbleitersubstrat, ein erstes vertikales Übertragungsgatter und ein zweites vertikales Übertragungsgatter, eine photoelektrische Umwandlungsregion, eine Verdrahtungsstruktur. Das Halbleitersubstrat besitzt einen ersten Leitfähigkeitstyp und weist eine erste Oberfläche, eine der ersten Oberfläche entgegengesetzte zweite Oberfläche und eine Wannenregion angrenzend an die erste Oberfläche auf. Das erste vertikale Übertragungsgatter und das zweite vertikale Übertragungsgatter sind voneinander beabstandet und erstrecken sich in einer Dickenrichtung des Halbleitersubstrats von der ersten Oberfläche aus, so dass sie durch zumindest einen Teil der Wannenregion verlaufen. Die photoelektrische Umwandlungsregion besitzt einen zweiten Leitfähigkeitstyp, der von dem ersten Leitfähigkeitstyp verschieden ist. Die photoelektrische Umwandlungsregion ist im Halbleitersubstrat zwischen der Wannenregion und der zweiten Oberfläche angeordnet und überlagert das erste vertikale Übertragungsgatter und das zweite vertikale Übertragungsgatter in der Dickenrichtung des Halbleitersubstrats. Die Verdrahtungsstruktur ist auf der ersten Oberfläche des Halbleitersubstrats angeordnet. Das Halbleitersubstrat weist eine Mehrzahl von Aussparungen auf, die in der zweiten Oberfläche so ausgebildet sind, dass sie zur ersten Oberfläche hin eingetieft sind. Der Bildsensor weist ferner auf: eine Schicht mit fester negativer Ladung, eine Antireflexionsschicht und eine Mikrolinse, die nacheinander auf die zweite Oberfläche des Halbleitersubstrats gestapelt sind, und Streuungsinduzierungsschichten, die in der Mehrzahl von Aussparungen angeordnet sind und aus einem isolierenden Material bestehen. Die Schicht mit fester negativer Ladung umgibt die Streuungsinduzierungsschichten so, dass die Streuungsinduzierungsschichten und die zweite Oberfläche des Halbleitersubstrats voneinander beabstandet sind.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung weist ein Bildsensor auf: eine Verdrahtungsstruktur, eine Wannenregion, eine photoelektrische Umwandlungsregion, eine Mikrolinse und mindestens zwei Übertragungsgatterstrukturen. Die Wannenregion weist eine Demodulationsregion auf und ist auf der Verdrahtungsstruktur angeordnet. Die photoelektrische Umwandlungsregion ist auf der Wannenregion angeordnet. Die Mikrolinse ist auf der photoelektrischen Umwandlungsregion angeordnet. Die mindestens zwei Übertragungsgatterstrukturen sind voneinander beabstandet, mit der Demodulationsregion dazwischen, angeordnet und weisen jeweils ein vertikales Übertragungsgatter auf, das sich in einer Dickenrichtung der Wannenregion erstreckt, so dass es zumindest durch einen Teil der Wannenregion verläuft, sowie einen Übertragungsgatterisolierfilm, der das vertikale Übertragungsgatter umgibt. Der Bildsensor weist ferner auf: erste Barriereverunreinigungsregionen, die auf anderen Abschnitten der Wan¬nenregion als die Demodulationsregion und angrenzend an die photoelektrische Umwandlungsregion so angeordnet sind, dass sie von den mindestens zwei vertikalen Übertragungsgatterstrukturen beabstandet sind. Die ersten Barriereverunreinigungsregionen weisen eine Verunreinigungskonzentration auf, die größer ist als eine Verunreinigungskonzentration der Wannenregion.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung weist ein Bildsensor eine Rückwärtsbelichtungs (BSI)-Struktur auf und beinhaltet: ein Halbleitersubstrat, mehrere vertikale Übertragungsgatter, eine erste photoelektrische Umwandlungsregion und eine zweite photoelektrische Umwandlungsregion. Das Halbleitersubstrat besitzt einen Leitfähigkeitstyp und weist eine erste Oberfläche, eine der ersten Oberfläche entgegengesetzte zweite Oberfläche und eine Wannenregion angrenzend an die erste Oberfläche auf. Die vertikalen Übertragungsgatter sind voneinander beabstandet und erstrecken sich von der ersten Oberfläche zur zweiten Oberfläche, wobei sie durch zumindest einen Teil der Wannenregion verlaufen. Die erste photoelektrische Umwandlungsregion ist im Halbleitersubstrat angrenzend an die zweite Oberfläche angeordnet. Die zweite photoelektrische Umwandlungsregion weist einen zweiten Leitfähigkeitstyp auf, der von dem ersten Leitfähigkeitstyp verschieden ist, ist zwischen der ersten photoelektrischen Umwandlungsregion und der Wannenregion angeordnet weist eine Breite auf, die geringer ist als eine Breite der ersten photoelektrischen Umwandlungsregion, und weist eine Verunreinigungskonzentration auf, die größer ist, als eine Verunreinigungskonzentration der ersten photoelektrischen Umwandlungsregion. Das Halbleitersubstrat weist eine Mehrzahl von Aussparungen auf, die in der zweiten Oberfläche so ausgebildet sind, dass sie zur ersten Oberfläche hin eingetieft sind. Der Bildsensor weist ferner auf: eine Schicht mit fester negativer Ladung, eine Antireflexionsschicht und eine Mikrolinse, die nacheinander auf die zweite Oberfläche des Halbleitersubstrats gestapelt sind, und Streuungsinduzierungsschichten, die in der Mehrzahl von Aussparungen angeordnet sind und aus einem isolierenden Material bestehen. Die Schicht mit fester negativer Ladung umgibt die Streuungsinduzierungsschichten so, dass die Streuungsinduzierungsschichten und die zweite Oberfläche des Halbleitersubstrats voneinander beabstandet sind.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsformen der vorliegenden Offenbarung werden anhand der folgenden ausführlichen Beschreibung in Zusammenschau mit den begleitenden Zeichnungen besser verständlich werden, in denen:
    • 1 ein Blockschaltbild eines Systems gemäß einer Ausführungsform ist;
    • 2 ein Diagramm ist, das einen Betrieb des Systems gemäß einer Ausführungsform erläutert;
    • 3A eine Querschnittsansicht ist, die Elemente eines Einheitspixels eines Bildsensors gemäß einer Ausführungsform darstellt;
    • 3B ein Ersatzschaltbild des Einheitspixels des Bildsensors gemäß einer Ausführungsform ist;
    • 3C eine Draufsicht ist, die Elemente des Einheitspixels des Bildsensors gemäß einer Ausführungsform darstellt;
    • 4A ein Zeitablaufdiagramm zur Erläuterung eines Betriebs des Bildsensors zur Abstandsmessung gemäß einer Ausführungsform ist;
    • 4B eine Draufsicht auf ein Pixel-Array des Bildsensors gemäß einer Ausführungsform ist;
    • 4C und 4D Draufsichten auf das Pixel-Array zur Erläuterung eines Betriebs des Bildsensors zur Abstandsmessung gemäß einer Ausführungsform sind;
    • 5A ein Zeitablaufdiagramm zur Erläuterung eines Betriebs des Bildsensors zur Abstandsmessung gemäß einer Ausführungsform ist;
    • 5B eine Draufsicht auf ein Pixel-Array des Bildsensors gemäß einer Ausführungsform ist;
    • 5C und 5D Draufsichten auf das Pixel-Array zur Erläuterung eines Betriebs des Bildsensors zur Abstandsmessung gemäß einer Ausführungsform sind;
    • 6A bis 6E Querschnittsansichten sind, die Elemente eines Einheitspixels eines Bildsensors gemäß einer Ausführungsform darstellen;
    • 7A eine Querschnittsansicht ist, die Elemente eines Einheitspixels eines Bildsensors gemäß einer Ausführungsform darstellt;
    • 7B ein Ersatzschaltbild des Einheitspixels des Bildsensors gemäß einer Ausführungsform ist;
    • 7C eine Draufsicht ist, die Elemente des Einheitspixels des Bildsensors gemäß einer Ausführungsform darstellt;
    • 8 eine Draufsicht ist, die Elemente eines Einheitspixels eines Bildsensors gemäß einer Ausführungsform darstellt;
    • 9A eine Querschnittsansicht ist, die Elemente eines Einheitspixels eines Bildsensors gemäß einer Ausführungsform darstellt;
    • 9B ein Ersatzschaltbild des Einheitspixels des Bildsensors gemäß einer Ausführungsform ist;
    • 10A eine Querschnittsansicht ist, die Elemente eines Einheitspixels eines Bildsensors gemäß einer Ausführungsform darstellt; und
    • 10B ein Ersatzschaltbild des Einheitspixels des Bildsensors gemäß einer Ausführungsform ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Ausführungsformen werden nun ausführlich unter Bezugnahme auf die begleitenden Zeichnungen erläutert, um Elemente und Wirkungen der erfinderischen Idee(n) vollständig zu beschreiben.
  • 1 ist ein Blockschaltbild eines Systems 15 gemäß einer Ausführungsform.
  • Wie in 1 gezeigt ist, kann ein System 15 ein Bilderzeugungsmodul 17 aufweisen, das mit einem Prozessor 19 oder einem Host kommuniziert. In manchen Ausführungsformen kann das System 15 ferner ein Speichermodul 20 aufweisen, das mit dem Prozessor 19 verbunden ist und Informationen speichert, wie von dem Bilderzeugungsmodul 17 empfangene Bilddaten. In manchen Ausführungsformen kann das System 15 in einem einzigen Halbleiterchip integriert sein. In anderen Ausführungsformen können sowohl das Bilderzeugungsmodul 17 als auch der Prozessor 19 und das Speichermodul 20 als separate Halbleiterchips bereitgestellt sein. In manchen Ausführungsformen kann das Speichermodul 20 einen oder mehrere Speicherchips aufweisen. In manchen Ausführungsformen kann der Prozessor 19 mehrere Verarbeitungschips aufweisen.
  • Das System 15 kann eine elektronische Niederenergievorrichtung sein für die Anwendung eines Bildsensors zur Abstandsmessung gemäß einer Ausführungsform. Das System 15 kann ortsungebunden oder stationär sein. Wenn das System 15 ortsungebunden ist, können Beispiele für das System 15 ein Mobilgerät, ein Mobiltelefon, ein Smartphone, Unterhaltungselektronik (User Equipment, UE), ein Tablet, eine Digitalkamera, einen Laptop, einen Desktop-Computer, eine elektronische Smart-Watch, eine Vorrichtung für eine Kommunikation zwischen Endgeräten (Machine-to-Machine, M2M), ein Virtual-Reality (VR)-Gerät, ein VR-Modul und einen Roboter einschließen. Wenn das System 15 stationär ist, können Beispiele für das System 15 eine Spielekonsole eines Video Game Room, ein interaktives Bildschirmgerät, ein Fahrzeug, ein maschinelles Bildverarbeitungssystem, einen Industrieroboter, ein VR-Gerät und eine Autoinnenraumkamera (z.B. eine Kamera zur Überwachung, ob ein Fahrer schläfrig ist) einschließen.
  • In manchen Ausführungsformen kann das Bilderzeugungsmodul 17 eine Lichtquelle 22 und eine Bildsensoreinheit 24 aufweisen. Die Lichtquelle 22 kann beispielsweise eine Laserdiode (LD) oder eine Leuchtdiode (LED), die infrarotes oder sichtbares Licht emittiert, ein Nahinfrarot(NIR)-Laser, eine Punktlichtquelle, eine weiße Lampe, eine monochromatische Lichtquelle in Kombination mit einem Monochromator oder eine Kombination einer anderen Laserquelle sein. In manchen Ausführungsformen kann die Lichtquelle 22 Infrarotlicht mit einer Wellenlänge im Bereich von etwa 800 nm bis etwa 1000 nm emittieren. Die Bildsensoreinheit 24 kann ein Pixel-Array und Hilfsverarbeitungseinheiten aufweisen, wie in 2 gezeigt und beschrieben ist.
  • Zum Beispiel kann der Prozessor 19 eine zentrale Verarbeitungseinheit (CPU) sein, die ein nicht zweckgebundener Prozessor ist. „Prozessor“ und „CPU“ können austauschbar verwendet werden, je nachdem, was für die Erläuterung passender ist. In manchen Ausführungsformen kann der Prozessor 19 ein Mikrocontroller, ein Digitalsignalprozessor (DSP), eine Grafikverarbeitungseinheit (GPU) und/oder ein Prozessor einer anwendungsspezifischen integrierten Schaltung (ASIC) sein oder kann einen solchen zusätzlich zur CPU beinhalten. Ebenso kann der Prozessor 19 eine oder mehrere CPUs aufweisen, die in einer verteilten Verarbeitungsumgebung operieren. Der Prozessor 19 kann dafür ausgelegt sein, gemäß einer Befehlssatzarchitektur (Instruction Set Architecture, ISA) wie x86 ISA (z.B. einer 32-Bit-Version oder einer 64-Bit-Version), PowerPC® ISA oder einer ISA eines Mikroprozessors ohne verschränkte Pipeline-Stufen (MIPS), abhängig von einer ISA eines Computers mit reduziertem Befehlssatz (RISC), Befehle auszuführen und Daten zu verarbeiten. Zum Beispiel kann der Prozessor 19 ein Ein-Chip-System (SoC) sein, das Funktionen zusätzlich zu einer Funktion der CPU aufweist.
  • Das Speichermodul 20 kann beispielsweise ein dynamischer Speicherbaustein mir wahlfreiem Zugriff (DRAM), wie etwa ein synchroner DRAM (SDRAM), ein Speichermodul mit hoher Bandbreite (High Bandwidth Memory, HBM) oder ein auf DRAM basierendes dreidimensionales gestapeltes (3DS) Speichermodul, wie ein Hybridspeicherwürfel (Hybrid Memory Cube, HMC)-Speichermodul sein. Dieses Speichermodul 20 kann beispielsweise ein Solid-State Drive (SSD), ein DRAM-Modul oder Speicher auf Halbleiterbasis, wie etwa ein statischer Speicherbaustein mit wahlfreiem Zugriff (SRAM), ein Phasenänderungs-Speicherbaustein mit wahlfreiem Zugriff (PRAM), ein auf Widerstand basierender Speicherbaustein mit wahlfreiem Zugriff (RRAM), ein Conductive Bridging RAM (CBRAM), ein magnetischer RAM (MRAM) oder ein Spin-Transfer-Torque-MRAM (STT-MRAM) sein.
  • 2 ist ein Diagramm, das einen Betrieb des Systems 15 gemäß einer Ausführungsform erläutert.
  • Wie in 2 gezeigt ist, kann das System 15 verwendet werden, um Tiefeninformationen über ein 3D-Objekt 26 zu erhalten, das ein individuelles Objekt oder ein Objekt innerhalb eines Schauplatzes (nicht gezeigt) in der Z-Achsenrichtung sein kann. In manchen Ausführungsformen können die Tiefeninformationen vom Prozessor 19 auf Basis von Abtastdaten berechnet werden, die von der Bildsensoreinheit 24 empfangen werden. In manchen Ausführungsformen können die Tiefeninformationen von der Bildsensoreinheit 24 berechnet werden. In manchen Ausführungsformen können die Tiefeninformationen vom Prozessor 19 als Teil einer 3D-Benutzeroberfläche verwendet werden, so dass ein Benutzer des Systems 15 mit einem 3D-Bild des 3D-Objekts 26 in einem Spiel oder einer Anwendung, die im System 15 ausgeführt wird, interagieren kann.
  • Die X-Achse ist eine horizontale Richtung entlang einer vorderen Oberfläche des Systems 15, die Y-Achse ist eine vertikale Richtung aus der Seite hinaus, und die Z-Achse ist eine Tiefenrichtung, die zu dem 3D-Objekt 26, das abgebildet werden soll, hin ausgerichtet ist. In manchen Ausführungsformen können optische Achsen der Lichtquelle 22 und der Bildsensoreinheit 24 parallel zur Z-Achse sein, um eine Tiefe messen zu können.
  • Die Lichtquelle 22 kann das 3D-Objekt 26 beleuchten wie von den Pfeilen 28 und 29 markiert. Die Pfeile 28 und 29 entsprechen jeweils gestrichelten Linien 30 und 31, die Wege eines Lichtstrahls oder einer Belichtung angeben. Der Lichtstrahl oder die Belichtung kann verwendet werden, um eine Punktabtastung des 3D-Objekts 26 innerhalb eines großen Betrachtungswinkels durchzuführen. Eine reihenweise Abtastung einer Oberfläche eines Objekts wird unter Verwendung einer optischen Strahlenquelle durchgeführt, die eine lichtemittierende Vorrichtung 33 sein kann, die von einem Licht-Controller 34 betätigt und gesteuert wird. Ein Lichtstrahl aus der lichtemittierenden Vorrichtung 33 kann unter der Steuerung des Licht-Controllers 34 in X-Y-Richtungen durch eine Projektionslinse 35 punktweise über eine Oberfläche des 3D-Objekts 26 getastet werden. In manchen Ausführungsformen können während der Punktabtastung Lichtflecke entlang einer Abtastlinie auf die Oberfläche des 3D-Objekts 26 projiziert werden. Die Projektionslinse 35 kann eine Konzentrationslinse sein, die eine Glas- oder Kunststoffoberfläche oder ein zylindrisches optisches Element für die Konzentrierung eines Laserstrahls aus der lichtemittierenden Vorrichtung 33 an einem Punkt der Oberfläche des 3D-Objekts 26 aufweist. Zum Beispiel kann die Projektionslinse 35 eine Konzentrationslinse mit einer konvexen Struktur sein. Jedoch sind Ausführungsformen nicht hierauf beschränkt, und es können andere geeignete Linsen-Designs für die Projektionslinse 35 ausgewählt werden. Das 3D-Objekt 26 kann an einem Brennpunkt angeordnet sein, wo Beleuchtungslicht aus der lichtemittierenden Vorrichtung 33 von der Projektionslinse 35 an einem Lichtfleck konzentriert wird. Demgemäß wird während der Punktabtastung nacheinander ein schmaler Bereich oder ein Punkt auf der Oberfläche des 3D-Objekts 26 von einem Lichtstrahl beleuchtet, der von der Projektionslinse 35 konzentriert wird.
  • In manchen Ausführungsformen kann die lichtemittierende Vorrichtung 33 eine Laserdiode oder eine Leuchtdiode zum Emittieren von infrarotem oder sichtbarem Licht, ein NIR-Laser, eine Punktlichtquelle, eine weiße Lampe, eine monochromatische Lichtquelle in Kombination mit einem Monochromator oder eine Kombination einer anderen Laserquelle sein. Die lichtemittierende Vorrichtung 33 kann an einer Position in einem Gehäuse des Systems 15 fixiert sein und kann sich in den X-Y-Richtungen drehen. Die lichtemittierende Vorrichtung 33 kann vom Licht-Controller 34 in den X-Y-Richtungen gesteuert werden und kann eine Punktabtastung am 3D-Objekt 26 durchführen. In manchen Ausführungsformen kann das sichtbare Licht grünes Licht sein. Licht, das von der lichtemittierenden Vorrichtung 33 emittiert wird, kann unter Verwendung eines Spiegels (nicht gezeigt) auf die Oberfläche des 3D-Objekts 26 emittiert werden. Alternativ dazu kann eine Punktabtastung ohne einen Spiegel durchgeführt werden. Zum Beispiel kann die Lichtquelle 22 weniger oder mehr Elemente als in 2 dargestellt aufweisen.
  • Licht, das von der Punktabtastung des 3D-Objekts 26 reflektiert wird, kann sich entlang von Lichtsammelwegen fortbewegen, die von Pfeilen 36 und 37 und gestrichelten Linien 38 und 39 markiert sind. Wenn Licht aus der lichtemittierenden Vorrichtung 33 durch die Lichtsammelwege hindurch empfangen wird, können sich Photonen, die von der Oberfläche des 3D-Objekts 26 gestreut oder reflektiert werden, bewegen. In 2 sind verschiedene Wege, die von Pfeilen und gestrichelten Linien markiert werden, nur Beispiele. Wege, auf denen sich ein optisches Signal wirklich fortpflanzt, sind nicht auf die dargestellten Wege beschränkt.
  • Licht, das vom beleuchteten 3D-Obj ekt 26 empfangen wird, kann durch eine Sammellinse 44 der Bildsensoreinheit 24 an einem oder mehreren Pixeln eines zweidimensionalen (2D) Pixel-Arrays 42 konzentriert werden. Wie die Projektionslinse 35 kann auch die Sammellinse 44 eine Konzentrationslinse mit einer Glas- oder Kunststoffoberfläche oder einem anderen optischen Element für die Konzentration von reflektiertem Licht, das vom 3D-Objekt 26 empfangen wird, an einem oder mehreren Pixeln des 2D-Pixel-Arrays 42 sein. In manchen Ausführungsformen kann die Sammellinse 44 unter anderem eine Konzentrationslinse mit einer konvexen Struktur sein. Um die Erläuterung zu vereinfachen, ist das 2D-Pixel-Array 42 in 2 ein 3x3-Pixel-Array. Man beachte jedoch, dass das 2D-Pixel-Array 42 Tausende oder Millionen von Pixeln aufweisen kann. Das 2D-Pixel-Array 42 kann ein RGB-Pixel-Array sein, in dem unterschiedliche Pixel optische Signale unterschiedlicher Farben auffangen. Das 2D-Pixel-Array 42 kann ein 2D-Sensor wie etwa ein 2D-RGB-Sensor, der ein Infrarot(IR)-Sperrfilter aufweist, ein 2D-IR-Sensor, ein 2D-NIR-Sensor, ein 2D-RGBW-Sensor oder ein 2D-RGB-IR-Sensor sein. Das System 15 kann das 2D-Pixel-Array 42 nicht nur für eine 3D-Bildgebung (einschließlich einer Tiefenmessung) des 3D-Objekts 26, sondern auch für die Erzeugung eines 2D-RGB-Farbbildes des 3D-Objekts 26 (oder eines Schauplatzes, der das 3D-Objekt 26 einschließt), verwenden.
  • Das 2D-Pixel-Array 42 kann die empfangenen Photonen in elektrische Signale umwandeln, und ein Pixel-Array-Controller/Prozessor 46 kann die elektrischen Signale verarbeiten, um ein 3D-Tiefenbild des 3D-Objekts 26 zu bestimmen. Zum Beispiel kann der Pixel-Array-Controller/Prozessor 46 Phaseninformationen kombinieren, um eine Tiefe zu messen. Der Pixel-Array-Controller/Prozessor 46 kann mit ihm assoziierte Schaltkreise zum Steuern eines Betriebs des 2D-Pixel-Arrays 42 aufweisen.
  • Der Prozessor 19 kann einen Betrieb der Lichtquelle 22 und der Bildsensoreinheit 24 steuern. Zum Beispiel kann das System 15 einen Modusschalter (nicht gezeigt) aufweisen, der vom Benutzer gesteuert wird und der zwischen einem 2D-Bilderzeugungsmodus und einem 3D-Bilderzeugungsmodus umschaltet. Wenn der Benutzer den 2D-Bilderzeugungsmodus unter Verwendung des Modusschalters auswählt, könnte der Prozessor 19 die Bildsensoreinheit 24 aktivieren und die Lichtquelle 22 nicht aktivieren, weil der 2D-Bilderzeugungsmodus Umgebungslicht verwendet. Wenn der Benutzer dagegen den 3D-Bilderzeugungsmodus unter Verwendung des Modusschalters auswählt, könnte der Prozessor 19 sowohl die Lichtquelle 22 als auch die Bildsensoreinheit 24 aktivieren und eine Änderung eines Pegels eines Reset-Signals RST im Pixel-Array-Controller/Prozessor 46 auslösen und von einem linearen Modus auf einen logarithmischen Modus umschalten, wenn das Umgebungslicht zu stark ist und im linearen Modus nicht reflektiert wird. Verarbeitete Bilddaten, die vom Pixel-Array-Controller/Prozessor 46 empfangen werden, können vom Prozessor 19 im Speichermodul 20 gespeichert werden. Der Prozessor 19 kann ein 2D- oder 3D-Bild, das vom Benutzer auf einem Anzeigebildschirm (nicht gezeigt) des Systems 15 ausgewählt wird, anzeigen. Der Prozessor 19 kann mit Software oder Firmware zur Durchführung der verschiedenen oben beschriebenen Verarbeitungsaufgaben programmiert sein. In manchen Ausführungsformen kann der Prozessor 19 programmierbare Hardware-Logikschaltungen für die Durchführung mancher oder aller der oben genannten Funktionen einschließen. Zum Beispiel kann das Speichermodul 20 Programmcode, eine Zuordnungstabelle oder Zwischen-Rechenergebnisse speichern, so dass der Prozessor 19 eine entsprechende Funktion durchführen kann.
  • Der Prozessor 19 des Systems 15 kann eine eindimensionale (1D) Punktabtastung am 3D-Objekt 26 entlang einer Abtastlinie unter Verwendung der Lichtquelle 22 durchführen. Während der Punktabtastung kann die Lichtquelle 22 vom Prozessor 19 gesteuert werden, um aufeinanderfolgende Lichtflecke (oder eine Abfolge von Lichtflecken) reihenweise auf die Oberfläche des 3DObjekts 26 zu projizieren. Der Pixel-Array-Controller/Prozessor 46 des Systems 15 kann eine Pixelreihe in einem Bildsensor wie etwa dem 2D-Pixel-Array 42 auswählen. Der Bildsensor, wie etwa das 2D-Pixel-Array 42, weist mehrere Pixel auf, die in einem 2D-Array angeordnet sind und die eine Bildebene bilden. Die ausgewählte Pixelreihe bildet eine Epipolarlinie der Abtastreihe der Bildebene. Eine Epipolarlinie ist dabei eine Schnittlinie einer Epipolarebene mit einer Bilderzeugungsebene, wobei die Epipolarebene von einem 3D-Punkt und optischen Zentren zweier perspektivischer Kameras definiert wird. Der Pixel-Array-Controller/Prozessor 46 wird vom Prozessor 19 gesteuert, um jeden Lichtfleck unter Verwendung eines entsprechenden Pixels in der Pixelreihe zu erfassen. Wenn Licht, das von einem Lichtfleck reflektiert wird, von der Sammellinse 44 an zwei oder mehr benachbarten Pixeln konzentriert wird, kann das Licht, das vom Lichtfleck reflektiert wird, von einem einzelnen Pixel oder einem oder mehreren Pixeln erfasst werden. Anders ausgedrückt kann Licht, das von zwei oder mehr Lichtflecken reflektiert wird, in einem einzelnen Pixel des 2D-Pixel-Array 42 gesammelt werden. Der Pixel-Array-Controller/Prozessor 46 wird vom Prozessor 19 gesteuert, um als Reaktion auf eine pixelspezifische Erfassung eines entsprechenden Lichtflecks in den aufeinanderfolgenden Lichtflecken eine pixelspezifische Ausgabe zu erzeugen. Demgemäß kann der Pixel-Array-Controller/Prozessor 46 einen 3D-Abstand (oder eine Tiefe) für einen entsprechenden Lichtfleck auf der Oberfläche des 3D-Objekts 26 auf Basis von zumindest der pixelspezifischen Ausgabe und einem Abtastwinkel bestimmen, der von der Lichtquelle 22 verwendet wird, die den entsprechenden Lichtfleck projiziert.
  • 3A ist eine Querschnittsansicht, die Elemente eines Einheitspixels eines Bildsensors 1 gemäß einer Ausführungsform darstellt. 3B ist ein Ersatzschaltbild des Einheitspixels des Bildsensors 1 gemäß einer Ausführungsform. 3C ist eine Draufsicht, die Elemente des Einheitspixels des Bildsensors 1 gemäß einer Ausführungsform darstellt.
  • Um die Erläuterung zu vereinfachen, werden eine Querschnittsansicht und/oder eine Draufsicht und ein Ersatzschaltbild gemeinsam dargestellt und erläutert, und in der Querschnittsansicht und/oder der Draufsicht und im Ersatzschaltbild werden gleiche Bezugszahlen verwendet.
  • Wie in 3A bis 3C dargestellt ist, weist der Bildsensor 1 ein Halbleitersubstrat 210, eine photoelektrische Umwandlungsregion 230, mindestens zwei vertikale Übertragungsgatter, z.B. ein erstes vertikales Übertragungsgatter 244 und ein zweites vertikales Übertragungsgatter 254, und eine Verdrahtungsstruktur 300 auf. Das Halbleitersubstrat 210 weist eine erste Oberfläche 202 und eine zweite Oberfläche 204, die einander entgegengesetzt sind, und eine Wannenregion 220 angrenzend an die erste Oberfläche 202 auf. Der Begriff „angrenzend“, wie hierin verwendet, kann so aufgefasst werden, dass zwei Elemente aneinandergefügt sind, so dass sie eine Seite gemeinsam haben, aber wenn dies entsprechend spezifiziert oder gezeigt wird, kann er auch so aufgefasst werden, dass zwei Elemente einander nahe sind und kein Element des Bildsensors zwischen ihnen angeordnet ist. Die photoelektrische Umwandlungsregion 230 ist im Halbleitersubstrat 210 zwischen der Wannenregion 220 und der zweiten Oberfläche 204 angeordnet. Die mindestens zwei Übertragungsgatter, das heißt das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254, sind voneinander beabstandet und erstrecken sich in einer Dickenrichtung des Halbleitersubstrats 210, die senkrecht ist zu sowohl der ersten Oberfläche 202 als auch der zweiten Oberfläche 204, so dass sie durch zumindest einen Teil der Wannenregion 220 verlaufen. Die Verdrahtungsstruktur 300 ist auf der ersten Oberfläche 202 des Halbleitersubstrats 210 angeordnet. Die Verdrahtungsstruktur 300 kann ein erstes Rücksetzungsgatter RG1 282, ein zweites Rücksetzungsgatter RG2 284 und eine Verdrahtung, einen Kontaktstecker und einen Zwischenschicht-Isolierfilm zur Ausbildung zugehöriger Schaltungen umfassen.
  • Wie in 3A gezeigt ist, sind die erste Oberfläche 202 und die zweite Oberfläche 204 einander dadurch entgegengesetzt, dass sie auf einander entgegengesetzten Seiten des Halbleitersubstrats 210 angeordnet sind. Die erste Oberfläche 202 und die zweite Oberfläche 204 können parallele oder im Wesentlichen parallele (z.B. innerhalb von 5 Grad parallele) Ebenen sein, die einander entgegengesetzte Seiten des Halbleitersubstrats 210 definieren. Die Wannenregion 220 kann dadurch an die erste Oberfläche 202 angrenzen, dass sie die erste Oberfläche 202 zum Teil oder zur Gänze mit dem gesamten Halbleitersubstrat 210 als eine Seite (d.h. Grenze) gemeinsam hat. Das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254 können sich so in der Dickenrichtung erstrecken, dass sich die längste von ihren vier Seiten, die in 3A gezeigt sind, in der Tiefenrichtung erstreckt. Wie in 3A gezeigt ist, können sich das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254 in der Tiefenrichtung auch über die erste Oberfläche 202 hinaus erstrecken, so dass sie sich über die Wannenregion 220 hinaus erstrecken.
  • Das Halbleitersubstrat 210 kann mindestens eines beinhalten, das beispielsweise ausgewählt ist aus Silicium (Si), Germanium (Ge), Siliciumgermanium (SiGe), Siliciumcarbid (SiC), Galliumarsenid (GaAs), Indiumarsenid (InAs) und Indiumphosphid (InP). In manchen Ausführungsformen kann das Halbleitersubstrat 210 einen ersten Leitfähigkeitstyp aufweisen. Zum Beispiel kann der erste Leitfähigkeitstyp p-leitend sein.
  • Die Wannenregion 220 kann auf der Verdrahtungsstruktur 300 angeordnet sein. Die Wannenregion 220 kann beispielsweise den ersten Leitfähigkeitstyp aufweisen. Die Wannenregion 220 kann durch Dotieren des Halbleitersubstrats 210 mit Verunreinigungen, welche den ersten Leitfähigkeitstyp aufweisen, ausgebildet werden. Eine Verunreinigungskonzentration der Wannenregion 220 kann größer sein als eine Verunreinigungskonzentration eines Abschnitts des Halbleitersubstrats 210 außer der Wannenregion 220.
  • Die photoelektrische Umwandlungsregion 230 kann auf der Wannenregion angeordnet sein. Die photoelektrische Umwandlungsregion 230 kann einen zweiten Leitfähigkeitstyp aufweisen. Zum Beispiel kann der zweite Leitfähigkeitstyp n-leitend sein. Die photoelektrische Umwandlungsregion 230 kann eine Photodiode (PD) darstellen. Die photoelektrische Umwandlungsregion 230 kann eine erste photoelektrische Umwandlungsregion 232 (D-PD) und eine zweite photoelektrische Umwandlungsregion 234 (S-PD) einschließen. Eine Verunreinigungskonzentration der zweiten photoelektrische Umwandlungsregion 234 (S-PD) kann größer sein als eine Verunreinigungskonzentration der ersten photoelektrischen Umwandlungsregion 232 (D-PD). Da die erste photoelektrische Umwandlungsregion 232 (D-PD) relativ weit entfernt von der ersten Oberfläche 202 des Halbleitersubstrats 210 ausgebildet ist und die zweite photoelektrische Umwandlungsregion 234 (S-PD) relativ nahe an der ersten Oberfläche 202 des Halbleitersubstrats 210 ausgebildet ist, können die erste photoelektrische Umwandlungsregion 232 (D-PD) und die zweite photoelektrische Umwandlungsregion 234 (S-PD) als tiefe Photodiode (D-PD) bzw. als flache Photodiode (S-PD) bezeichnet werden.
  • In einer Richtung, die parallel ist zur ersten Oberfläche 202 oder zur zweiten Oberfläche 204 des Halbleitersubstrats 210, kann eine Breite der ersten photoelektrischen Umwandlungsregion 232 (D-PD) größer sein als eine Breite der zweiten photoelektrischen Umwandlungsregion 234 (S-PD). Die erste photoelektrische Umwandlungsregion 232 (D-PD) kann die gesamte zweite photoelektrische Umwandlungsregion 234 (S-PD) überlagern, beispielsweise in der Dickenrichtung des Halbleitersubstrats 210. Anders ausgedrückt kann die erste photoelektrische Umwandlungsregion 232, betrachtet vom unteren Rand der Seite in 3A aus und in Tiefenrichtung zum oberen Rand der Seite gesehen, einen Querschnitt aufweisen, der den gesamten Querschnitt der zweiten photoelektrischen Umwandlungsregion 234 einschließt. Anders ausgedrückt weist die zweite photoelektrische Umwandlungsregion 234 in der horizontalen Richtung sowohl links als auch rechts in 3A eine Breite innerhalb der Breite der ersten photoelektrischen Umwandlungsregion 232 auf. Somit steht der Begriff „überlagern“, wie hierin verwendet, für einen Vergleich zwischen zwei vergleichbaren Elementen, wie etwa eine Querschnittsabmessung eines Elements (z.B. der ersten photoelektrischen Umwandlungsregion 232), die eine vergleichbare Querschnittsabmessung eines anderen Elements (z.B. der zweiten photoelektrischen Umwandlungsregion 234) einschließt. Somit können Photoladungen, die in der photoelektrischen Umwandlungsregion 230 erzeugt werden, durch eine Bewegung von der ersten photoelektrischen Umwandlungsregion 232 (D-PD), die relativ breit ist, zur zweiten photoelektrischen Umwandlungsregion 234 (S-PD), die relativ schmal ist, konzentriert werden.
  • Jedes der mindestens zwei vertikalen Übertragungsgatter, z.B. das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254, können sich in der Dickenrichtung des Halbleitersubstrats 210 so erstrecken, dass sie eine Länge aufweisen, die im Bereich von etwa 50 nm bis etwa 500 nm liegt. In manchen Ausführungsformen kann eine Dicke der Wannenregion 220 der Länge von jedem der mindestens zwei vertikalen Übertragungsgatter, z.B. dem ersten vertikalen Übertragungsgatter 244 und dem zweiten vertikalen Übertragungsgatter 254, ähnlich sein. In manchen Ausführungsformen können sich die mindestens zwei vertikalen Übertragungsgatter, z.B. das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254, in der Dickenrichtung des Halbleitersubstrats 210 so erstrecken, dass sie vollständig durch die Wannenregion 220 hindurch verlaufen.
  • Die Wannenregion 220 kann eine Demodulationsregion 222 aufweisen. Die Demodulationsregion 222 in der Wannenregion 220 kann eine Region sein, wo sich Photoladungen, die in der photoelektrischen Umwandlungsregion 230 erzeugt werden, aufgrund der mindestens zwei vertikalen Übertragungsgatter, z.B. des ersten vertikalen Übertragungsgatters 244 und des zweiten vertikalen Übertragungsgatters 254, bewegen. Somit kann die Demodulationsregion 222 Abschnitte der Wannenregion 220 aufweisen, welche die mindestens zwei vertikalen Übertragungsgatter, z.B. das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254, umgeben, beispielsweise Abschnitte der Wannenregion 220, die an Oberflächen angrenzen, die entgegengesetzt sind zu Oberflächen der mindestens zwei vertikalen Übertragungsgatter, z.B. des ersten vertikalen Übertragungsgatters 244 und des zweiten vertikalen Übertragungsgatters 254, die einander zugewandt sind. Trotzdem wird zur Vereinfachung der Erläuterung nur ein Abschnitt der Wannenregion 220 zwischen den mindestens zwei vertikalen Übertragungsgattern, z.B. dem ersten vertikalen Übertragungsgatter 244 und dem zweiten vertikalen Übertragungsgatter 254, die voneinander beabstandet sind, als Demodulationsregion 222 bezeichnet. Anders ausgedrückt kann die Demodulationsregion 222 trotz dem, was in 3A gezeigt ist, auch Abschnitte der Wannenregion 220 auf der Seite des ersten vertikalen Übertragungsgatters 244 und des zweiten vertikalen Übertragungsgatters 254, die einander nicht zugewandt sind, einschließen. Somit können die mindestens zwei vertikalen Übertragungsgatter, z.B. das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254, voneinander beabstandet sein, mit der Demodulationsregion 222 dazwischen. In manchen Ausführungsformen kann die Demodulationsregion 222 den ersten Leitfähigkeitstyp aufweisen. In manchen Ausführungsformen kann die Demodulationsregion 222 den ersten Leitfähigkeitstyp aufweisen und kann eine Verunreinigungskonzentration aufweisen, die derjenigen von anderen Abschnitten der Wannenregion 220 gleich ist. In manchen Ausführungsformen kann die Demodulationsregion 222 eine Verunreinigungskonzentration aufweisen, die derjenigen von anderen Abschnitten der Wannenregion 220 gleich ist. In anderen Ausführungsformen kann die Demodulationsregion 222 den zweiten Leitfähigkeitstyp aufweisen.
  • Ein erster Übertragungsgatterisolierfilm 242 und ein zweiter Übertragungsgatterisolierfilm 252 zum Isolieren der mindestens zwei vertikalen Übertragungsgatter, z.B. des ersten vertikalen Übertragungsgatters 244 und des zweiten vertikalen Übertragungsgatters 254, und der Wannenregion 220 können um die beiden vertikalen Übertragungsgatter, z.B. das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254, herum angeordnet sein. Wenn der Bildsensor 1 zwei vertikale Übertragungsgatter, das heißt das erste vertikale Übertragungsgatter 244 (TG1) und das zweite vertikale Übertragungsgatter 254 (TG2), aufweist, können das erste vertikale Übertragungsgatter 244 und der erste Übertragungsgatter-Isolierfilm 242, der das erste vertikale Übertragungsgatter 244 umgibt, als erste Übertragungsgatterstruktur 240 bezeichnet werden und können das zweite vertikale Übertragungsgatter 254 und der zweite Übertragungsgatter-Isolierfilm 252, der das zweite vertikale Übertragungsgatter 254 umgibt, als zweite Übertragungsgatterstruktur 250 bezeichnet werden. Eine erste Modulationsspannung Vmod1 und eine zweite Modulationsspannung Vmod2 können an das erste vertikale Übertragungsgatter 244 bzw. das zweite vertikale Übertragungsgatter 254 angelegt werden. Das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254 können einen ersten Übertragungstransistor TS1 bzw. einen zweiten Übertragungstransistor TS2 darstellen.
  • Die photoelektrische Umwandlungsregion 230 kann die Demodulationsregion 222 in der Dickenrichtung des Halbleitersubstrats 210 überlagern. Anders ausgedrückt kann die photoelektrische Umwandlungsregion 230, betrachtet vom unteren Rand der Seite in 3A aus und in Tiefenrichtung zum oberen Rand der Seite gesehen, einen Querschnitt aufweisen, der den gesamten Querschnitt der Demodulationsregion 222 einschließt. Ebenso kann die photoelektrische Umwandlungsregion 230 sowohl die erste Übertragungsgatterstruktur 240, die das erste vertikale Übertragungsgatter 244 einschließt, als auch die zweite Übertragungsgatterstruktur 250, die das zweite vertikale Übertragungsgatter 254 einschließt, in der Dickenrichtung des Halbleitersubstrats 210 überlagern. Anders ausgedrückt kann die photoelektrische Umwandlungsregion 230, wenn man sie vom unteren Rand der Seite in 3A aus betrachtet und in der Tiefenrichtung zum oberen Rand der Seite blickt, einen Querschnitt aufweisen, der alle Querschnitte der ersten Übertragungsgatterstruktur 240 und der zweiten Übertragungsgatterstruktur 250 einschließt. Zum Beispiel kann die photoelektrische Umwandlungsregion 230 sowohl die Demodulationsregion 222 als auch die erste Übertragungsgatterstruktur 240, die das erste vertikale Übertragungsgatter 244 einschließt, und die zweite Übertragungsgatterstruktur 250, die das zweite vertikale Übertragungsgatter 254 einschließt, in der Dickenrichtung des Halbleitersubstrats 210 überlagern. Anders ausgedrückt kann sich die photoelektrische Umwandlungsregion 230 in der horizontalen Richtung in 3A sowohl rechts als auch links von der Demodulationsregion 222, der ersten Übertragungsgatterstruktur 240 und der zweiten Übertragungsgatterstruktur 250 erstrecken. Die horizontale Richtung in 3A entspricht einer Breitenrichtung wie hierin beschrieben.
  • In manchen Ausführungsformen kann die zweite photoelektrische Umwandlungsregion 234 (S-PD) die Demodulationsregion 222 in der Dickenrichtung des Halbleitersubstrats 210 überlagern. Ebenso kann die zweite photoelektrische Umwandlungsregion 234 (S-PD) sowohl die erste Übertragungsgatterstruktur 240, die das erste vertikale Übertragungsgatter 244 einschließt, als auch die zweite Übertragungsgatterstruktur 250, die das zweite vertikale Übertragungsgatter 254 einschließt, in der Dickenrichtung des Halbleitersubstrats 210 überlagern. Die erste photoelektrische Umwandlungsregion 232 (D-PD) kann beispielsweise sowohl die Demodulationsregion 222 als auch die erste Übertragungsgatterstruktur 240, die das erste vertikale Übertragungsgatter 244 einschließt, und die zweite Übertragungsgatterstruktur 250, die das zweite vertikale Übertragungsgatter 254 einschließt, in der Dickenrichtung des Halbleitersubstrats 210 überlagern. Anders ausgedrückt kann sich die zweite photoelektrische Umwandlungsregion 234 in der horizontalen Richtung in 3A sowohl rechts als auch links von der Demodulationsregion 222, der ersten Übertragungsgatterstruktur 240 und der zweiten Übertragungsgatterstruktur 250 erstrecken. Außerdem kann sich die erste photoelektrische Umwandlungsregion 232 in der horizontalen Richtung in 3A sowohl rechts als auch links von der Demodulationsregion 222, der ersten Übertragungsgatterstruktur 240 und der zweiten Übertragungsgatterstruktur 250 erstrecken.
  • Somit können Photoladungen, die in der photoelektrischen Umwandlungsregion 230 erzeugt werden, durch eine Bewegung aus der ersten photoelektrischen Umwandlungsregion 232 (D-PD) zur zweiten photoelektrischen Umwandlungsregion 234 (S-PD) konzentriert werden und dann in die Demodulationsregion 222 übertragen werden.
  • Eine erste Ladungsspeicherregion FD1 262 und eine zweite Ladungsspeicherregion FD2 272, die angrenzend an das erste vertikale Übertragungsgatter 244 bzw. das zweite vertikale Übertragungsgatter 254 angeordnet sind, können angrenzend an die erste Oberfläche 202 in der Wannenregion 220 angeordnet sein. In manchen Ausführungsformen können die erste Ladungsspeicherregion FD 1 262 und die zweite Ladungsspeicherregion FD2 272 jeweils den gleichen Leitfähigkeitstyp aufweisen. Zum Beispiel kann die erste Ladungsspeicherregion FD1 262 eine plane oder im Wesentlichen plane (z.B. zu mehr als 90% plane) Grenzfläche mit der ersten Übertragungsgatterstruktur 240 und eine andere plane oder im Wesentlichen plane (z.B. zu mehr als 90% plane) Grenzfläche mit der ersten Oberfläche 202 gemeinsam haben. Die zweite Ladungsspeicherregion FD2 272 kann eine plane oder im Wesentlichen plane (z.B. zu mehr als 90% plane) Grenzfläche mit der zweiten Übertragungsgatterstruktur 250 und eine andere plane oder im Wesentlichen plane (z.B. zu mehr als 90% plane) Grenzfläche mit der ersten Oberfläche 202 gemeinsam haben. Die erste Ladungsspeicherregion FD1 262 und die zweite Ladungsspeicherregion FD2 272 können in der Wannenregion 220 angrenzend an die erste Oberfläche 202 auf den Seiten des ersten vertikalen Übertragungsgatters 244 und des zweiten vertikalen Übertragungsgatters 254, die der Demodulationsregion 222 entgegengesetzt sind, angeordnet sein. Genauer kann die erste Ladungsspeicherregion FD1 262 auf einer Seite des ersten vertikalen Übertragungsgatters 244 angeordnet sein, die entgegengesetzt zum zweiten vertikalen Übertragungsgatter 254 (auf einer anderen Seite des ersten vertikalen Übertragungsgatters 244 als dieses) liegt, und die zweite Ladungsspeicherregion FD2 272 kann auf einer Seite des zweiten vertikalen Übertragungsgatters 254 angeordnet sein, die entgegengesetzt zum ersten vertikalen Übertragungsgatter 244 (auf einer anderen Seite des zweiten vertikalen Übertragungsgatters 254 als dieses) liegt.
  • Die erste Ladungsspeicherregion FD1 262 und die zweite Ladungsspeicherregion FD2 272 können mit Gattern eines ersten Sourcefolgertransistors SF1 bzw. eines zweiten Sourcefolgertransistors SF2 verbunden sein. Eine Source und ein Drain des ersten Sourcefolgertransistors SF1 können mit einer Source eines ersten Auswahltransistors SEL1 und einer Spannungsquelle Vdd verbunden sein. Eine erste Ausgangsspannung Vout1 kann von einem Drain des ersten Auswahltransistors SEL1 ausgegeben werden. Eine Source und ein Drain des zweiten Sourcefolgertransistors SF2 können mit einer Source eines zweiten Auswahltransistors SEL2 und einer Spannungsquelle Vdd verbunden sein. Eine zweite Ausgangsspannung Vout2 kann von einem Drain des zweiten Auswahltransistors SEL2 ausgegeben werden. Die Sources des ersten Sourcefolgertransistors SF1 und des zweiten Sourcefolgertransistors SF2 und des ersten Auswahltransistors SEL1 und des zweiten Auswahltransistors SEL2 können Regionen sein, die in 3C mit N+ benannt sind.
  • In manchen Ausführungsformen können die Gates des ersten Sourcefolgertransistors SF1 und des zweiten Sourcefolgertransistors SF2 und des ersten Auswahltransistors SEL1 und des zweiten Auswahltransistors SEL2 auf einer Höhe angeordnet sein, die derjenigen des ersten Rücksetzungsgatters RG1 282 und des zweiten Rücksetzungsgatters 284 der Verdrahtungsstruktur 300 gleich ist. In manchen Ausführungsformen können die Sources und die Drains des ersten Sourcefolgertransistors SF1 und des zweiten Sourcefolgertransistors SF2 und des ersten Auswahltransistors SEL1 und des zweiten Auswahltransistors SEL2 auf einer Höhe angeordnet sein, die derjenigen der ersten Ladungsspeicherregion FD1 262 und der zweiten Ladungsspeicherregion FD2 272 in der Wannenregion 220 gleich ist.
  • Das erste Rücksetzungsgatter RG1 282 und das zweite Rücksetzungsgatter RG2 284 können auf der ersten Oberfläche 202 des Halbleitersubstrats 210 auf Seiten der ersten Ladungsspeicherregion FD1 262 und der zweiten Ladungsspeicherregion FD2 272, die dem ersten vertikalen Übertragungsgatter 244 und dem zweiten vertikalen Übertragungsgatter 254 entgegengesetzt sind, angeordnet sein. Das heißt, das erste Rücksetzungsgatter 282 kann auf einer entgegengesetzten Seite der ersten Ladungsspeicherregion FD1 262 in Bezug auf das erste vertikale Übertragungsgatter 244 angeordnet sein. Das zweite Rücksetzungsgatter RG2 284 kann auf einer entgegengesetzten Seite der zweiten Ladungsspeicherregion FD2 272 in Bezug auf das vertikale Übertragungsgatter 254 angeordnet sein. Das erste Rücksetzungsgatter 282 und das zweite Rücksetzungsgatter 284 können einen ersten Rücksetztransistor RS1 bzw. einen zweiten Rücksetztransistor RS2 darstellen.
  • Ein Gatterisolierfilm 280 kann zwischen der ersten Oberfläche 202 des Halbleitersubstrats 210 und dem ersten Rücksetzungsgatter RG1 282 und dem zweiten Rücksetzungsgatter 284 angeordnet sein. Auch wenn der Gatterisolierfilm 280 in 3A den größten Teil der ersten Oberfläche 202 des Halbleitersubstrats 210 bedeckt, sind die Ausführungsformen nicht darauf beschränkt. In manchen Ausführungsformen kann der Gatterisolierfilm 280 nur zwischen der ersten Oberfläche 202 des Halbleitersubstrats 210 und dem ersten Rücksetzungsgatter RG1 282 und dem zweiten Rücksetzungsgatter 284 angeordnet sein.
  • Eine erste Rücksetzungsverunreinigungsregion 264 und eine zweite Rücksetzungsverunreinigungsregion 274 können in der Wannenregion 220 angrenzend an die erste Oberfläche 202 auf Seiten des ersten Rücksetzungsgatters 282 und des zweiten Rücksetzungsgatters 284 angeordnet sein, die der ersten Ladungsspeicherregion FD 1 262 und der zweiten Ladungsspeicherregion FD2 272 entgegengesetzt sind. Wie gezeigt, kann die erste Rücksetzungsverunreinigungsregion 264 eine plane oder im Wesentlichen plane (z.B. zu mehr als 90% plane) Kante mit der ersten Oberfläche 202 und eine andere plane oder im Wesentlichen plane (z.B. zu mehr als 90 % plane) Kante mit dem Bildsensor 1 gemeinsam haben. Die zweite Rücksetzungsverunreinigungsregion 274 kann eine plane oder im Wesentlichen plane (z.B. zu mehr als 90% plane) Kante mit der ersten Oberfläche 202 und eine andere plane oder im Wesentlichen plane (z.B. zu mehr als 90% plane) Kante mit dem Bildsensor 1 gemeinsam haben. Eine erste Rücksetzungs-Drainspannung Vrd1 und eine zweite Rücksetzungs-Drainspannung Vrd2 können an das die erste Rücksetzungsverunreinigungsregion 264 und die zweite Rücksetzungsverunreinigungsregion 274 angelegt werden. In manchen Ausführungsformen können die erste Rücksetzungs-Drainspannung Vrd1 und die zweite Rücksetzungs-Drainspannung Vrd2 das gleiche Potential aufweisen.
  • Der Bildsensor 1 weist ferner eine Mikrolinse 296 auf, die auf der zweiten Oberfläche 204 des Halbleitersubstrats 210 angeordnet ist. Die Mikrolinse 296 kann auf der photoelektrischen Umwandlungsregion 230 angeordnet sein. Somit kann die zweite Oberfläche 204 des Halbleitersubstrats 210 eine Oberfläche aufweisen, auf die Licht fällt. Eine Schicht 292 mit fester negativer Ladung und eine Antireflexionsschicht 294 können zwischen der Mikrolinse 296 und der zweiten Oberfläche 204 des Halbleitersubstrats 210 angeordnet sein. In manchen Ausführungsformen können die Schicht 292 mit fester negativer Ladung, die Antireflexionsschicht 294 und die Mikrolinse 296 hintereinander auf der zweiten Oberfläche 204 des Halbleitersubstrats 210 gestapelt sein, so dass jede an die nächste mit einer planen oder im Wesentlichen planen Grenzfläche angrenzt. In manchen Ausführungsformen kann die Schicht 292 mit fester negativer Ladung die zweite Oberfläche 204 des Halbleitersubstrats 210 direkt berühren und kann die zweite Oberfläche 204 des Halbleitersubstrats 210 abdecken. In manchen Ausführungsformen kann ferner eine Pufferschicht oder eine Farbfilterschicht (nicht gezeigt) zwischen der Mikrolinse 296 und der Antireflexionsschicht 294 angeordnet sein.
  • Die Schicht 292 mit fester negativer Ladung kann aus einem Material mit einer dielektrischen Konstante wie HfOx, AlOx oder ZrOx bestehen. Die Antireflexionsschicht 294 kann beispielsweise aus SiON, SiC, SiCN oder SiCO bestehen. Die Farbschicht könnte Licht, das durch die Mikrolinse 296 fällt, hindurchlassen und nur Licht mit einer notwendigen Wellenlänge durch die zweite Oberfläche 204 in die photoelektrischen Umwandlungsregion 230 hindurch einfallen lassen.
  • Der Bildsensor 1 gemäß der vorliegenden Offenbarung könnte die mindestens zwei vertikalen Übertragungsgatter, z.B. das erste vertikale Übertragungsgatter 244 und das zweite vertikale Übertragungsgatter 254, aufweisen und eine Rückwärtsbelichtungs(BSI)-Struktur haben. Da ein Pixel des Bildsensors 1 miniaturisiert sein kann und das erste vertikale Übertragungsgatter TG1 und das zweite vertikale Übertragungsgatter TG2 des ersten Sourcefolgertransistors TS1 und des zweiten Übertragungstransistors TS2 relativ lang sein können, können die Demodulationsleistung und die Empfindlichkeit pro Einheitsfläche des Bildsensors 1 verbessert sein.
  • 4A ist ein Zeitablaufdiagramm zur Erläuterung eines Betriebs des Bildsensors 1 zur Abstandsmessung gemäß einer Ausführungsform. 4B ist eine Draufsicht auf ein Pixel-Array des Bildsensors 1 gemäß einer Ausführungsform. 4C und 4D sind Draufsichten auf das Pixel-Array zur Erläuterung eines Betriebs des Bildsensors 1 zur Abstandsmessung gemäß einer Ausführungsform.
  • Wie in 4A gezeigt ist, können ausgegebenes Licht, das aus der Lichtquelle 22 (siehe 2) ausgegeben wird, und reflektiertes Licht, das vom 3D-Objekt 26 (siehe 2) reflektiert wird und vom Bildsensor 1 (siehe 3A) empfangen wird, eine Verzögerungszeit Td aufweisen. Das ausgegebene Licht kann ein gepulstes optisches Signal gemäß einer gepulsten Spannung sein. In manchen Ausführungsformen kann das gepulste optische Signal eine Frequenz im Bereich von etwa 10 MHz bis etwa 100 MHz aufweisen.
  • Die erste Modulationsspannung Vmod1, die an das erste vertikale Übertragungsgatter TG1 (siehe 3A) angelegt wird, kann eine gepulste Spannung sein, die mit dem gepulsten optischen Signal synchronisiert ist. Die zweite Modulationsspannung Vmod2, die an das zweite vertikale Übertragungsgatter TG2 (siehe 3A) angelegt wird, kann eine gepulste Spannung mit einer vorgegebenen Phasendifferenz zum gepulsten optischen Signal sein. In manchen Ausführungsformen kann die Phasendifferenz etwa 180° betragen.
  • Wenn eine Differenz (T1-T2) zwischen einer Zeit T1, während der ein gepulstes Signal des reflektierten Lichts und eine gepulste Spannung des ersten vertikalen Übertragungsgatters TG1 einander überlagern, und einer Zeit T2, während der das gepulste Signal des reflektierten Lichts und eine gepulste Spannung des zweiten vertikalen Übertragungsgatters TG2 einander überlagern, größer wird, wird ein Messabstand kleiner. Die erste Ausgangsspannung Vout1 kann während der Zeit T1 erzeugt werden, wenn das gepulste Signal des reflektierten Lichts und die gepulste Spannung des ersten vertikalen Übertragungsgatters TG1 einander überlagern, und die zweite Ausgangsspannung Vout2 kann während der Zeit T2 erzeugt werden, wenn das gepulste Signal des reflektierten Lichts und die gepulste Spannung des zweiten vertikalen Übertragungsgatters TG2 einander überlagern. Somit kann ein Abstand zwischen dem Bildsensor 1 und dem 3D-Objekt 26 durch Analysieren einer Differenz zwischen der ersten Ausgangsspannung Vout1 und der zweiten Ausgangsspannung Vout2, beispielsweise unter Verwendung eines 2-Phasen-Algorithmus, bestimmt werden. Die erste Ausgangsspannung Vout1 und die zweite Ausgangsspannung Vout2 können unter Verwendung einer Summe mehrerer reflektierter gepulster Signale ebenso wie eines einzigen reflektierten gepulsten Signals ausgedrückt werden.
  • In manchen Ausführungsformen kann ein Abstand zwischen dem Bildsensor 1 und dem 3D-Obj ekt 26 unter Verwendung eines 4-Phasen-Algorithmus bestimmt werden durch Analysieren der ersten Ausgangsspannung Vout1 und der zweiten Ausgangsspannung Vout2, die erhalten werden durch Anlegen einer gepulsten Spannung, die mit dem gepulsten optischen Signal synchronisiert ist, und einer gepulsten Spannung mit einer Phasendifferenz von 180° zum gepulsten optischen Signal als erste Modulationsspannung Vmod1 und als zweite Modulationsspannung Vmod2 und der ersten Ausgangsspannung Vout1 und der zweiten Ausgangsspannung Vout2, die zusätzlich dazu erhalten werden durch Anlegen einer gepulsten Spannung mit einer Phasendifferenz von 90° und einer gepulsten Spannung mit einer Phasendifferenz von 270° zum gepulsten optischen Signal als erste Modulationsspannung Vmod1 und als zweite Modulationsspannung Vmod2.
  • Wie in 4B und 4C dargestellt ist, kann reflektiertes Licht mit Phasen von 0° und 180° in einem ersten Pixel, d.h. PIXEL 1, gesammelt werden, und reflektiertes Licht mit Phasen von 90° und 270° können in einem dritten Pixel, d.h. PIXEL 3, gesammelt werden. Zum Beispiel kann die erste Modulationsspannung Vmod1 (siehe 4A) im ersten Pixel, d.h. PIXEL 1, eine gepulste Spannung sein, die mit einem gepulsten optischen Signal synchronisiert ist, und die zweite Modulationsspannung Vmod2 (siehe 4A) kann eine gepulste Spannung sein, die eine Phasendifferenz von 180°C zum gepulsten optischen Signal aufweist. Ebenso kann im dritten Pixel, d.h. PIXEL 3, die erste Modulationsspannung Vmod1 eine gepulste Spannung sein, die eine Phasendifferenz von 90° zum gepulsten optischen Signal aufweist, und die zweite Modulationsspannung Vmod2 kann eine gepulste Spannung sein, die eine Phasendifferenz von 270° zum gepulsten optischen Signal aufweist. In diesem Fall kann ein Abstand zwischen dem Bildsensor 1 und dem 3D-Objekt 26 durch Analysieren der ersten Ausgangsspannung Vout1 und der zweiten Ausgangsspannung Vout2 (siehe 3A) des ersten Pixels, d.h. PIXEL 1, und des dritten Pixels, d.h. PIXEL 3, unter Verwendung eines 4-Phasen-Algorithmus bestimmt werden. Ebenso kann ein Abstand zwischen dem Bildsensor 1 und dem 3D-Objekt 26 durch Analysieren der ersten Ausgangsspannung Vout1 und der zweiten Ausgangsspannung Vout2 der anderen beiden Pixel, nämlich des zweiten Pixels, d.h. PIXEL 2, und des vierten Pixels, d.h. PIXEL 4, unter Verwendung eines 4-Phasen-Algorithmus bestimmt werden. Das heißt, eine Abstandsinformation kann von jeweils zwei Pixeln erhalten werden.
  • In 4D ist gezeigt, dass ein Abstand durch Analysieren der ersten Ausgangsspannung Vout1 und der zweiten Ausgangsspannung Vout2 des ersten Pixels, d.h. PIXEL 1, und des dritten Pixels, d.h. PIXEL 3, und durch Analysieren der ersten Ausgangsspannung Vout1 und der zweiten Ausgangsspannung Vout2 des dritten Pixels, d.h. PIXEL 3, und eines anderen ersten Pixels, d.h. PIXEL 1a, bestimmt werden kann. Das heißt, die erste Ausgangsspannung Vout1 und die zweite Ausgangsspannung Vout2 des dritten Pixels, d.h. PIXEL 3, können verwendet werden, um die erste Ausgangsspannung Vout1 und die zweite Ausgangsspannung Vout2 des ersten Pixels, d.h. PIXEL 1, zu analysieren und die erste Ausgangsspannung Vout1 und die zweite Ausgangsspannung Vout2 des anderen ersten Pixels, d.h. PIXEL 1a, zu analysieren. Außerdem kann das andere erste Pixel, d.h. PIXEL 1a, verwendet werden, um das dritte Pixel, d.h. PIXEL 3, zu analysieren und um ein anderes drittes Pixel, d.h. PIXEL 3a, zu analysieren. Ebenso kann das vierte Pixel, d.h. PIXEL 4, verwendet werden, um das zweite Pixel, d.h. PIXEL 2, und ein anderes zweites Pixel, d.h. PIXEL 2a, zu analysieren, und das andere zweite Pixel, d.h. PIXEL 2a, kann verwendet werden, um ein anderes viertes Pixel, d.h. PIXEL 4a, zu analysieren.
  • Betrachtet man das gesamte Pixel-Array, kann daher eine Auflösung der Abstandsinformationen erhöht werden, da eine Abstandsinformation von jeweils einem Pixel erhalten werden kann.
  • 5A ist ein Zeitablaufdiagramm zur Erläuterung eines Betriebs des Bildsensors 1 zur Abstandsmessung gemäß einer Ausführungsform. 5B ist eine Draufsicht auf ein Pixel-Array des Bildsensors 1 gemäß einer Ausführungsform. 5C bis 5D sind Draufsichten auf das Pixel-Array zur Erläuterung eines Betriebs des Bildsensors 1 zur Abstandsmessung gemäß einer Ausführungsform.
  • 5A bis 5D sind Ansichten zur Erläuterung eines Betriebs des Bildsensors 1 zur Abstandsmessung, wenn der zweite Rücksetztransistor RS2, der zweite Sourcefolgertransistor SF2 und der zweite Auswahltransistor SEL2 nicht in Betrieb sind und nur der erste Rücksetztransistor RS 1, der erste Sourcefolgertransistor SF1 und der erste Auswahltransistor SEL1 im Bildsensor 1 von 3A in Betrieb sind.
  • Wie in 5A gezeigt ist, können ausgegebenes Licht, das aus der Lichtquelle 22 (siehe 2) ausgegeben wird, und reflektiertes Licht, das vom 3D-Objekt 26 (siehe 2) reflektiert wird und vom Bildsensor 1 (siehe 3A) empfangen wird, eine Verzögerungszeit Td aufweisen. Das ausgegebene Licht kann ein gepulstes optisches Signal gemäß einer gepulsten Spannung sein. Ein Abstand zwischen dem Bildsensor 1 und dem 3D-Objekt 26 kann bestimmt werden durch aufeinanderfolgendes Anlegen einer gepulsten Spannung, die mit gepulsten optischen Signal synchronisiert ist, einer gepulsten Spannung mit einer Phasendifferenz von 90° zum gepulsten optischen Signal, einer gepulsten Spannung mit einer Phasendifferenz von 180° zum gepulsten optischen Signal und einer gepulsten Spannung mit einer Phasendifferenz von 270° zum gepulsten optischen Signal an das erste vertikale Übertragungsgatter TG1 (siehe 3A) und durch Analysieren der ersten Ausgangsspannungen Vout, die während einer Zeit T3 erzeugt wird, wenn ein gepulstes Signal des reflektierten Lichts und eine gepulste Spannung des ersten vertikalen Übertragungsgatters TG1 einander überlagern, unter Verwendung eines 4-Phasen-Algorithmus. Die ersten Ausgangsspannungen Vout können unter Verwendung einer Summe mehrerer reflektierter gepulster Signale ebenso wie eines einzigen reflektierten gepulsten Signals ausgedrückt werden. Die zweite Modulationsspannung Vmod2, die an das zweite vertikale Übertragungsgatter TG2 (siehe 3A) angelegt wird, kann eine gepulste Spannung mit einer Phasendifferenz von 180° zur ersten Modulationsspannung Vmod1 sein.
  • In manchen Ausführungsformen kann ein Abstand zwischen dem Bildsensor 1 und dem 3D-Objekt 26 bestimmt werden durch aufeinanderfolgendes Anlegen einer gepulsten Spannung, die mit dem gepulsten optischen Signal synchronisiert ist, und einer gepulsten Spannung mit einer Phasendifferenz von 180° zum gepulsten optischen Signal als erste Modulationsspannung Vmod1 an das erste vertikale Übertragungsgatter TG1 und durch Analysieren der ersten Ausgangsspannungen Vout, die während der Zeit T3 erzeugt werden, wenn ein gepulstes Signal des reflektierten Lichts und eine gepulste Spannung des ersten vertikalen Übertragungsgatters TG1 einander überlagern, unter Verwendung eines 2-Phasen-Algorithmus. Die ersten Ausgangsspannungen Vout können unter Verwendung einer Summe mehrerer reflektierter gepulster Signale ebenso wie eines einzigen reflektierten gepulsten Signals ausgedrückt werden.
  • Wie in 5B und 5C dargestellt ist, kann reflektiertes Licht mit einer Phase von 0° im ersten Pixel, d.h. PIXEL 1, gesammelt werden, kann reflektiertes Licht mit einer Phase von 90° im zweiten Pixel, d.h. PIXEL 2, gesammelt werden, kann reflektiertes Licht mit einer Phase von 180° im dritten Pixel, d.h. PIXEL 3, gesammelt werden, und kann reflektiertes Licht mit einer Phase von 270° im vierten Pixel, d.h. PIXEL 4, gesammelt werden. In diesem Fall kann ein Abstand zwischen dem Bildsensor 1 und dem 3D-Objekt 26 durch Analysieren der ersten Ausgangsspannungen Vout1 (siehe 3A) des ersten bis vierten Pixels, d.h. des ersten Pixels, d.h. PIXEL 1, PIXEL 2, PIXEL 3 und PIXEL 4, unter Verwendung eines 4-Phasen-Algorithmus bestimmt werden. Das heißt, eine Abstandsinformation kann jeweils von vier Pixeln erhalten werden.
  • Wie in 5D dargestellt ist, kann ein Abstand zwischen dem Bildsensor 1 und dem 3D-Objekt 26 durch Analysieren der ersten Ausgangsspannungen Vout1 (siehe 3A) von vier benachbarten Pixeln wie etwa PIXEL 1, PIXEL 2, PIXEL 3 und PIXEL 4; PIXEL 1b, PIXEL 2, PIXEL 3b und PIXEL 4; oder PIXEL 1a, PIXEL 2a, PIXEL 3 und PIXEL 4 unter Verwendung eines 4-Phasen-Algorithmus bestimmt werden. Das heißt, eine Abstandsinformation kann jeweils von einem Pixel erhalten werden.
  • Auch wenn dies nicht dargestellt ist, kann in manchen Ausführungsformen ein Abstand durch Analysieren erster Ausgangsspannungen von zwei Pixeln unter Verwendung eines 2-Phasen-Algorithmus bestimmt werden, und in diesem Fall kann eine Abstandsinformation von jeweils zwei Pixeln oder von jeweils einem Pixel erhalten werden.
  • 6A bis 6E sind Querschnittsansichten, die Elemente eines Einheitspixels eines Bildsensors 1a gemäß einer Ausführungsform darstellen. Elemente, die denen in 3A gleich sind, werden in 6A bis 6E nicht wiederholt erläutert.
  • Wie in 6A gezeigt ist, kann der Bildsensor 1a ferner erste Barriereverunreinigungsregionen 224 aufweisen, die an Abschnitten der Wannenregion 220 angeordnet sind, die an die photoelektrischen Umwandlungsregion 230 angrenzen. Genauer können Abschnitte der ersten Barriereverunreinigungsregionen 224 an eine Grenzlinie der Wannenregion 220 angrenzen, die entgegengesetzt (d.h. auf der Seite der Wannenregion 220, die entgegengesetzt ist) zur ersten Oberfläche 202 angeordnet sein. Die ersten Barriereverunreinigungsregionen 224 können jeweils von der ersten Übertragungsgatterstruktur 240 und der zweiten Übertragungsgatterstruktur 250 beabstandet sein.
  • Die ersten Barriereverunreinigungsregionen 224 können den ersten Leitfähigkeitstyp aufweisen. In manchen Ausführungsformen kann eine Verunreinigungskonzentration der ersten Barriereverunreinigungsregionen 224 größer sein als eine Verunreinigungskonzentration der Wannenregion 220. Die ersten Barriereverunreinigungsregionen 224 können Photoladungen, die in der photoelektrischen Umwandlungsregion 230 erzeugt werden, an einer Bewegung hindern. Somit können Photoladungen, die in der photoelektrischen Umwandlungsregion 230 erzeugt werden, durch eine Bewegung zur zweiten Übertragungsgatterstruktur 240 und zur zweiten Übertragungsgatterstruktur 250 und zur Demodulationsregion 222 konzentriert werden.
  • Wie in 6B dargestellt ist, kann ein Bildsensor 1b eine Unterwannenregion 222a aufweisen, die an einer Position angeordnet ist, die der Demodulationsregion 222 entspricht (siehe 3A). Die Unterwannenregion 222a kann den ersten Leitfähigkeitstyp aufweisen. In manchen Ausführungsformen kann eine Verunreinigungskonzentration der Unterwannenregion 222a größer sein als eine Verunreinigungskonzentration der Wannenregion 220.
  • Die Unterwannenregion 222a kann verhindern, dass Photoladungen zwischen dem ersten vertikalen Übertragungsgatter 244 und dem zweiten vertikalen Übertragungsgatter 254 eingefangen werden oder sie kann verhindern, dass sich Photoladungen an eine unerwünschte Position bewegen. Da die Unterwannenregion 222a die gleiche Funktion erfüllt wie die Demodulationsregion 222, kann die Unterwannenregion 222a als Demodulationsregion bezeichnet werden.
  • Auch wenn der Bildsensor 1b in 6B die ersten Barriereverunreinigungsregionen 224 aufweist, sind die Ausführungsformen nicht darauf beschränkt, und die ersten Barriereverunreinigungsregionen 224 können weggelassen werden.
  • Wie in 6C gezeigt ist, kann ein Bildsensor 1c eine zweite Barriereverunreinigungsregion 226 aufweisen, die an einem Abschnitt der Demodulationsregion 222 angeordnet ist, der an die erste Oberfläche 202 angrenzt. Die zweite Barriereverunreinigungsregion 226 in 6C befindet sich auf der Demodulationsregion 222 und die Demodulationsregion 222 ist ein Abschnitt der Wannenregion 220, aber die zweite Barriereverunreinigungsregion 226 in 6C ist kein Element der Wannenregion 220.
  • Die zweite Barriereverunreinigungsregion 226 kann den ersten Leitfähigkeitstyp aufweisen. In manchen Ausführungsformen kann eine Verunreinigungskonzentration der zweiten Barriereverunreinigungsregion 226 größer sein als eine Verunreinigungskonzentration der Wannenregion 220. In manchen Ausführungsformen kann eine Verunreinigungskonzentration der zweiten Barriereverunreinigungsregionen 226 größer sein als eine Verunreinigungskonzentration der Demodulationsregion 222.
  • Die zweite Barriereverunreinigungsregion 226 kann eine rasche Speicherung von Photo-Elektronen, die von den mindestens zwei vertikalen Übertragungsgatter, d.h. vom ersten vertikalen Übertragungsgatter 244 und vom zweiten vertikalen Übertragungsgatter 254, bewegt werden, in der ersten Ladungsspeicherregion FD1 262 und der zweiten Ladungsspeicherregion FD2 272 ermöglichen.
  • Wie in 6D dargestellt ist, kann ein Bildsensor 1d eine Demodulationsregion 222b und die zweite Barriereverunreinigungsregion 226 aufweisen. Die Demodulationsregion 222b kann den zweiten Leitfähigkeitstyp aufweisen. In manchen Ausführungsformen kann eine Verunreinigungskonzentration der Demodulationsregion 222b größer sein als eine Verunreinigungskonzentration der photoelektrischen Umwandlungsregion 230.
  • Die Demodulationsregion 222b, welche den zweiten Leitfähigkeitstyp aufweist, kann eine Zusammenballung von Photoladungen in einem zentralen Abschnitt der Demodulationsregion 222b von einer Grenzfläche zwischen der Demodulationsregion 222b und der ersten Übertragungsgatterstruktur 240 und der zweiten Übertragungsgatterstruktur 250 ermöglichen. Somit kann die Wahrscheinlichkeit dafür, dass Photoladungen an der Grenzfläche zwischen der ersten Übertragungsgatterstruktur 240 und der zweiten Übertragungsgatterstruktur 250 eingefangen werden und verloren gehen, minimiert werden.
  • Wie in 6E dargestellt ist, weist ein Bildsensor 1e das Halbleitersubstrat 210 auf, das eine unebene zweite Oberfläche 204a aufweist. In manchen Ausführungsformen kann das Halbleitersubstrat 210 mehrere Aussparungen 212 in der zweiten Oberfläche 204a aufweisen, die zur ersten Oberfläche 202 hin eingetieft sind. Streuungsinduzierungsschichten 214 können jeweils in den mehreren Aussparungen 212 angeordnet sein. Die Schicht 292 mit fester negativer Ladung kann die Streuungsinduzierungsschichten 214 umgeben und kann die zweite Oberfläche 204a des Halbleitersubstrats 210 abdecken. Somit können die Streuungsinduzierungsschichten 214 von der zweiten Oberfläche 204a des Halbleitersubstrats 210 beabstandet sein. Wie in 6E gezeigt ist, kann die Schicht 292 mit fester negativer Ladung zwischen Streuungsinduzierungsschichten 214 liegen. Die Streuungsinduzierungsschichten 214 können aus einem Isoliermaterial wie etwa einem Oxid bestehen.
  • Eine Tiefgrabenislatorstruktur 320 (Deep Trench Insulator, DTI-Struktur) kann zwischen mehreren Pixeln des Bildsensors 1e liegen. Die DTI-Struktur 320 kann im Halbleitersubstrat 210 so angeordnet sein, dass sie die photoelektrische Umwandlungsregion 230, genauer, die erste photoelektrische Umwandlungsregion 232 (D-PD), umgibt. Die DTI-Struktur 320 kann sich von der zweiten Oberfläche 204a des Halbleitersubstrats 210 zur ersten Oberfläche 202 erstrecken. In manchen Ausführungsformen kann sich die DTI-Struktur 320 von der zweiten Oberfläche 204a des Halbleitersubstrats 210 zur ersten Oberfläche 202 erstrecken, so dass sie von der Wannenregion 220 beabstandet ist. Die DTI-Struktur 320 kann aus einem Isoliermaterial wie Oxid, Nitrid, Oxynitrid oder einer Kombination daraus bestehen. In manchen Ausführungsformen kann die DTI-Struktur 320 eine Schicht 322 aus leitfähigem Material und eine isolierende Deckschicht 324, welche die Schicht 322 aus leitfähigem Material umgibt, aufweisen. Die Schicht 322 aus leitfähigem Material kann beispielsweise aus Polysilicium, Metall oder Metallnitrid bestehen. Die isolierende Deckschicht 324 kann aus einem Isoliermaterial, einschließlich von Oxid, Nitrid, Oxynitrid oder einer Kombination daraus, bestehen.
  • Ein Teil L1 eines Lichts, das durch die Mikrolinse 296 in den Bildsensor 1e einfällt, kann sich zur photoelektrischen Umwandlungsregion 230 fortbewegen. Ein anderer Teil L2 des Lichts, das durch die Mikrolinse 296 in den Bildsensor 1e einfällt, kann von den Streuungsinduzierungsschichten 214 gestreut und dann erneut von der DTI-Struktur 320 reflektiert werden. Somit kann die Länge der optischen Wege des Lichts L2 vergrößert werden und ein Absorptionsvermögen der photoelektrischen Umwandlungsregion 230 kann erhöht werden.
  • Der Bildsensor 1e kann ferner eine hintere Reflexionsschicht 310 aufweisen, die auf der Verdrahtungsstruktur 300 angeordnet ist. Licht L3, das von der photoelektrischen Umwandlungsregion 230 nicht absorbiert wird, kann von der hinteren Reflexionsschicht 310 erneut zur photoelektrischen Umwandlungsregion 230 reflektiert werden und kann von der photoelektrischen Umwandlungsregion 230 absorbiert werden.
  • Zumindest manche von den Streuungsinduzierungsschichten 214, der DTI-Struktur 320 und der hinteren Reflexionsschicht 310 von 6E können auf die Bildsensoren 1a, 1b, 1c und 1d von 6A bis 6D angewendet werden.
  • 7A ist eine Querschnittsansicht, die Elemente eines Einheitspixels eines Bildsensors 2 gemäß einer Ausführungsform darstellt. 7B ist ein Ersatzschaltbild des Einheitspixels des Bildsensors 2 gemäß einer Ausführungsform. 7C ist eine Draufsicht, die Elemente des Einheitspixels des Bildsensors 2 gemäß einer Ausführungsform darstellt. Elemente, die denen in 3A bis 6E gleich sind, werden in 7A bis 7C nicht wiederholt erläutert.
  • Wie in 7A bis 7C gezeigt ist, weist der Bildsensor 2 das Halbleitersubstrat 210 auf, das die Wannenregion 220, die photoelektrische Umwandlungsregion 230, die mindestens zwei vertikalen Übertragungsgatter, z.B. das erste Übertragungsgatter 244 und das zweite Übertragungsgatter 254, die Verdrahtungsstruktur 300, ein erstes Rücksetzungsgatter RG1 282, eine erste Rücksetzungsverunreinigungsregion 264, die erste Ladungsspeicherregion FD1 262 und die zweite Ladungsspeicherregion FD2 272 aufweist. Die erste Ladungsspeicherregion FD1 262 kann mit einem Gatter eines Sourcefolgertransistors SF verbunden sein. Eine Source und ein Drain des Sourcefolgertransistors SF können mit einer Source eines Auswahltransistors SEL und einer Spannungsquelle Vdd verbunden sein. Eine Ausgangsspannung Vout2 kann von einem Drain des Auswahltransistors SEL ausgegeben werden. Das erste Rücksetzungsgatter RG1 282 kann einen Rücksetztransistor RS darstellen. Eine erste Rücksetzungs-Drainspannung Vrd1 und eine zweite Rücksetzungs-Drainspannung Vrd2 können an die erste Rücksetzungsverunreinigungsregion 264 bzw. die zweite Rücksetzungsverunreinigungsregion 272 angelegt werden. In manchen Ausführungsformen können die erste Rücksetzungs-Drainspannung Vrd1 und die zweite Rücksetzungs-Drainspannung Vrd2 das gleiche Potential aufweisen.
  • Ein Betrieb des Bildsensors 2 kann dem des Bildsensors 1 von 3A im Wesentlichen gleich sein, wenn der zweite Rücksetztransistor RS2, der zweite Sourcefolgertransistor SF2 und der zweite Auswahltransistor SEL2 nicht in Betrieb sind und nur der erste Rücksetztransistor RS 1, der erste Sourcefolgertransistor SF1 und der erste Auswahltransistor SEL1 in Betrieb sind wie mit 5A bis 5D beschrieben, und somit wird auf seine ausführliche Erläuterung verzichtet.
  • Das heißt, der Bildsensor 2 muss den zweiten Rücksetztransistor RS2, den zweiten Sourcefolgertransistors SF2 und den zweiten Auswahltransistor SEL2, die im Bildsensor 1 nicht in Betrieb sind, nicht aufweisen, und kann den Rücksetztransistor RS, den Sourcefolgertransistor SF und den Auswahltransistor RS1 aufweisen, die dem ersten Rücksetztransistor RS1, dem ersten Sourcefolgertransistor SF1 bzw. dem ersten Auswahltransistor SEL1 entsprechen, die im Bildsensor 1 in Betrieb sind.
  • 8 ist eine Draufsicht, die Elemente eines Einheitspixels eines Bildsensors 3 gemäß einer Ausführungsform darstellt;
  • Wie in 8 dargestellt ist, weist der Bildsensor 3 vier vertikale Übertragungsgatter, d.h. erste bis vierte vertikale Übertragungsgatter TG1, TG2, TG3 und TG4 auf, die voneinander beabstandet sind und sich in einer Dickenrichtung des Halbleitersubstrats 210 erstrecken (siehe 3A). Die ersten bis vierten vertikalen Übertragungsgatter TG1, TG2, TG3 und TG4 können voneinander beabstandet sein, mit der Demodulationsregion 222 dazwischen (d.h. zwischen jeweils zweien von den ersten bis vierten vertikalen Übertragungsgattern TG1, TG2, TG3, TG4). Erste bis vierte Übertragungsgatterisolierfilme TOX1, TOX2, TOX3 und TOX4 können jeweils um die ersten bis vierten vertikalen Gatter TG1, TG2, TG3 und TG4 herum angeordnet sein. Erste bis vierte Ladungsspeicherregionen FD1, FD2, FD3 und FD4, erste bis vierte Rücksetzungsgatter RG1, RG2, RG3 und RG4, Verunreinigungsregionen, an welche die ersten bis vierten Rücksetzungs-Drainspannungen Vrd1, Vrd2, Vrd3 und Vrd4 angelegt werden, erste bis vierte Sourcefolgertransistoren SF1, SF2, SF3 und SF4 und erste bis vierte Auswahltransistoren SEL1, SEL2, SEL3 und SEL4 können so angeordnet sein, dass sie den ersten bis vierten vertikalen Übertragungsgattern TG1, TG2, TG3 und TG4 entsprechen. Erste bis vierte Ausgangsspannungen Vo1, Vo2, Vo3 und Vo4 können jeweils von Drains der ersten bis vierten Auswahltransistoren SEL1, SEL2, SEL3 und SEL4 ausgegeben werden.
  • Eine Querschnittsdarstellung des Bildsensors 3 entlang des ersten vertikalen Übertragungsgatters TG1 und des dritten vertikalen Übertragungsgatters TG3, des zweiten vertikalen Übertragungsgatters TG2 und des vierten vertikalen Übertragungsgatters TG4 ist derjenigen des Bildsensors 1 von 3A im Wesentlichen gleich, und auf eine ausführliche Beschreibung davon wird verzichtet.
  • Im Bildsensor 3 können eine gepulste Spannung, die mit einem gepulsten optischen Signal synchronisiert ist, eine gepulste Spannung mit einer Phasendifferenz von 90° zum gepulsten optischen Signal, eine gepulste Spannung mit einer Phasendifferenz von 180° zum gepulsten optischen Signal und eine gepulste Spannung mit einer Phasendifferenz von 270° zum gepulsten optischen Signal an die ersten bis vierten vertikalen Übertragungsgatter TG1, TG2, TG3 bzw. TG4 angelegt werden. Somit kann der Bildsensor 3 einen Abstand zwischen dem Bildsensor 3 und dem 3D-Objekt 26 (siehe 2) durch Analysieren der ersten bis vierten Ausgangsspannungen Vo1, Vo2, Vo3 und Vo4, die von jeweils einem Pixel erhalten werden, unter Verwendung eines 4-Phasen-Algorithmus bestimmen.
  • 9A ist eine Querschnittsansicht, die Elemente eines Einheitspixels eines Bildsensors 4 gemäß einer Ausführungsform darstellt. 9B ist ein Ersatzschaltbild des Einheitspixels des Bildsensors 4 gemäß einer Ausführungsform. Elemente, die denen in 3A und 3B gleich sind, werden in 9A und 9B nicht wiederholt erläutert.
  • Wie in 9A und 9B gezeigt ist, weist der Bildsensor 4 ferner eine erste Speicherdiffusionsregion SD1 266 und eine zweite Speicherdiffusionsregion SD2 276 auf, die in der Wannenregion 220 angrenzend an die erste Oberfläche 202 angeordnet sind. Die erste Speicherdiffusionsregion SD1 266 liegt zwischen der ersten Ladungsspeicherregion FD1 262 und dem ersten vertikalen Übertragungsgatter 244. Die zweite Speicherdiffusionsregion SD2 276 liegt zwischen der zweiten Ladungsspeicherregion FD2 272 und dem zweiten vertikalen Übertragungsgatter 254. Der Bildsensor 4 weist ferner ein erstes horizontales Übertragungsgatter TG3 286 und ein zweites horizontales Übertragungsgatter TG4 288 auf, das auf der ersten Oberfläche 202 des Halbleitersubstrats 210 liegt. Das erste horizontale Übertragungsgatter TG3 286 ist in der Breitenrichtung zwischen der ersten Ladungsspeicherregion FD 1 262 und der ersten Speicherdiffusionsregion SD1 266 angeordnet und in der Tiefenrichtung versetzt. Das zweite horizontale Übertragungsgatter TG3 288 ist in der Breitenrichtung zwischen der zweiten Ladungsspeicherregion 272 und der zweiten Speicherdiffusionsregion 276 angeordnet und in der Tiefenrichtung versetzt.
  • Die erste Ladungsspeicherregion FD1 262 und die zweite Ladungsspeicherregion FD2 272 können mit Gattern des ersten Sourcefolgertransistors SF 1 bzw. des zweiten Sourcefolgertransistors SF2 verbunden sein.
  • Da der Bildsensor 4 ferner die erste Speicherdiffusionsregion SD1 266 und die zweite Speicherdiffusionsregion 276 und das erste horizontales Übertragungsgatter TG3 286 und das zweite horizontales Übertragungsgatter 288 aufweist, kann der Bildsensor 4 als Global Shutter fungieren. Da der Bildsensor 4 vier Übertragungsgatter einschließlich des ersten vertikalen Übertragungsgatters 244 und des zweiten vertikalen Übertragungsgatters 254 und des ersten horizontalen Übertragungsgatters TG3 286 und des zweiten horizontales Übertragungsgatters 288 aufweist, kann ein Rauschen verringert sein.
  • 10A ist eine Querschnittsansicht, die Elemente eines Einheitspixels eines Bildsensors 4a gemäß einer Ausführungsform darstellt. 10B ist ein Ersatzschaltbild des Einheitspixels des Bildsensors 4a gemäß einer Ausführungsform. Elemente, die denen in 9A und 9B gleich sind, werden in 10A und 10B nicht wiederholt erläutert.
  • In 10A und 10B ist gezeigt, dass anders als im Bildsensor 4 von 9A und 9B im Bildsensor 4a nur ein Sourcefolgertransistor SF und nur ein Auswahltransistor SEL mit der ersten Ladungsspeicherregion FD1 262 und der zweiten Ladungsspeicherregion FD2 272 verbunden sind und dass nur ein Rücksetztransistor RS mit der ersten Ladungsspeicherregion FD 1 262 und der zweiten Ladungsspeicherregion FD2 272 verbunden ist. Das heißt, die erste Speicherdiffusionsregion SD1 266 und die erste Ladungsspeicherregion FD1 262 und die zweite Speicherdiffusionsregion SD2 276 und die zweite Ladungsspeicherregion FD2 272 können einen gemeinsamen Sourcefolgertransistor SF, einen gemeinsamen Auswahltransistor SEL und einen gemeinsamen Rücksetztransistor RS aufweisen.
  • Ein Bildsensor gemäß der vorliegenden Offenbarung kann mindestens zwei vertikale Übertragungsgatter aufweisen und kann eine BSI-Struktur haben. Da ein Pixel des Bildsensors miniaturisiert werden kann und ein Gatter des Übertragungstransistors relativ lang sein kann, kann somit eine Empfindlichkeit des Bildsensors erhöht werden.

Claims (17)

  1. Bildsensor, aufweisend: ein Halbleitersubstrat (210) mit einem ersten Leitfähigkeitstyp, das eine erste Oberfläche (202) und eine zweite Oberfläche (204; 204a), die einander entgegengesetzt sind, und eine Wannenregion (220) angrenzend an die erste Oberfläche (202) aufweist, wobei das Halbleitersubstrat (210) eine Mehrzahl von Aussparungen (212) aufweist, die in der zweiten Oberfläche (204) so ausgebildet sind, dass sie zur erste Oberfläche (202) hin eingetieft sind; ein erstes vertikales Übertragungsgatter (244) und ein zweites vertikales Übertragungsgatter (254), die voneinander beabstandet sind und sich in einer Dickenrichtung des Halbleitersubstrats (210) von der ersten Oberfläche (202) aus erstrecken, so dass sie durch zumindest einen Teil der Wannenregion (220) verlaufen; eine photoelektrische Umwandlungsregion (230), die einen zweiten Leitfähigkeitstyp aufweist, der von dem erste Leitfähigkeitstyp verschieden ist, und die im Halbleitersubstrat (210) zwischen der Wannenregion (220) und der zweiten Oberfläche (204) angeordnet ist und das erste vertikale Übertragungsgatter (244) und das zweite vertikale Übertragungsgatter (254) in der Dickenrichtung des Halbleitersubstrats (210) überlagert; eine Verdrahtungsstruktur (300), die auf der ersten Oberfläche (202) des Halbleitersubstrats (210) angeordnet ist; eine Schicht mit fester negativer Ladung (292), eine Antireflexionsschicht (294) und eine Mikrolinse, die nacheinander auf die zweite Oberfläche (204) des Halbleitersubstrats (210) gestapelt sind; und Streuungsinduzierungsschichten (214), die in der Mehrzahl von Aussparungen (212) angeordnet sind und aus einem isolierenden Material bestehen, und wobei die Schicht (294) mit fester negativer Ladung die Streuungsinduzierungsschichten (214) so umgibt, dass die Streuungsinduzierungsschichten (214) und die zweite Oberfläche (204) des Halbleitersubstrats (210) voneinander beabstandet sind.
  2. Bildsensor nach Anspruch 1, wobei die photoelektrische Umwandlungsregion (230) eine erste photoelektrische Umwandlungsregion (232) und eine zweite photoelektrische Umwandlungsregion (234) aufweist, die zwischen der ersten photoelektrischen Umwandlungsregion (232) und der Wannenregion (220) angeordnet ist und eine Breite aufweist, die geringer ist als eine Breite der ersten photoelektrischen Umwandlungsregion (232).
  3. Bildsensor nach Anspruch 2, wobei die zweite photoelektrische Umwandlungsregion (204) das erste vertikale Übertragungsgatter (244) und das zweite vertikale Übertragungsgatter (254) in der Dickenrichtung des Halbleitersubstrats (210) überlagert.
  4. Bildsensor nach Anspruch 2 oder 3, wobei eine Verunreinigungskonzentration der zweiten photoelektrischen Umwandlungsregion (204) größer ist als eine Verunreinigungskonzentration der ersten photoelektrischen Umwandlungsregion (202).
  5. Bildsensor nach einem der Ansprüche 2 bis 4, wobei die erste photoelektrische Umwandlungsregion (202) die zweite photoelektrische Umwandlungsregion (204) in der Dickenrichtung des Halbleitersubstrats (210) vollständig überlagert.
  6. Bildsensor nach einem der Ansprüche 1 bis 5, ferner aufweisend: eine Tiefgrabenisolator(DTI)-Struktur (320), welche die photoelektrische Umwandlungsregion (230) umgibt und sich von der zweiten Oberfläche (204) des Halbleitersubstrats (210) zur ersten Oberfläche (202) erstreckt.
  7. Bildsensor nach einem der Ansprüche 1 bis 6, ferner aufweisend: eine hintere Reflexionsschicht (310), die auf der Verdrahtungsstruktur (300) angeordnet ist.
  8. Bildsensor nach einem der Ansprüche 1 bis 7, ferner aufweisend: eine erste Ladungsspeicherregion (262) und eine zweite Ladungsspeicherregion (272), die jeweils einen zweiten Leitfähigkeitstyp aufweisen und die in der Wannenregion (220) angrenzend an die erste Oberfläche (202) so angeordnet sind, dass sie voneinander beabstandet sind.
  9. Bildsensor nach Anspruch 8, wobei die erste Ladungsspeicherregion (262) an einer Seite des ersten vertikalen Übertragungsgatters (244) angeordnet ist, so dass sie dem zweiten vertikalen Übertragungsgatter (254) entgegengesetzt ist, und die zweite Ladungsspeicherregion (272) an einer Seite des zweiten vertikalen Übertragungsgatters (254) angeordnet ist, so dass sie dem ersten vertikalen Übertragungsgatter (244) entgegengesetzt ist.
  10. Bildsensor nach einem der Ansprüche 1 bis 9, wobei Pulsspannungen mit einer Phasendifferenz von 180° dazwischen an das erste vertikale Übertragungsgatter (244) und das zweite vertikale Übertragungsgatter (254) angelegt werden.
  11. Bildsensor, aufweisend: eine Verdrahtungsstruktur (300); eine Wannenregion (220), die eine Demodulationsregion (222; 222a, 222b) aufweist und an der Verdrahtungsstruktur (300) angeordnet ist; eine photoelektrische Umwandlungsregion (230), die auf der Wannenregion (220) angeordnet ist; eine Mikrolinse (296), die auf der photoelektrischen Umwandlungsregion (230) angeordnet ist; mindestens zwei Übertragungsgatterstrukturen (240, 250), die voneinander beabstandet sind, mit der Demodulationsregion (222; 222a; 222b) dazwischen, und die jeweils ein vertikales Übertragungsgatter (244, 254) aufweisen, das sich in einer Dickenrichtung der Wannenregion (220) erstreckt, so dass es zumindest durch einen Teil der Wannenregion (220) verläuft, sowie einen Übertragungsgatterisolierfilm (242; 252), der das vertikale Übertragungsgatter (244; 254) umgibt, und erste Barriereverunreinigungsregionen (224), die auf anderen Abschnitten der Wannenregion (220) als die Demodulationsregion (222; 222a, 222b) und angrenzend an die photoelektrische Umwandlungsregion (230) so angeordnet sind, dass sie von den mindestens zwei vertikalen Übertragungsgatterstrukturen (240, 250) beabstandet sind, wobei die ersten Barriereverunreinigungsregionen (224) eine Verunreinigungskonzentration aufweisen, die größer ist als eine Verunreinigungskonzentration der Wannenregion (220).
  12. Bildsensor nach Anspruch 11, ferner aufweisend: eine zweite Barriereverunreinigungsregion (226), die an einem Abschnitt der Demodulationsregion (222; 222a, 222b) angeordnet ist, der an die Verdrahtungsstruktur (300) angrenzt, und die eine Verunreinigungskonzentration aufweist, die größer ist als die Verunreinigungskonzentration der Wannenregion (220).
  13. Bildsensor nach Anspruch 12, wobei der Abschnitt der Demodulationsregion (222; 222a, 222b) auf der zweiten Barriereverunreinigungsregion (226) einen Leitfähigkeitstyp aufweist, der von einem Leitfähigkeitstyp von sowohl der Wannenregion (220) als auch der zweiten Barriereverunreinigungsregion (226) verschieden ist.
  14. Bildsensor nach einem der Ansprüche 11 bis 13, wobei die photoelektrische Umwandlungsregion (230) eine erste photoelektrische Umwandlungsregion (232), die angrenzend an die Mikrolinse (296) angeordnet ist, und eine zweite photoelektrische Umwandlungsregion (234), die angrenzend an die Wannenregion (220) angeordnet ist, aufweist, wobei eine Verunreinigungskonzentration der ersten photoelektrischen Umwandlungsregion (232) geringer ist als eine Verunreinigungskonzentration der zweiten photoelektrischen Umwandlungsregion (234) und eine Breite der ersten photoelektrischen Umwandlungsregion (232) größer ist als eine Breite der zweiten photoelektrischen Umwandlungsregion (234).
  15. Bildsensor mit einer Rückwärtigen Belichtungs (BSI)-Struktur, außerdem aufweisend: ein Halbleitersubstrat (210) mit einem ersten Leitfähigkeitstyp, das eine erste Oberfläche (202), eine der ersten Oberfläche (202) entgegengesetzte zweite Oberfläche (204) und eine Wannenregion (220) angrenzend an die erste Oberfläche (202) aufweist, wobei das Halbleitersubstrat (210) eine Mehrzahl von Aussparungen (212) aufweist, die in der zweiten Oberfläche (204) so ausgebildet sind, dass sie zur erste Oberfläche (202) hin eingetieft sind; eine Mehrzahl vertikaler Übertragungsgatter (244, 254), die voneinander beabstandet sind und sich von der ersten Oberfläche (202) zur zweiten Oberfläche (204) erstrecken, wobei sie durch zumindest einen Teil der Wannenregion (220) verlaufen; eine erste photoelektrische Umwandlungsregion (232), die im Halbleitersubstrat (210) angrenzend an die zweite Oberfläche (204) angeordnet ist; eine zweite photoelektrische Umwandlungsregion (234), die einen zweiten Leitfähigkeitstyp aufweist, der von dem ersten Leitfähigkeitstyp verschieden ist, zwischen der ersten photoelektrischen Umwandlungsregion (232) und der Wannenregion (220) angeordnet ist, eine Breite aufweist, die geringer als eine Breite der ersten photoelektrischen Umwandlungsregion (232) ist, und eine Verunreinigungskonzentration aufweist, die größer ist als eine Verunreinigungskonzentration der ersten photoelektrischen Umwandlungsregion (232); eine Schicht mit fester negativer Ladung (292), eine Antireflexionsschicht (294) und eine Mikrolinse, die nacheinander auf die zweite Oberfläche (204) des Halbleitersubstrats (210) gestapelt sind; und Streuungsinduzierungsschichten (214), die in der Mehrzahl von Aussparungen (212) angeordnet sind und aus einem isolierenden Material bestehen, und wobei die Schicht (294) mit fester negativer Ladung die Streuungsinduzierungsschichten (214) so umgibt, dass die Streuungsinduzierungsschichten (214) und die zweite Oberfläche (204) des Halbleitersubstrats (210) voneinander beabstandet sind.
  16. Bildsensor nach Anspruch 15, wobei die zweite Oberfläche (204) des Halbleitersubstrats (210) eine Oberfläche ist, auf die Licht fällt.
  17. Bildsensor nach Anspruch 15 oder 16, wobei die zweite photoelektrische Umwandlungsregion (234) jedes von der Mehrzahl von vertikalen Übertragungsgattern (244, 254) in einer Dickenrichtung des Halbleitersubstrats (210) überlagert und die erste photoelektrische Umwandlungsregion (232) die gesamte zweite photoelektrische Umwandlungsregion (234) überlagert.
DE102018109752.2A 2017-06-15 2018-04-24 Bildsensor für abstandsmessungen Active DE102018109752B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170075815A KR102432861B1 (ko) 2017-06-15 2017-06-15 거리 측정을 위한 이미지 센서
KR10-2017-0075815 2017-06-15

Publications (2)

Publication Number Publication Date
DE102018109752A1 DE102018109752A1 (de) 2018-12-20
DE102018109752B4 true DE102018109752B4 (de) 2023-12-07

Family

ID=64457674

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018109752.2A Active DE102018109752B4 (de) 2017-06-15 2018-04-24 Bildsensor für abstandsmessungen

Country Status (6)

Country Link
US (1) US10388682B2 (de)
JP (1) JP7128039B2 (de)
KR (1) KR102432861B1 (de)
CN (1) CN109148493B (de)
DE (1) DE102018109752B4 (de)
SG (1) SG10201803204RA (de)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3352219B1 (de) * 2015-09-17 2020-11-25 Sony Semiconductor Solutions Corporation Festkörperbildgebungselement, elektronische vorrichtung und verfahren zur herstellung eines festkörperbildgebungselements
CN107422571B (zh) * 2017-09-20 2020-08-21 京东方科技集团股份有限公司 显示面板、装置及其操控方法
DE102017128369A1 (de) * 2017-11-30 2019-06-06 Infineon Technologies Ag Vorrichtung und verfahren zum lokalisieren eines ersten bauelements, lokalisierungsvorrichtung und verfahren zur lokalisierung
KR102651130B1 (ko) 2018-12-06 2024-03-26 삼성전자주식회사 거리 측정을 위한 이미지 센서
KR20200108133A (ko) * 2019-03-06 2020-09-17 삼성전자주식회사 이미지 센서 및 이미징 장치
WO2020234644A1 (en) * 2019-05-21 2020-11-26 Sony Semiconductor Solutions Corporation Simultaneous capture of multiple phases for imaging devices
JPWO2020241151A1 (de) * 2019-05-24 2020-12-03
WO2021030034A1 (en) 2019-08-15 2021-02-18 Apple Inc. Depth mapping using spatial multiplexing of illumination phase
TW202127645A (zh) * 2019-08-30 2021-07-16 日商凸版印刷股份有限公司 光電轉換元件、攝像元件及攝像系統
TW202127637A (zh) * 2019-11-19 2021-07-16 日商索尼半導體解決方案公司 受光元件、測距模組
US20210156881A1 (en) * 2019-11-26 2021-05-27 Faro Technologies, Inc. Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking
KR20210064687A (ko) * 2019-11-26 2021-06-03 에스케이하이닉스 주식회사 이미지 센서
KR20220112758A (ko) 2019-12-13 2022-08-11 소니 세미컨덕터 솔루션즈 가부시키가이샤 수광 소자 및 수광 장치
JP2021097214A (ja) 2019-12-18 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 受光装置
EP4084090A4 (de) * 2019-12-25 2023-01-18 Sony Semiconductor Solutions Corporation Lichtempfangendes element und lichtempfangende vorrichtung
DE112020006385T5 (de) * 2019-12-26 2022-10-13 Hamamatsu Photonics K.K. Range-imaging-sensor
JP6913840B1 (ja) * 2019-12-26 2021-08-04 浜松ホトニクス株式会社 測距イメージセンサ及びその製造方法
TW202133424A (zh) * 2020-01-29 2021-09-01 日商索尼半導體解決方案公司 攝像元件、攝像裝置及測距裝置
WO2021161687A1 (ja) * 2020-02-10 2021-08-19 ソニーセミコンダクタソリューションズ株式会社 センサ装置、測距装置
JP2021136416A (ja) * 2020-02-28 2021-09-13 ソニーセミコンダクタソリューションズ株式会社 センサ素子およびセンサ装置
JP2021141262A (ja) * 2020-03-06 2021-09-16 Gpixel Japan株式会社 固体撮像装置用画素
US11763472B1 (en) 2020-04-02 2023-09-19 Apple Inc. Depth mapping with MPI mitigation using reference illumination pattern
JP6913793B1 (ja) * 2020-05-08 2021-08-04 浜松ホトニクス株式会社 光センサ
JP2021193696A (ja) * 2020-06-07 2021-12-23 ソニーセミコンダクタソリューションズ株式会社 センサ装置
JP2021197388A (ja) * 2020-06-10 2021-12-27 ソニーセミコンダクタソリューションズ株式会社 受光装置およびその製造方法、並びに、測距装置
WO2021252153A1 (en) * 2020-06-11 2021-12-16 Apple Inc. Global-shutter image sensor with time-of-flight sensing capability
JP2023176046A (ja) * 2020-10-19 2023-12-13 ソニーセミコンダクタソリューションズ株式会社 センサ
KR20220073404A (ko) * 2020-11-26 2022-06-03 삼성전자주식회사 복수의 포토다이오드들을 포함하는 거리 픽셀 및 이를 포함하는 비행 거리 센서
WO2022123954A1 (ja) * 2020-12-10 2022-06-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、電子機器及び固体撮像装置の製造方法
CN112637512B (zh) * 2020-12-14 2022-08-09 联合微电子中心有限责任公司 全局快门图像传感器、控制方法及摄像装置
JPWO2022259855A1 (de) * 2021-06-11 2022-12-15
KR20230136286A (ko) * 2022-03-18 2023-09-26 삼성전자주식회사 이미지 센서

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011055527A1 (de) 2011-02-07 2012-08-09 Samsung Electronics Co. Ltd. Bildsensoren mit einer Gateelektrode, welche einen potentialfreien Diffusionsbereich umgibt
US20150115291A1 (en) 2013-10-31 2015-04-30 Sungchul Kim Image Sensors Having Transfer Gate Electrodes in Trench
US20160056198A1 (en) 2014-08-19 2016-02-25 Seungwook Lee Complementary metal-oxide-semiconductor image sensors

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5493669A (en) 1977-12-14 1979-07-24 Toray Ind Inc Treating method for desulfurized waste liquid of coke oven gas
JPH03109769A (ja) * 1989-09-25 1991-05-09 Nikon Corp 固体撮像装置の単位画素
US5851191A (en) * 1997-07-01 1998-12-22 Neurometrix, Inc. Apparatus and methods for assessment of neuromuscular function
JP4742523B2 (ja) 2004-06-14 2011-08-10 ソニー株式会社 固体撮像素子及びその駆動方法
JP4108717B2 (ja) * 2006-07-03 2008-06-25 日本電気株式会社 プリント回路基板
US20080023738A1 (en) * 2006-07-28 2008-01-31 Micron Technology, Inc. Silicon microlens array
KR101448152B1 (ko) 2008-03-26 2014-10-07 삼성전자주식회사 수직 포토게이트를 구비한 거리측정 센서 및 그를 구비한입체 컬러 이미지 센서
EP2133918B1 (de) * 2008-06-09 2015-01-28 Sony Corporation Festkörperabbildungsvorrichtung, entsprechendes Steuerungsverfahren und elektronische Vorrichtung
JP5401928B2 (ja) 2008-11-06 2014-01-29 ソニー株式会社 固体撮像装置、及び電子機器
US8374083B2 (en) * 2008-07-02 2013-02-12 Qualcomm Incorporated Methods and systems for priority-based service requests, grants for service admission and network congestion control
KR20100012677A (ko) * 2008-07-29 2010-02-08 주식회사 동부하이텍 이미지 센서 및 이의 제조 방법
US7836792B2 (en) * 2008-09-25 2010-11-23 Baker Hughes Incorporated System, method and apparatus for enhanced cutting element retention and support in a rock bit
US20100314667A1 (en) 2009-06-11 2010-12-16 Omnivision Technologies, Inc. Cmos pixel with dual-element transfer gate
US9117712B1 (en) 2009-07-24 2015-08-25 Mesa Imaging Ag Demodulation pixel with backside illumination and charge barrier
DE102009037596B4 (de) 2009-08-14 2014-07-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Pixelstruktur, System und Verfahren zur optischen Abstandsmessung sowie Steuerschaltung für die Pixelstruktur
JP5493669B2 (ja) 2009-10-07 2014-05-14 ソニー株式会社 固体撮像装置、撮像装置、および固体撮像装置の製造方法
JP5050063B2 (ja) * 2010-01-20 2012-10-17 株式会社東芝 固体撮像装置
CN102339561A (zh) * 2010-07-22 2012-02-01 鸿富锦精密工业(深圳)有限公司 机壳及使用该机壳的显示设备
JP2013084785A (ja) * 2011-10-11 2013-05-09 Sony Corp 固体撮像装置、撮像装置
AU2012324015A1 (en) * 2011-12-01 2013-06-20 Purdue Pharma L.P. Azetidine-substituted quinoxaline-type piperidine compounds and uses thererof
TWI467751B (zh) * 2011-12-12 2015-01-01 Sony Corp A solid-state imaging device, a driving method of a solid-state imaging device, and an electronic device
DE102011056369A1 (de) 2011-12-13 2013-06-13 Pmdtechnologies Gmbh Halbleiterbauelement mit trench gate
KR101968197B1 (ko) 2012-05-18 2019-04-12 삼성전자주식회사 이미지 센서 및 이의 형성 방법
JP2015228388A (ja) 2012-09-25 2015-12-17 ソニー株式会社 固体撮像装置、電子機器
JP2014199898A (ja) * 2013-03-11 2014-10-23 ソニー株式会社 固体撮像素子および製造方法、並びに、電子機器
CN104981906B (zh) * 2013-03-14 2018-01-19 索尼半导体解决方案公司 固态图像传感器、其制造方法和电子设备
JP6303803B2 (ja) 2013-07-03 2018-04-04 ソニー株式会社 固体撮像装置およびその製造方法
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
JP2015153772A (ja) 2014-02-10 2015-08-24 株式会社東芝 固体撮像装置
KR102252647B1 (ko) 2014-07-11 2021-05-17 삼성전자주식회사 이미지 센서의 픽셀 및 이미지 센서
KR102286111B1 (ko) 2014-08-21 2021-08-04 삼성전자주식회사 단위 픽셀, 상기 단위 픽셀을 포함하는 이미지 센서, 및 상기 단위 픽셀을 포함하는 이미지 처리 시스템
US9437633B2 (en) 2014-11-06 2016-09-06 Taiwan Semiconductor Manufacturing Company, Ltd. Depth sensing pixel, composite pixel image sensor and method of making the composite pixel image sensor
JP2016100347A (ja) 2014-11-18 2016-05-30 ソニー株式会社 固体撮像装置及びその製造方法、並びに電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011055527A1 (de) 2011-02-07 2012-08-09 Samsung Electronics Co. Ltd. Bildsensoren mit einer Gateelektrode, welche einen potentialfreien Diffusionsbereich umgibt
US20150115291A1 (en) 2013-10-31 2015-04-30 Sungchul Kim Image Sensors Having Transfer Gate Electrodes in Trench
US20160056198A1 (en) 2014-08-19 2016-02-25 Seungwook Lee Complementary metal-oxide-semiconductor image sensors

Also Published As

Publication number Publication date
KR20180136717A (ko) 2018-12-26
US10388682B2 (en) 2019-08-20
KR102432861B1 (ko) 2022-08-16
DE102018109752A1 (de) 2018-12-20
JP2019004149A (ja) 2019-01-10
CN109148493A (zh) 2019-01-04
SG10201803204RA (en) 2019-01-30
JP7128039B2 (ja) 2022-08-30
US20180366504A1 (en) 2018-12-20
CN109148493B (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
DE102018109752B4 (de) Bildsensor für abstandsmessungen
US10983216B2 (en) Depth field imaging apparatus, methods, and applications
US11342368B2 (en) Image sensors for distance measurement
DE102009037596B4 (de) Pixelstruktur, System und Verfahren zur optischen Abstandsmessung sowie Steuerschaltung für die Pixelstruktur
DE102019107807A1 (de) Zeitauflösender bildsensor zur entfernungsmessung und 2d-grauskalenbildgebung
WO2017104486A1 (en) Image sensor, image capturing system, and production method of image sensor
US9160932B2 (en) Fast gating photosurface
DE112005000411T5 (de) Laufzeit-Reichweitenerfassungssensor
EP1644700A2 (de) Verfahren und einrichtungen zur ladungsverwaltung für dreidimensionale und farb-messung
DE102011079589A1 (de) Einheitspixel für ein Photodetektionsbauelement
US10708511B2 (en) Three-dimensional motion obtaining apparatus and three-dimensional motion obtaining method
DE112020005923T5 (de) Festkörper-bildgebungsvorrichtung und bildgebungsvorrichtung mit kombinierten dynamik-vision-sensor- und bildgebungsfunktionen
DE202022103497U1 (de) Lidar-Sensor für mobile Geräte
JP6887126B2 (ja) 3次元モーション取得装置、及び3次元モーション取得方法
WO2021112150A1 (en) Imaging devices and imaging apparatuses, and methods for the same
DE102022124036A1 (de) Photoelektrische Umwandlungsvorrichtung, photoelektrisches Umwandlungssystem und beweglicher Körper
DE112021000828T5 (de) Photoelektrische umwandlungsvorrichtung, photoelektrischesumwandlungssystem und bewegliches objekt
DE102022122392A1 (de) Photoelektrische Umwandlungsvorrichtung
DE112021002937T5 (de) Entfernungsmessvorrichtung
DE112022003348T5 (de) Bildgebungselement und elektronische vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division