DE112022000204T5 - Bildsensoranordnung, Bildsensorvorrichtung und Verfahren zum Betrieb einer Bildsensoranordnung - Google Patents

Bildsensoranordnung, Bildsensorvorrichtung und Verfahren zum Betrieb einer Bildsensoranordnung Download PDF

Info

Publication number
DE112022000204T5
DE112022000204T5 DE112022000204.2T DE112022000204T DE112022000204T5 DE 112022000204 T5 DE112022000204 T5 DE 112022000204T5 DE 112022000204 T DE112022000204 T DE 112022000204T DE 112022000204 T5 DE112022000204 T5 DE 112022000204T5
Authority
DE
Germany
Prior art keywords
pixels
group
layer
sensor layer
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022000204.2T
Other languages
English (en)
Inventor
Adi Xhakoni
Corneliu-Mihai Tobescu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ams Sensors Belgium BVBA
Original Assignee
Ams Sensors Belgium BVBA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ams Sensors Belgium BVBA filed Critical Ams Sensors Belgium BVBA
Publication of DE112022000204T5 publication Critical patent/DE112022000204T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • H01L27/14647Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • H01L27/1465Infrared imagers of the hybrid type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/532Control of the integration time by controlling global shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Facsimile Heads (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Eine Bildsensoranordnung (1) umfasst eine erste Sensorschicht (2) mit einer ersten Gruppe von Pixeln (3), wobei jedes Pixel (3) der ersten Gruppe eine Fotodiode (14, 15, 16, 17) umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in einem ersten Wellenlängenbereich erfasst. Sie umfasst ferner eine zweite Sensorschicht (4) mit einer zweiten Gruppe von Pixeln (5), wobei jedes Pixel (5) der zweiten Gruppe eine Fotodiode (13) umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in einem zweiten Wellenlängenbereich erfasst. Sie umfasst ferner eine Ausleseschicht (6) mit einer Ausleseschaltung (7), die dazu ausgelegt ist, dass sie elektrische Signale aus den Pixeln (3, 5) der ersten und der zweiten Gruppe ausliest. Die zweite Sensorschicht (4) ist zwischen der ersten Sensorschicht (2) und der Ausleseschicht (6) angeordnet. Der zweite Wellenlängenbereich liegt außerhalb eines von der ersten Sensorschicht (2) erfassbaren Wellenlängenbereichs.

Description

  • Die vorliegende Erfindung betrifft eine Bildsensoranordnung, eine Bildsensorvorrichtung und ein Verfahren zum Betrieb einer Bildsensoranordnung. Die Bildsensoranordnung ist dazu eingerichtet, elektromagnetische Strahlung in zwei Wellenlängenbereichen zu erfassen.
  • HINTERGRUND DER ERFINDUNG
  • CMOS-Bildsensoren werden in einer Vielzahl von Anwendungen eingesetzt, z. B. für Kameramodule und Smartphones, Tablet-Computer, Laptops usw. Einige dieser Anwendungen, wie z. B. die Fotografie, erfordern Empfindlichkeiten im sichtbaren optischen Bereich, während andere Anwendungen, wie z. B. die 3D-Bildgebung und Identifizierung, eine Empfindlichkeit des Bildsensors im Infrarotbereich (IR) erfordern. Der Infrarotbereich wird zum Beispiel in dunklen Umgebungen oder zumindest in Situationen mit begrenzter Helligkeit verwendet. Der Infrarotbereich kann auch zur Verbesserung normaler RGB-Bilder verwendet werden: Er bringt „Textur“, weil Infrarotstrahlung durch bestimmte Bedingungen wie Dunst „hindurchsehen“ kann, was bei Licht im sichtbaren Wellenlängenbereich nicht möglich ist.
  • Aus Platzgründen in modernen Geräten ist es wünschenswert, eine Bildsensorvorrichtung bereitzustellen, die sowohl im sichtbaren als auch im infraroten Bereich empfindlich ist. Zu diesem Zweck umfasst eine Bildsensoranordnung sowohl Pixel, die für einen bestimmten Teil des sichtbaren Spektrums empfindlich sind, als auch Pixel, die für einen bestimmten Teil des Infrarotspektrums empfindlich sind. In diesem Zusammenhang werden häufig Fotodioden auf Siliziumbasis verwendet, da diese Dioden über einen breiten Wellenlängenbereich zwischen 190 nm und 1100 nm empfindlich sind und somit das elektromagnetische Spektrum sowohl im sichtbaren als auch im nahen Infrarotbereich (NIR) abdecken.
  • Die Pixel für den Empfang von Informationen über sichtbares Licht sind in der Regel in einer Sensorschicht in einer zweidimensionalen Anordnung oder Matrix angeordnet, um eine ausreichende räumliche Auflösung einer Bildszene zu erreichen. Darüber hinaus kann jedes Pixel aus Subpixeln bestehen, wobei jedes Subpixel so ausgebildet ist, dass es Licht einer bestimmten Farbe erkennt, z. B. Rot, Grün und Blau (RGB). Typischerweise sind die Subpixel in einem bestimmten Muster angeordnet, zum Beispiel nach dem sogenannten Bayer-Muster.
  • Ein herkömmlicher Ansatz zur Realisierung eines Bildsensors, der sowohl für sichtbares als auch für IR-Licht empfindlich ist, besteht darin, zusätzliche Pixel für NIR-Licht auf demselben (Silizium-)Substrat anzuordnen. Die Implementierung eines zusätzlichen Pixels für den Empfang von NIR-Lichtinformationen in solchen Bildsensoren wird in der Regel dadurch erreicht, dass eines der Subpixel geopfert wird, z. B. ein Subpixel für die Erfassung von grünem Licht. Dies führt jedoch zu mehreren Nachteilen, insbesondere zu einer Verschlechterung der Bildwahrnehmung und/oder zu einem Verlust der räumlichen Auflösung im sichtbaren Bereich.
  • Ein anderer Ansatz wird von Takemoto et al. vorgeschlagen (siehe Takemoto et al.: „Multiband Imaging CMOS Image Sensor with Multi-Storied Photodiode Structure“). Sie stellen einen Multiband-Imaging-CMOS-Bildsensor mit einer mehrstöckigen Fotodiodenstruktur vor, die zwei Fotodiodenarrays zur gleichzeitigen Erfassung von sichtbarem RGB- und NIR-Licht umfasst. Ein oberes Siliziumsubstrat verfügt über ein Pixelarray für sichtbares RGB-Licht und ein unteres Siliziumsubstrat über ein Pixelarray für NIR-Licht, das durch das obere Substrat hindurchgeht. Die beiden Substrate umfassen jeweils Verdrahtungsschichten, die von Seite zu Seite miteinander verbunden sind.
  • Ein großes Problem ist, dass aufgrund der NIR-Pixel unter den Pixeln mit sichtbarem Licht auch die Pixel mit sichtbarem Licht dem NIR-Licht ausgesetzt sind. Dies wirkt sich auf die Farbrekonstruktion aus und führt dazu, dass die Farben im digitalen Bild einen NIR-Anteil erhalten, der einem Amplituden-Offset entspricht. Ein weiterer Nachteil ist, dass aufgrund des oberen ersten Substrats und der Verdrahtungsschichten zwischen den beiden Substraten das Licht, das das erste Substrat passiert, durch Blockierungs- oder Streuungseffekte stark abgeschwächt wird. Dies wiederum führt zu einer schlechten Quanteneffizienz (QE) für NIR-Licht.
  • Daher ist es ein Ziel, eine Bildsensoranordnung bereitzustellen, die die oben genannten Nachteile überwindet. Insbesondere ist die Bildsensoranordnung in der Lage, Licht in mindestens zwei Wellenlängenbereichen zu erfassen und bietet eine verbesserte Bildwahrnehmung und Quanteneffizienz.
  • Dieser Zweck wird mit den Gegenständen der unabhängigen Ansprüche erreicht. Weitere Ausgestaltungen und Ausführungsformen sind in den abhängigen Ansprüchen beschrieben.
  • INHALT DER ERFINDUNG
  • Die verbesserte Bildsensoranordnung basiert auf der Idee, zwei Wellenlängenbereiche zu verwenden, wobei eine erste Sensorschicht nur für einen dieser Wellenlängenbereiche spektral empfindlich ist, während eine zweite Sensorschicht für den anderen Wellenlängenbereich spektral empfindlich ist. Der erste Wellenlängenbereich umfasst zum Beispiel sichtbares Licht. Der zweite Wellenlängenbereich kann kurzwelliges Infrarotlicht (SWIR) umfassen (anstelle von NIR-Licht). SWIR umfasst die Wellenlängen von 1,4 um bis 3,0 um, während NIR die Wellenlängen von 780 nm bis 1,4 um umfasst. Ein spezieller SWIR-Sensor kann unter einem Sensor für sichtbares Licht angeordnet werden. Im Gegensatz zu NIR-Licht beeinflusst SWIR-Licht die Fotodioden des Sensors für sichtbares Licht nicht, d. h. der Sensor für sichtbares Licht ist für SWIR-Licht nicht empfindlich. Unter der zweiten Sensorschicht kann eine gemeinsame Ausleseschaltung angeordnet werden, die in geeigneter Weise mit den Pixeln beider Sensorschichten verbunden ist.
  • Hier und im Folgenden bezieht sich der Begriff Pixel auf ein lichtempfangendes Element, das in einem zweidimensionalen Array mit anderen Pixeln angeordnet sein kann. Das Pixel kann auch Schaltungen zur Steuerung von Signalen zum und vom Pixel enthalten. Die Pixel können auch entsprechende Wellenlängenfilter zur Erfassung von Licht in einem bestimmten Wellenlängenbereich enthalten. Pixel für sichtbares Licht beziehen sich auf Pixel, die in der Lage sind, Licht im sichtbaren Wellenlängenbereich zu erfassen, insbesondere im roten, grünen und/oder blauen Wellenlängenbereich. IR/SWIR-Pixel beziehen sich auf Pixel, die in der Lage sind, Licht im Infrarotbereich, insbesondere im kurzwelligen Infrarotbereich, zu erfassen. Der Begriff Licht kann sich auf elektromagnetische Strahlung im Allgemeinen beziehen, einschließlich IR-Strahlung, SWIR und sichtbares Licht. Dementsprechend beziehen sich grünes, blaues, rotes und SWIR-Licht auf Licht im jeweiligen Wellenlängenbereich.
  • In einer Ausführungsform umfasst eine Bildsensoranordnung eine erste Sensorschicht mit einer ersten Gruppe von Pixeln, wobei jedes Pixel der ersten Gruppe eine Fotodiode umfasst, die dazu ausgebildet ist, dass sie elektromagnetische Strahlung in einem ersten Wellenlängenbereich erfasst. Die Bildsensoranordnung umfasst ferner eine zweite Sensorschicht mit einer zweiten Gruppe von Pixeln, wobei jedes Pixel der zweiten Gruppe eine Fotodiode umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in einem zweiten Wellenlängenbereich erfasst. Die Bildsensoranordnung umfasst ferner eine Ausleseschicht mit einer Ausleseschaltung, die dazu ausgelegt ist, dass sie elektrische Signale aus den Pixeln der ersten und der zweiten Gruppe ausliest. Die zweite Sensorschicht ist zwischen der ersten Sensorschicht und der Ausleseschicht angeordnet. Der zweite Wellenlängenbereich liegt außerhalb des von der ersten Sensorschicht erfassbaren Wellenlängenbereichs.
  • Die erste Sensorschicht hat eine Haupterstreckungsebene. Die erste Sensorschicht umfasst eine Hauptfläche und eine Rückfläche. In einer Ausführungsform kann eine Verdrahtung der Pixel der ersten Gruppe an der Hauptfläche der ersten Sensorschicht angeordnet sein. Die Pixel der ersten Gruppe können als zweidimensionales Array oder als Pixelmatrix angeordnet sein. Die Pixel der ersten Gruppe können in seitlichen Richtungen nebeneinander angeordnet sein, wobei die seitlichen Richtungen parallel zur Haupterstreckungsebene der ersten Sensorschicht verlaufen. Die erste Sensorschicht umfasst zum Beispiel mindestens 1 Million Pixel der ersten Gruppe. Zumindest in einigen Ausführungsformen umfasst der erste Wellenlängenbereich sichtbares Licht. Die erste Gruppe von Pixeln kann dazu ausgebildet sein, dass sie elektromagnetische Strahlung im sichtbaren Wellenlängenbereich erfasst.
  • Alternativ oder zusätzlich kann der erste Wellenlängenbereich auch NIR-Licht umfassen. Die erste Gruppe von Pixeln kann dazu ausgebildet sein, dass sie elektromagnetische Strahlung im NIR-Wellenlängenbereich erfasst. Dies kann bedeuten, dass die erste Sensorschicht Pixel zur Erfassung von sichtbarem Licht und weitere Pixel zur Erfassung von NIR-Licht umfasst. Dies kann ferner bedeuten, dass die erste Sensorschicht Pixel umfasst, die in der Lage sind, Licht sowohl im sichtbaren als auch im NIR-Spektrum zu erfassen.
  • In einer Ausführungsform erfasst jedes Pixel der ersten Gruppe Licht desselben Wellenlängenbereichs. In einer anderen Ausführungsform umfasst die erste Gruppe von Pixeln jedoch verschiedene Untergruppen von Pixeln, wobei jede Untergruppe dazu ausgebildet ist, dass sie einen bestimmten Wellenlängenbereich innerhalb des ersten Wellenlängenbereichs erfasst. Zumindest einigen Ausführungsformen zufolge erfasst eine erste Untergruppe von Pixeln Licht im roten (R) Wellenlängenbereich, eine zweite Untergruppe von Pixeln erfasst Licht im grünen (G) Wellenlängenbereich und eine dritte Untergruppe erfasst Licht im blauen (B) Wellenlängenbereich. Auf diese Weise kann eine RGB-Pixelschicht gebildet werden. Die Pixel der verschiedenen Untergruppen können nach einem bestimmten Muster angeordnet sein, z. B. nach dem Bayer-Muster (RGGB). Die Fotodioden der Pixel der ersten Gruppe sind jeweils dazu ausgebildet, dass sie elektromagnetische Strahlung in ein elektrisches Signal umwandeln. Jede Fotodiode eines Pixels kann ihren eigenen potentialfreien Diffusionsknoten und/oder eigene Komponenten einer Steuerschaltung haben.
  • Es ist auch möglich, dass jedes Pixel mehrere Subpixel zur Erfassung von Licht in verschiedenen Wellenlängenbereichen umfasst. Jedes Subpixel kann eine entsprechende Fotodiode umfassen. In einer Ausführungsform umfasst jedes Pixel vier Subpixel, die in einem Bayer-Muster (RGGB) angeordnet sind. Die Subpixel mit den jeweiligen Fotodioden können sich einen gemeinsamen potentialfreien Diffusionsknoten und/oder gemeinsame Komponenten einer Steuerschaltung teilen.
  • In einer Ausführungsform ist die Rückseite der ersten Sensorschicht der einfallenden elektromagnetischen Strahlung zugewandt. In einer solchen Ausführungsform kann die Rückseite daher auch als Strahlungseintrittsseite bezeichnet werden. Eine Konfiguration, bei der die Verdrahtung der Pixel an der Hauptfläche angeordnet ist und bei der die Sensorschicht von ihrer Rückfläche aus bestrahlt wird, kann als Rückseitenbeleuchtungskonfiguration (BSI) bezeichnet werden. Somit kann die erste Sensorschicht in einer BSI-Konfiguration vorliegen. Es ist aber auch möglich, dass die Hauptfläche, auf der die Verdrahtung angeordnet ist, bestrahlt wird. Eine solche Konfiguration wird als Frontseitenbeleuchtungskonfiguration (FSI) bezeichnet.
  • Die zweite Sensorschicht hat ebenfalls eine Haupterstreckungsebene. Die Hauptebene der zweiten Sensorschicht kann parallel zur Hauptebene der ersten Sensorschicht verlaufen. Die zweite Sensorschicht umfasst ebenfalls eine Hauptfläche und eine Rückfläche. In vertikaler Richtung ist die zweite Sensorschicht unterhalb der ersten Sensorschicht angeordnet. Die vertikale Richtung bezieht sich auf eine Richtung, die senkrecht zur Haupterstreckungsebene der ersten und der zweiten Sensorschicht verläuft. Dies kann bedeuten, dass die erste Sensorschicht zwischen der zweiten Sensorschicht und der einfallenden elektromagnetischen Strahlung angeordnet ist. Die Hauptfläche der zweiten Sensorschicht kann so angeordnet sein, dass sie der ersten Sensorschicht zugewandt ist, oder so, dass sie der Ausleseschicht zugewandt ist.
  • In einer Ausführungsform kann eine Verdrahtung der Pixel der zweiten Gruppe auf der Hauptfläche der zweiten Sensorschicht angeordnet sein. Die Pixel der zweiten Gruppe können als zweidimensionales Array oder als Pixelmatrix angeordnet sein. Die Pixel der zweiten Gruppe können in seitlichen Richtungen nebeneinander angeordnet sein. Die zweite Sensorschicht umfasst zum Beispiel mindestens 1 Million Pixel der zweiten Gruppe. Die zweite Sensorschicht kann jedoch auch weniger als 1 Million Pixel der zweiten Gruppe oder weniger Pixel der zweiten Gruppe als Pixel der ersten Gruppe in der ersten Sensorschicht umfassen.
  • Die Pixel der zweiten Gruppe können jeweils dazu ausgebildet sein, dass sie elektromagnetische Strahlung in einem gleichen Bereich innerhalb des zweiten Wellenlängenbereichs erfassen. Es ist jedoch auch möglich, dass die Pixel der zweiten Gruppe dazu ausgelegt sind, dass sie unterschiedliche Bereiche innerhalb des zweiten Wellenlängenbereichs erfassen. Die Fotodioden der Pixel der zweiten Gruppe sind jeweils dazu ausgebildet, dass sie elektromagnetische Strahlung innerhalb des zweiten Wellenlängenbereichs in ein elektrisches Signal umwandeln.
  • Der zweite Wellenlängenbereich liegt außerhalb eines Wellenlängenbereichs, der von der ersten Sensorschicht erfasst werden kann. Dies kann bedeuten, dass die erste Sensorschicht ausschließlich im ersten Wellenlängenbereich spektral empfindlich ist. Die erste Sensorschicht ist möglicherweise im zweiten Wellenlängenbereich nicht empfindlich. Dies kann bedeuten, dass die erste Sensorschicht keine spektrale Empfindlichkeit im zweiten Wellenlängenbereich aufweist. Elektromagnetische Strahlung im zweiten Wellenlängenbereich durchdringt die erste Sensorschicht ungehindert. Dies liegt daran, dass die erste Sensorschicht aus einem Sensormaterial bestehen kann, das eine zu große Bandlücke für elektromagnetische Strahlung im zweiten Wellenlängenbereich aufweist. Nur Photonen mit ausreichender Energie, um Elektronen über die Bandlücke des Materials anzuregen, erzeugen einen signifikanten Fotostrom. Die Photonenenergie innerhalb des zweiten Wellenlängenbereichs kann zu gering sein, um von der ersten Sensorschicht erfasst zu werden. Dies kann bedeuten, dass eine minimale Wellenlänge des zweiten Wellenlängenbereichs größer ist als eine maximale Wellenlänge, die von der ersten Sensorschicht erfasst werden kann.
  • Zumindest einigen Ausführungsformen zufolge umfasst der zweite Wellenlängenbereich kurzwellige Infrarotstrahlung. Die zweite Gruppe von Pixeln kann dazu ausgebildet sein, dass sie elektromagnetische Strahlung im SWIR-Bereich erfasst.
  • In einer Ausführungsform entspricht die Anzahl der Pixel der ersten Gruppe in der ersten Sensorschicht der Anzahl der Pixel der zweiten Gruppe in der zweiten Sensorschicht. Dies kann bedeuten, dass jedes Pixel der zweiten Gruppe einem Pixel der ersten Gruppe zugeordnet ist. In einer solchen Ausführungsform sind die räumlichen Auflösungen der beiden entsprechenden Arrays gleich.
  • Es ist aber auch möglich, dass die Anzahl der Pixel der ersten Gruppe die Anzahl der Pixel der zweiten Gruppe übersteigt, oder umgekehrt. So kann beispielsweise jedes Pixel der zweiten Gruppe (z. B. SWIR-Pixel) vier Pixeln bzw. Subpixeln der ersten Gruppe (z. B. Pixeln des sichtbaren Lichts) zugeordnet werden. Zum Beispiel wird jedes SWIR-Pixel vier Pixeln/Subpixeln eines Bayer-Musters (RGGB) zugeordnet. Dies kann bedeuten, dass in diesem Beispiel eine Pixelfläche eines SWIR-Pixels viermal größer ist als eine Pixelfläche eines der Pixel für sichtbares Licht. Durch eine größere Pixelfläche ist das Pixel empfindlicher, da mehr Licht pro Pixel erfasst werden kann.
  • Ebenso ist es möglich, dass ein Pixel der ersten Gruppe mehr als einem Pixel der zweiten Gruppe zugeordnet ist. Es ist ferner möglich, dass die Anzahl der Pixel der ersten Gruppe nicht mit der Anzahl der Pixel der zweiten Gruppe korreliert ist, so dass es keine Zuordnung zwischen Pixeln verschiedener Gruppen gibt.
  • Die Ausleseschicht hat ebenfalls eine Haupterstreckungsebene. Die Haupterstreckungsebene der Ausleseschicht kann parallel zu der Haupterstreckungsebene der ersten Sensorschicht bzw. der zweiten Sensorschicht verlaufen. In vertikaler Richtung ist die Ausleseschicht unterhalb der zweiten Sensorschicht angeordnet. Dies bedeutet, dass die zweite Sensorschicht zwischen der ersten Sensorschicht und der Ausleseschicht angeordnet ist. Die Ausleseschicht ist elektrisch mit der ersten Sensorschicht und mit der zweiten Sensorschicht verbunden. Die elektrische Verbindung kann durch jedes geeignete Mittel hergestellt werden.
  • Eine Verdrahtung der Ausleseschaltung ist an einer Hauptfläche der Ausleseschicht angeordnet. Die Ausleseschicht kann so angeordnet sein, dass ihre Hauptfläche der zweiten Sensorschicht zugewandt ist. Die Ausleseschaltung kann dazu ausgelegt sein, dass sie die elektrischen Signale ausliest, die von den Fotodioden der ersten und zweiten Pixelgruppe geliefert werden. Die Ausleseschaltung kann einen Eingang umfassen, an dem die elektrischen Signale der Fotodioden bereitgestellt werden können. Die Ausleseschaltung kann ferner dazu ausgelegt sein, dass sie die Pixel betreibt.
  • Die Bildsensoranordnung kann Licht in zwei verschiedenen Wellenlängenbereichen erfassen, was unter dem Gesichtspunkt der Kosteneffizienz von Vorteil ist. Zum Beispiel kann die Bildsensoranordnung sichtbares Licht und SWIR gleichzeitig erfassen. Im Vergleich zu anderen multispektralen Sensoren (z. B. RGB+NIR) gibt es keine Abstriche bei der Bildqualität. Es müssen keine Pixel der ersten Gruppe aus dem ersten Array entfernt werden, da die Pixel der zweiten Gruppe nicht in das erste Array, sondern in ein separates zweites Array unterhalb des ersten Arrays integriert sind. Dies bedeutet, dass die räumliche Auflösung sowohl des ersten Arrays als auch des zweiten Arrays hoch sein kann. Die Quanteneffizienz (QE) der ersten Gruppe von Pixeln (z. B. siliziumbasierte Pixel für sichtbares Licht) in der ersten Sensorschicht beträgt 0 % für den zweiten Wellenlängenbereich (z. B. SWIR-Bereich). Dies bedeutet, dass SWIR-Licht nicht zu einer Farbverschiebung im sichtbaren Bereich beiträgt. Vorteilhaft ist, dass keine Farbkorrektur erforderlich ist, um eine SWIR-Komponente aus dem sichtbaren Spektrum herauszufiltern. Eine hohe Bildwahrnehmung kann beibehalten werden.
  • In einer Ausführungsform umfasst eine Bildsensoranordnung eine erste Sensorschicht mit einer ersten Gruppe von Pixeln, wobei jedes Pixel der ersten Gruppe eine Fotodiode umfasst, die dazu ausgebildet ist, dass sie elektromagnetische Strahlung im sichtbaren Wellenlängenbereich erfasst. Die Bildsensoranordnung umfasst ferner eine zweite Sensorschicht mit einer zweiten Gruppe von Pixeln, wobei jedes Pixel der zweiten Gruppe eine Fotodiode umfasst, die dazu ausgebildet ist, dass sie elektromagnetische Strahlung im kurzwelligen Infrarotbereich erfasst. Die Bildsensoranordnung umfasst ferner eine Ausleseschicht mit einer Ausleseschaltung, die dazu ausgebildet ist, dass sie elektrische Signale aus den Pixeln der ersten und der zweiten Gruppe ausliest. Die zweite Sensorschicht ist zwischen der ersten Sensorschicht und der Ausleseschicht angeordnet.
  • In einer Ausführungsform der Bildsensoranordnung ist die erste Sensorschicht mit der zweiten Sensorschicht verbunden. Gemäß einem Aspekt der Offenbarung ist die erste Sensorschicht durch elektrische Kontakte an der zweiten Sensorschicht befestigt. Die elektrischen Kontakte können zwischen der ersten Sensorschicht und der zweiten Sensorschicht ausgebildet sein. So können die Pixel der ersten Gruppe mit den Pixeln der zweiten Gruppe elektrisch verbunden werden. Dies kann bedeuten, dass eine Verdrahtung eines jeweiligen Pixels der ersten Gruppe mit einer Verdrahtung eines jeweiligen Pixels der zweiten Gruppe über einen elektrischen Kontakt elektrisch verbunden ist. Die elektrischen Kontakte können aus Metallhöckern bestehen. Die elektrischen Kontakte werden zum Beispiel durch Hybridbonden gebildet.
  • In einer Ausführungsform der Bildsensoranordnung ist die erste Sensorschicht mit der zweiten Sensorschicht durch Hybridbonden verbunden. Zwischen den Pixeln der ersten Gruppe und den Pixeln der zweiten Gruppe sind elektrische Verbindungen ausgebildet. Hybridbonden bezeichnet eine Verbindungstechnik, bei der eine dauerhafte Verbindung zwischen zwei Schichten hergestellt wird, die eine dielektrische Verbindung mit einem eingebetteten Metall kombiniert, um elektrische Verbindungen auszubilden. Die hybride Verbindung kann z. B. durch einen Klebstoff hergestellt werden. In den Klebstoff können Metallhöcker eingebettet werden, die die erste Sensorschicht mit der zweiten Sensorschicht elektrisch verbinden.
  • Als weiteres Beispiel kann die dielektrische Verbindung durch eine Oxid-Grenzfläche hergestellt werden, wobei die erste und die zweite Sensorschicht jeweils eine einander zugewandte Oxidschicht umfassen. Das Verbinden der beiden Oxidschichten miteinander kann im Rahmen eines Direktbond- oder Fusionsbondverfahrens erfolgen. Kupferpads können parallel zu der jeweiligen Oxidschicht verarbeitet werden. In diesem Fall kann die elektrische Kontaktierung während des Temperns durch Metalldiffusionsbonden erreicht werden.
  • Die erste Sensorschicht und die zweite Sensorschicht bestehen in der Regel aus einem Substrat, auf dem die Fotodioden und möglicherweise einige Schaltkreise angeordnet sind. Auf dem Substrat kann eine Oxidschicht angeordnet sein, in die Verdrahtungen eingebettet sind, die die Fotodioden und den Schaltkreis elektrisch verbinden. Die erste Sensorschicht und die zweite Sensorschicht können so angeordnet werden, dass die jeweiligen Oxidschichten einander für einen direkten Bondprozess gegenüberliegen. Die Verdrahtungen innerhalb der Oxidschichten können dazu verwendet werden, die Pixel der ersten Gruppe mit den Pixeln der zweiten Gruppe elektrisch zu verbinden.
  • Durch die dauerhafte Verbindung können die erste Sensorschicht und die zweite Sensorschicht zueinander ausgerichtet werden. Es sind keine beweglichen Teile vorhanden. Die elektrische Verbindung der Pixel der ersten Gruppe mit den Pixeln der zweiten Gruppe kann genutzt werden, damit die Pixel einen gemeinsamen Auslesepfad nutzen können. Bei dem Auslesepfad kann es sich um einen Spalten-Bus handeln. Die elektrischen Signale können sequentiell an die Ausleseschaltung übertragen werden. Diese Konfiguration ist insbesondere dann von Bedeutung, wenn die Pixel beider Gruppen in einem Rolling-Shutter-Modus betrieben werden sollen. In diesem Fall ist die Ausleseschaltung weniger platzraubend.
  • In einer Ausführungsform der Bildsensoranordnung ist die zweite Sensorschicht an der Ausleseschicht befestigt. Gemäß einem Aspekt der Offenbarung ist die zweite Sensorschicht über elektrische Kontakte mit der Ausleseschicht verbunden. Die elektrischen Kontakte können zwischen der zweiten Sensorschicht und der Ausleseschicht ausgebildet sein. So können die Pixel der zweiten Gruppe elektrisch mit der Ausleseschaltung verbunden werden. Dies kann bedeuten, dass eine Verdrahtung eines jeweiligen Pixels der zweiten Gruppe mittels eines elektrischen Kontakts mit einer Verdrahtung der Ausleseschaltung elektrisch verbunden ist. Die elektrischen Kontakte können aus Metallhöckern bestehen. Die elektrischen Kontakte werden zum Beispiel durch Hybridbonden gebildet.
  • In einer Ausführungsform der Bildsensoranordnung ist die zweite Sensorschicht mit der Ausleseschicht durch Hybridbonden verbunden, so dass elektrische Verbindungen zwischen den Pixeln der zweiten Gruppe und der Ausleseschaltung ausgebildet sind.
  • Wie bereits erwähnt, bezieht sich der Begriff „Hybridbonden“ auf jede Verbindungstechnik, bei der eine dauerhafte Verbindung zwischen zwei Schichten hergestellt wird, die eine dielektrische Verbindung mit einem eingebetteten Metall kombiniert, um elektrische Verbindungen auszubilden. Die oben genannten Beispiele gelten auch für diese Ausführungsform.
  • In der Regel umfasst die Ausleseschicht auch ein Substrat, auf dem die Ausleseschaltung angeordnet ist. Auf dem Substrat kann eine Oxidschicht angeordnet sein, in die eine Verdrahtung eingebettet ist, die verschiedene Teile der Ausleseschaltung elektrisch miteinander verbindet. Die zweite Sensorschicht und die Ausleseschicht können so angeordnet werden, dass ihre jeweiligen Oxidschichten einander für einen direkten Verbindungsprozess gegenüberliegen. Die Verdrahtungen innerhalb der Oxidschichten können verwendet werden, um die Pixel der zweiten Gruppe mit Teilen der Ausleseschicht elektrisch zu verbinden.
  • Durch die dauerhafte Verbindung kann die zweite Sensorschicht an der Ausleseschicht ausgerichtet werden. Es sind keine beweglichen Teile vorhanden. Die elektrische Verschaltung der Pixel der zweiten Gruppe mit der Ausleseschaltung ermöglicht einen separaten Auslesepfad neben dem Auslesepfad für die Pixel der ersten Gruppe. Diese Anordnung ist insbesondere dann von Bedeutung, wenn die Pixel der ersten Gruppe in einem Rolling-Shutter-Modus betrieben werden sollen, während die Pixel der zweiten Gruppe in einem Global-Shutter-Modus betrieben werden sollen. In diesem Fall kann für die Pixel der zweiten Gruppe ein Global Shutter verwendet werden, was zu einer geringeren Leistungsaufnahme führt, da im Global Shutter Modus die Beleuchtungszeit kürzer ist.
  • Wenn die Pixel der zweiten Gruppe über einen separaten Auslesepfad mit der Ausleseschaltung verbunden sind, ist eine elektrische Verbindung zu den Pixeln der ersten Gruppe nicht mehr erforderlich. Dies bedeutet, dass zumindest einige Metallschichten/Metallhöcker zwischen den Pixeln der ersten Gruppe und den Pixeln der zweiten Gruppe nicht erforderlich sind. Metallschichten blockieren, streuen und/oder reflektieren elektromagnetische Strahlung. Diese Ausführungsformen haben daher eine hohe Quanteneffizienz, da ein großer Teil des einfallenden Lichts die zweite Sensorschicht erreicht, ohne von Metallschichten beeinflusst zu werden.
  • In einer Ausführungsform umfasst die Bildsensoranordnung außerdem mindestens eine Substratdurchkontaktierung, TSV. Die mindestens eine Substratdurchkontaktierung durchdringt die zweite Sensorschicht und verbindet die Pixel der ersten Gruppe in der ersten Sensorschicht elektrisch mit der Ausleseschaltung in der Ausleseschicht.
  • Das TSV durchdringt die zweite Sensorschicht vollständig. Das bedeutet, dass das TSV von der Hauptfläche bis zur Rückfläche der zweiten Sensorschicht reicht. Das TSV kann durch ein Durchgangsloch in der zweiten Sensorschicht gebildet sein. Darüber hinaus kann das TSV auch die erste Sensorschicht vollständig durchdringen. So kann das Durchgangsloch auch in der ersten Sensorschicht vorhanden sein. In diesem Fall reicht das TSV von einer Strahlungseintrittsseite der ersten Sensorschicht bis zur Rückseite der zweiten Sensorschicht. Letzteres kann aus produktionstechnischer Sicht von Vorteil sein.
  • Das TSV kann eine Metallisierung umfassen, die die Verdrahtung der ersten Sensorschicht mit einer Verdrahtung der Ausleseschicht elektrisch verbindet. Das TSV kann ferner eine Isolationsschicht umfassen, die die Metallisierung von der zweiten Sensorschicht und gegebenenfalls von der ersten Sensorschicht isoliert. Zu diesem Zweck ist die Isolationsschicht an den Seitenwänden des Durchgangslochs angeordnet. Die Metallisierung kann auf der Isolationsschicht angeordnet sein und Kontaktflächen an der Hauptfläche und der Rückfläche der zweiten Sensorschicht und/oder der ersten Sensorschicht bilden. Das verbleibende Durchgangsloch kann mit einem Füllmaterial gefüllt werden. Alternativ kann die Metallisierung das verbleibende Durchgangsloch vollständig ausfüllen.
  • Das TSV stellt einen Auslesepfad zum Auslesen der elektrischen Signale der Pixel der ersten Gruppe bereit. In einigen Ausführungsformen werden auch die elektrischen Signale der Pixel der zweiten Gruppe über das TSV ausgelesen. Die elektrischen Signale können über das TSV sequentiell, d.h. nacheinander, ausgelesen werden. Das TSV stellt somit einen Auslesepfad für den Betrieb der Pixel im Rolling-Shutter-Modus dar. Der TSV kann elektrisch mit nur einem Pixel verbunden sein. Es ist auch möglich, dass das TSV mit mehr als einem Pixel elektrisch verbunden ist. Die Bildsensoranordnung kann eine Vielzahl von TSVs umfassen, wobei jeder TSV mit einem oder mehreren Pixeln elektrisch verbunden ist. Zum Beispiel ist jedes TSV elektrisch mit den Pixeln einer Zeile einer Pixelanordnung verbunden. Durch das TSV wird kein Drahtbonden benötigt und die Grundfläche der Bildsensoranordnung kann klein sein. Außerdem können sich die erste und die zweite Sensorschicht eine gemeinsame Ausleseschicht teilen.
  • In einer Ausführungsform umfasst die Bildsensoranordnung ferner einen Zweibandfilter, der zwischen der ersten Sensorschicht und einer Quelle der zu erfassenden elektromagnetischen Strahlung angeordnet ist. Der Zweibandfilter ist dazu ausgebildet, dass er elektromagnetische Strahlung abgesehen von mindestens einem Teil des ersten Wellenlängenbereichs und mindestens einem Teil des zweiten Wellenlängenbereichs blockiert.
  • In vertikaler Richtung ist der Zweibandfilter auf oder über der ersten Sensorschicht angeordnet, so dass die erste Sensorschicht zwischen dem Zweibandfilter und der zweiten Sensorschicht angeordnet ist. Der Zweibandfilter kann beispielsweise aus einem organischen Material bestehen. Der Zweibandfilter kann auch ein dielektrischer Interferenzfilter sein. Der Zweibandfilter kann direkt an der ersten Sensorschicht angebracht sein oder in einem vordefinierten Abstand zur ersten Sensorschicht angeordnet sein.
  • Der Zweibandfilter dient zur Einstellung der Empfindlichkeit für einen bestimmten Teil des Spektrums der einfallenden elektromagnetischen Strahlung. Der Zweibandfilter ist für mindestens einen Teil des ersten Wellenlängenbereichs und für mindestens einen Teil des zweiten Wellenlängenbereichs durchlässig. Hier und im Folgenden bezieht sich „durchlässig“ oder „lichtdurchlässig“ auf eine Transparenz von mindestens 80 % oder mindestens 90 %. Das bedeutet, dass der Zweibandfilter elektromagnetische Strahlung des ersten und des zweiten Wellenlängenbereichs in Richtung der ersten Sensorschicht und der zweiten Sensorschicht durchlässt. Der Zweibandfilter blockiert elektromagnetische Strahlung anderer Wellenlängenbereiche. Der erste Wellenlängenbereich und der zweite Wellenlängenbereich können durch einen weiteren Wellenlängenbereich voneinander getrennt sein. Beispielsweise ist der Zweibandfilter für sichtbares Licht, insbesondere für den roten, grünen und blauen Wellenlängenbereich, durchlässig. Darüber hinaus kann das Zweibandfilter zumindest für einen Teil des kurzwelligen Infrarotbereichs durchlässig sein. Zum Beispiel ist der Zweibandfilter für einen Bereich um 1,4 um, 1,5 µm und/oder 1,6 um durchlässig. Das Fenster des Zweibandfilters für SWIR-Licht kann klein sein. Beispielsweise beträgt die Bandbreite des Zweibandfilters im SWIR-Bereich ±5 nm, ±10 nm oder ±50 nm. Im Gegensatz dazu kann der Zweibandfilter für Wellenlängen im NIR-Bereich, d. h. von 780 nm bis 1,4 um, undurchsichtig sein.
  • Wenn die erste Sensorschicht auf Silizium basiert, sind die Fotodioden empfindlich für NIR-Licht. Der Beitrag des NIR-Lichts, der die Farbrekonstruktion des digitalen Bildes beeinträchtigen würde, wird durch den Zweibandfilter erheblich reduziert. Ein spezieller NIR-Filter ist nicht erforderlich. Außerdem können alle anderen unerwünschten Wellenlängen aus dem Spektrum herausgefiltert werden. Auf der anderen Seite ist die QE von RGB-Pixeln (Pixel für sichtbares Licht), die mit Silizium realisiert wurden, für SWIR-Licht 0 %. Daher beeinträchtigt der Zweibandfilter mit einer Öffnung für das sichtbare Spektrum und einer kleinen Öffnung für das SWIR-Spektrum die Leistung der RGB-Pixel nicht negativ.
  • In einer Ausführungsform kann die Bildsensoranordnung anstelle eines Zweibandfilters einen Sperrbandfilter umfassen, der zwischen der ersten Sensorschicht und einer Quelle der zu erfassenden elektromagnetischen Strahlung angeordnet ist. Der Sperrbandfilter kann dazu ausgebildet sein, dass er elektromagnetische Strahlung zwischen dem ersten Wellenlängenbereich und dem zweiten Wellenlängenbereich blockiert. Dies kann bedeuten, dass der Sperrbandfilter dazu ausgebildet ist, dass er den Teil der elektromagnetischen Strahlung vom Ende des ersten Wellenlängenbereichs bis zum zweiten Wellenlängenbereich entfernt. Der Sperrbandfilter kann für diese Zwischenwellenlängen undurchsichtig sein. So können unerwünschte Wellenlängen aus dem zu erfassenden optischen Spektrum entfernt werden. Der erste Wellenlängenbereich kann der sichtbare Bereich sein und der zweite Wellenlängenbereich kann der SWIR-Bereich sein. In diesem Fall wird das NIR-Licht aus dem Spektrum herausgefiltert.
  • In einer Ausführungsform umfasst die Bildsensoranordnung ferner eine Linse oder eine Anordnung von Linsen, die zwischen der ersten Sensorschicht und einer Quelle der zu erfassenden elektromagnetischen Strahlung angeordnet ist. Die Linse oder die Linsenanordnung ist dazu ausgelegt, dass sie einfallendes Licht auf die erste Sensorschicht und die zweite Sensorschicht lenkt. Die Linse oder die Anordnung von Linsen kann verwendet werden, um das Licht durch Öffnungen von Metallschichten (z. B. Metallschichten, die von der Pixelverdrahtung oder der Hybridbondschnittstelle gebildet werden) zwischen der ersten Sensorschicht und der zweiten Sensorschicht zu lenken. Die Linse kann eine Mikrolinse sein, und die Linsenanordnung kann ein Array von Mikrolinsen sein.
  • In einer Ausführungsform umfasst die erste Sensorschicht aus einem Halbleitermaterial, insbesondere aus Silizium. In einer Ausführungsform umfasst die Ausleseschicht aus einem Halbleitermaterial, insbesondere aus Silizium.
  • Halbleitermaterialien lassen sich aufgrund der zahlreichen verfügbaren Methoden ideal verarbeiten. Wie bereits erwähnt, sind Fotodioden auf Siliziumbasis eine gängige Wahl, da diese Dioden über einen breiten Wellenlängenbereich zwischen 190 nm und 1100 nm empfindlich sind und somit den relevanten Teil des elektromagnetischen Spektrums im sichtbaren Bereich abdecken. Aufgrund der großen Bandlücke von Silizium weisen Fotodioden auf Siliziumbasis außerdem ein besseres Rauschverhalten auf als andere Fotodioden, wie z. B. Fotodioden auf Germaniumbasis. Die elektrischen und optischen Eigenschaften von Silizium eignen sich nicht nur für die Realisierung von Fotodioden, sondern auch für Schaltungskomponenten.
  • In einer Ausführungsform umfasst die zweite Sensorschicht eines der Materialien Germanium, Indiumgalliumarsenid, eine Quantenpunktschicht oder ein anderes Material mit einer geeigneten Bandlücke für die spektrale Reaktion auf elektromagnetische Strahlung im zweiten Wellenlängenbereich.
  • Fotodioden aus Silizium sind für SWIR-Licht nicht empfindlich. Ein Sensor zur Erfassung von SWIR-Licht muss daher andere Materialien enthalten. Fotodioden auf Germaniumbasis decken einen Wellenlängenbereich von 400 nm bis 1700 nm ab, während Fotodioden auf Indiumgalliumarsenid-Basis einen Wellenlängenbereich von 800 nm bis 2600 nm abdecken. Diese Fotodioden decken also zumindest Teile des SWIR-Wellenlängenbereichs ab. Fotodioden auf Basis einer Quantenpunktschicht können so gestaltet werden, dass der gewünschte Wellenlängenbereich detektiert werden kann. Im Allgemeinen kann jedes Material verwendet werden, das eine geeignete Bandlücke aufweist und mit den anderen verwendeten Materialien kompatibel ist. Da sich der Hauptteil der Schaltung in der Ausleseschicht befindet, kann die zweite Sensorschicht nur Fotodioden enthalten und muss dementsprechend nicht auf ein gutes elektrisches Verhalten ausgelegt sein.
  • In einer Ausführungsform sind die Pixel der ersten Gruppe und die Pixel der zweiten Gruppe dazu ausgelegt, dass sie von der Ausleseschaltung in einem Rolling-Shutter-Modus ausgelesen werden.
  • Ein Bild wird durch die Umwandlung von Licht in ein elektronisches Signal im lichtempfindlichen Bereich aufgenommen. Sowohl die Lichtintensität als auch die Belichtungszeit oder Integrationszeit haben Einfluss auf die Menge der erzeugten Signale. Bei CMOS-Bildsensoren gibt es zwei Arten von elektronischen Verschlüssen: Rolling Shutter und Global Shutter. Beim Rolling-Shutter-Modus werden die Pixelreihen durch ein Rücksetzsignal gesteuert nacheinander belichtet, wobei z. B. mit der obersten Reihe begonnen und zur untersten Reihe fortgefahren wird. Während der Beleuchtung werden die Pixel nacheinander belichtet und Zeile für Zeile ausgelesen, so dass der Auslesevorgang in einem sich wiederholenden, rollenden Muster erfolgt.
  • Das bedeutet, dass sowohl die Pixel der ersten als auch der zweiten Gruppe während des gesamten Auslesevorgangs beleuchtet werden. Der Rolling-Shutter-Modus ermöglicht eine hohe Auflösung des Bildsensors. Daher wird auch die Genauigkeit der Bildsensoranordnung erhöht. Außerdem benötigt eine für den Rolling-Shutter-Modus konfigurierte Ausleseschaltung im Vergleich zu einer für den Global-Shutter-Modus konfigurierten Ausleseschaltung weniger Platz.
  • In einer Ausführungsform sind die Pixel der ersten Gruppe dazu ausgebildet, dass sie von der Ausleseschaltung in einem Rolling-Shutter-Modus ausgelesen werden. Die Pixel der zweiten Gruppe sind dazu ausgebildet, dass sie von der Ausleseschaltung in einem Global-Shutter-Modus über eine Transfereinheit ausgelesen werden.
  • Die Transfereinheit kann als Teil der Ausleseschaltung verstanden werden. Die Transfereinheit kann neben der Ausleseschaltung innerhalb der Ausleseschicht angeordnet sein. Die Transfereinheit und die Ausleseschaltung können in dasselbe Substrat integriert werden. Die Transfereinheit kann beispielsweise in vertikaler Richtung unter der Pixelanordnung der zweiten Gruppe angeordnet sein. Die Ausleseschaltung kann am Rande der Ausleseschicht angeordnet sein. Die Ausleseschaltung umfasst zum Beispiel einen Analog-Digital-Wandler, eine Ausgabeschnittstelle und so weiter. Die Transfereinheit kann Speicherkondensatoren zur Speicherung von lichtinduzierten Ladungsträgern enthalten. Sie kann ferner Schalter und/oder Transistoren zur Steuerung elektrischer Signale zur und von der Transfereinheit umfassen.
  • Im Global-Shutter-Modus werden alle Pixel einer Pixelmatrix im gleichen Zeitraum belichtet. Nach der Belichtung mit elektromagnetischer Strahlung werden die Pixel nacheinander ausgelesen. Es ist eine wesentlich kürzere Beleuchtungszeit erforderlich als beim Rolling-Shutter-Modus. Eine kürzere Beleuchtungszeit kann zu einer geringeren Leistungsaufnahme führen. Wenn die Bildsensoranordnung ein elektronisches Gerät enthält, das vom Benutzer bedient wird, und wenn das Infrarotlicht von einer speziellen Lichtquelle stammt, sollte die Beleuchtungszeit mit Infrarotstrahlung, insbesondere SWIR-Strahlung, so kurz gehalten werden, dass die Augen des Benutzers nicht geschädigt werden.
  • In einer Ausführungsform umfasst die erste Sensorschicht außerdem eine Steuerschaltung, die dazu ausgebildet ist, dass sie elektrische Signale zu/von jedem Pixel der ersten Gruppe steuert.
  • Das bedeutet, dass die erste Sensorschicht neben den Fotodioden auch Schaltungsteile enthält. Insbesondere kann jedes Pixel innerhalb der ersten Sensorschicht Transistoren zur Steuerung elektrischer Signale zu und von dem jeweiligen Pixel umfassen.
  • In einigen Ausführungsformen umfasst jedes Pixel einen Auswahltransistor, der dazu ausgebildet ist, dass er ein Auswahlsignal empfängt, so dass die Pixel einer jeweiligen Zeile beim Auslesen adressiert werden können.
  • Gemäß einigen Ausführungsformen umfasst jedes Pixel mindestens einen Transfertransistor, der dazu ausgebildet ist, dass er ein Transfersignal empfängt, so dass von der Fotodiode erzeugte Ladungsträger an einen potentialfreien Diffusionsknoten des jeweiligen Pixels übertragen werden.
  • Gemäß einigen Ausführungsformen umfasst jedes Pixel einen Rücksetztransistor, der dazu ausgebildet ist, dass er ein Rücksetzsignal empfängt, so dass der potentialfreie Diffusionsknoten auf eine Pixel-Versorgungsspannung zurückgesetzt wird und alle überflüssigen Ladungsträger entfernt werden.
  • In einigen Ausführungsformen umfasst jedes Pixel einen Source-Folger zur Verstärkung der lichtinduzierten Ladungsträger am potentialfreien Diffusionsknoten.
  • Gemäß einigen Ausführungsformen kann ein Pixel einen weiteren Transfertransistor umfassen. Der weitere Transfertransistor kann dazu ausgebildet sein, dass er ein weiteres Transfersignal empfängt, so dass Ladungsträger, die von einem Pixel der zweiten Gruppe, das elektrisch mit dem entsprechenden Pixel der ersten Gruppe verbunden ist, erzeugt werden, an den potentialfreien Diffusionsknoten übertragen werden.
  • Mit Hilfe der Steuerschaltung kann jedes Pixel bzw. jedes Subpixel individuell gesteuert werden. Dies kann bedeuten, dass jedes Pixel/Subpixel so gesteuert werden kann, dass es von der Ausleseschaltung ausgelesen wird. Die Steuerschaltung kann so klein sein, dass sie in das Pixel integriert werden kann. So kann der Pixelabstand klein gehalten werden und der lichtempfindliche Bereich deckt den größten Teil jedes Pixels ab.
  • In einer Ausführungsform ist eine Verdrahtung der Pixel der ersten Gruppe an einer Hauptfläche der ersten Sensorschicht angeordnet, die der zweiten Sensorschicht zugewandt und von einer Strahlungseintrittsseite der ersten Sensorschicht abgewandt ist.
  • Dies kann bedeuten, dass die Rückseite der ersten Sensorschicht der einfallenden elektromagnetischen Strahlung zugewandt ist. Somit kann die Bildsensoranordnung in einer BSI-Konfiguration vorliegen. Wie oben erwähnt, kann auf der Hauptfläche der ersten Sensorschicht eine Oxidschicht angeordnet sein, in die die Verdrahtung eingebettet ist. Aufgrund der BSI-Konfiguration ist die Verdrahtung unterhalb der lichtempfindlichen Pixel angeordnet, so dass einfallendes Licht nicht durch die Verdrahtung blockiert oder gestreut wird und die Pixel mit den Fotodioden ungehindert erreichen kann. Dadurch hat die Bildsensoranordnung eine hohe QE.
  • In einer Ausführungsform ist eine Verdrahtung der Pixel der zweiten Gruppe an einer Hauptfläche der zweiten Sensorschicht, die der ersten Sensorschicht zugewandt ist, angeordnet.
  • Dies kann bedeuten, dass die erste Sensorschicht und die zweite Sensorschicht (durch hybrides Bonden) von Angesicht zu Angesicht, d. h. Hauptfläche zu Hauptfläche, aneinander befestigt werden können. Wie bereits erwähnt, können die erste Sensorschicht und die zweite Sensorschicht aus einem Substrat bestehen, auf dem die Fotodioden angeordnet sind. Die Verdrahtungen sind in eine Oxidschicht eingebettet, die auf dem jeweiligen Substrat angeordnet ist. Die erste Sensorschicht und die zweite Sensorschicht können so angeordnet werden, dass sich die jeweiligen Oxidschichten für einen direkten Bondprozess gegenüberliegen. Die Verdrahtungen innerhalb der Oxidschichten können genutzt werden, um die Pixel der ersten Gruppe mit den Pixeln der zweiten Gruppe elektrisch zu verbinden. Diese Konfiguration ist vorteilhaft, wenn die Pixel beider Gruppen in einem Rolling-Shutter-Modus betrieben werden sollen, so dass die Pixel denselben Auslesepfad nutzen können. In diesem Fall ist die Ausleseschaltung weniger platzraubend.
  • In einer Ausführungsform ist eine Verdrahtung von Pixeln der zweiten Gruppe an einer Hauptfläche der zweiten Sensorschicht angeordnet, die der Ausleseschicht zugewandt ist.
  • Dies kann bedeuten, dass die zweite Sensorschicht und die Ausleseschicht (durch hybrides Bonden) von Angesicht zu Angesicht, d. h. Hauptfläche zu Hauptfläche, aneinander befestigt sein können. Wie bereits erwähnt, können die zweite Sensorschicht und die Ausleseschicht aus einem Substrat bestehen, auf dem die Fotodioden bzw. die Ausleseschaltung angeordnet sind. Die Verdrahtungen sind in eine Oxidschicht eingebettet, die auf dem jeweiligen Substrat angeordnet ist. Die Ausleseschicht und die zweite Sensorschicht können so angeordnet werden, dass sich die jeweiligen Oxidschichten für ein direktes Bonden gegenüberliegen. Die Verdrahtungen innerhalb der Oxidschichten können verwendet werden, um die Pixel der zweiten Gruppe mit Teilen der Ausleseschicht elektrisch zu verbinden.
  • Diese Konfiguration ist vorteilhaft, wenn die Pixel der zweiten Gruppe in einem Global-Shutter-Modus betrieben werden sollen, so dass die Pixel der zweiten Gruppe einen eigenen Auslesepfad benötigen. In diesem Fall kann die Beleuchtungszeit der Pixel der zweiten Gruppe kurz gehalten werden. Außerdem ist keine Hybrid-Bond Schnittstelle zwischen der ersten und der zweiten Sensorschicht erforderlich. Dies wiederum führt zu weniger Blockierungs- und/oder Streueffekten für eintreffendes Licht aufgrund von Verdrahtungen und Metallschichten an der Schnittstelle.
  • Außerdem wird eine Bildsensorvorrichtung bereitgestellt, die die Bildsensoranordnung umfasst. Dies bedeutet, dass alle Merkmale, die für die Bildsensoranordnung offenbart wurden, auch für die Bildsensorvorrichtung offenbart und auf diese anwendbar sind und umgekehrt.
  • Gemäß mindestens einer Ausführungsform der Bildsensorvorrichtung umfasst die Bildsensorvorrichtung ferner eine Lichtquelle, die mit den Pixeln der zweiten Gruppe synchronisiert ist. Dies kann bedeuten, dass die Lichtquelle dazu ausgebildet ist, dass sie elektromagnetische Strahlung aussendet, wenn die Pixel der zweiten Gruppe betrieben werden und elektromagnetische Strahlung erfassen. Die Lichtquelle ist zum Beispiel eine SWIR-Lichtquelle, die Licht im kurzwelligen Infrarotbereich aussendet. Die SWIR-Lichtquelle strahlt beispielsweise Licht in einem schmalen Band um 1400 nm, 1500 nm oder 1600 nm aus. Die Bandbreite des emittierten Lichts beträgt z. B. ±5 nm, ±10 nm oder ±50 nm. Die von der Lichtquelle emittierten Wellenlängen können an den Transmissionsgrad des Zweibandfilters angepasst werden. Die Lichtquelle kann ein Objekt beleuchten, wobei zumindest ein Teil der emittierten Strahlen reflektiert wird. Die reflektierten Strahlen können von der zweiten Sensorschicht erfasst werden.
  • In einer Ausführungsform kann der Bildsensor ferner eine Steuereinheit umfassen, die dazu ausgebildet ist, dass sie die Lichtquelle und die Pixel der zweiten Gruppe gleichzeitig steuert. Auf diese Weise wird der Betrieb der Lichtquelle und der Pixel der zweiten Gruppe synchronisiert. Durch die Synchronisierung des Betriebs der Lichtquelle mit den Pixeln der zweiten Gruppe ist es möglich, die Dauer der Beleuchtung zu minimieren. Dadurch wird der Stromverbrauch der Lichtquelle reduziert.
  • Ein solcher Bildsensor kann praktischerweise in elektronischen Geräten wie Smartphones, Tablet-Computern, Laptops oder Kameramodulen eingesetzt werden. Das Kameramodul ist beispielsweise dazu ausgelegt, dass es im sichtbaren Bereich für Foto- und/oder Videoaufnahmen und im Infrarotbereich für 3D-Bilder und/oder Identifikationszwecke funktioniert. Darüber hinaus können Bildsensoren mit Infrarotempfindlichkeit in dunklen Umgebungen eingesetzt werden, in denen eine Videoübertragung erforderlich ist. Solche Anwendungen reichen von der Gesichtsentsperrung bei Mobiltelefonen bis hin zu Fahrerüberwachungssystemen. In beiden Fällen können Beleuchtungen im SWIR-Spektrum eingesetzt werden, so dass der Handybenutzer/Fahrer nicht von dem Licht geblendet wird, das ihn beleuchtet.
  • Weiterhin wird ein Verfahren zum Betrieb einer Bildsensoranordnung bereitgestellt. Die Bildsensoranordnung kann vorzugsweise für das hier beschriebene Verfahren zum Betrieb einer Bildsensoranordnung verwendet werden. Dies bedeutet, dass alle Merkmale, die für die Bildsensoranordnung und die Bildsensorvorrichtung offenbart sind, auch für das Verfahren zum Betrieb einer Bildsensoranordnung offenbart sind und umgekehrt.
  • Gemäß mindestens einer Ausführungsform des Verfahrens zum Betreiben einer Bildsensoranordnung umfasst das Verfahren das Belichten einer ersten Gruppe von Pixeln einer ersten Sensorschicht mit elektromagnetischer Strahlung, wobei jedes Pixel der ersten Gruppe eine Fotodiode umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in einem ersten Wellenlängenbereich erfasst.
  • Das Verfahren umfasst ferner das Übertragen mindestens eines Teils der elektromagnetischen Strahlung über die erste Sensorschicht zu einer zweiten Sensorschicht. Der Teil der elektromagnetischen Strahlung entspricht einem zweiten Wellenlängenbereich, der außerhalb eines von der ersten Sensorschicht erfassbaren Wellenlängenbereichs liegt. Beispielsweise umfasst der übertragene Anteil der elektromagnetischen Strahlung zumindest Licht im SWIR-Bereich. Die Übertragung von SWIR-Licht kann dadurch erreicht werden, dass SWIR-Licht nicht oder fast nicht mit dem Sensormaterial der ersten Sensorschicht wechselwirkt.
  • Das Verfahren umfasst ferner das Belichten einer zweiten Gruppe von Pixeln der zweiten Sensorschicht mit dem Teil der elektromagnetischen Strahlung, wobei jedes Pixel der zweiten Gruppe eine Fotodiode umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung im zweiten Wellenlängenbereich erfasst.
  • Die elektromagnetische Strahlung im zweiten Wellenlängenbereich kann von einer Lichtquelle geliefert werden. Die Lichtquelle kann mit dem Betrieb der Pixel der zweiten Gruppe synchronisiert werden. Das bedeutet beispielsweise, dass die Lichtquelle nur in der Zeit betrieben wird und Licht abgibt, in der die Fotodioden arbeiten und elektromagnetische Strahlung erfassen. Das von der Lichtquelle emittierte Licht wird von einem Objekt reflektiert, von der ersten Sensorschicht durchgelassen und von der zweiten Sensorschicht empfangen. Die Lichtquelle kann eine SWIR-Lichtquelle sein.
  • Das Verfahren umfasst ferner die Umwandlung elektromagnetischer Strahlung in elektrische Signale durch die Fotodioden. Jede der Fotodioden wandelt die elektromagnetische Strahlung während des Betriebs in elektrische Signale um.
  • Das Verfahren umfasst ferner die Übertragung der elektrischen Signale der Pixel der ersten und zweiten Gruppe an eine Ausleseschicht mit einer Ausleseschaltung. Die elektrischen Signale der Pixel können nacheinander an die Ausleseschaltung übertragen werden. Die elektrischen Signale der ersten Gruppe von Pixeln können über denselben Auslesepfad an die Ausleseschaltung übertragen werden wie die elektrischen Signale der zweiten Gruppe von Pixeln. Alternativ können die elektrischen Signale der ersten Gruppe von Pixeln über einen separaten Auslesepfad, der sich von dem für die elektrischen Signale der zweiten Gruppe von Pixeln verwendeten Auslesepfad unterscheidet, an die Ausleseschaltung übertragen werden. Die Auslesepfade können mittels Substratdurchkontaktierungen und/oder Hybridbondschnittstellen bereitgestellt werden.
  • Weitere Ausführungsformen des Verfahrens ergeben sich für den erfahrenen Leser aus den oben beschriebenen Ausführungsformen der Bildsensoranordnung.
  • Figurenliste
  • Die folgende Beschreibung der Figuren kann Aspekte der verbesserten Bildsensoranordnung und des Verfahrens zu deren Betrieb weiter veranschaulichen und erläutern. Komponenten und Teile der Bildsensoranordnung, die funktionell identisch sind oder eine identische Wirkung haben, sind durch identische Referenzsymbole gekennzeichnet. Identische oder praktisch identische Komponenten und Teile werden möglicherweise nur in Bezug auf die Figuren beschrieben, in denen sie zuerst vorkommen. Ihre Beschreibung wird in den nachfolgenden Abbildungen nicht unbedingt wiederholt.
    • zeigt eine beispielhafte Ausführungsform eines Bildsensoranordnung.
    • zeigt eine weitere beispielhafte Ausführungsform einer Bildsensoranordnung.
    • zeigt eine schematische Darstellung gemäß einer Ausführungsform einer Bildsensoranordnung.
    • zeigt eine weitere schematische Darstellung gemäß einer Ausführungsform einer Bildsensoranordnung.
    • zeigt eine schematische Darstellung einer Bildsensorvorrichtung aufweisend eine Bildsensoranordnung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • zeigt eine beispielhafte Ausführungsform einer Bildsensoranordnung 1. Die Bildsensoranordnung 1 umfasst eine erste Sensorschicht 2 mit einer ersten Gruppe von Pixeln 3, wobei jedes Pixel 3 der ersten Gruppe eine Fotodiode (nicht dargestellt) umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung (mit Pfeilen oberhalb der Bildsensorvorrichtung gekennzeichnet) in einem ersten Wellenlängenbereich erfasst. Die Bildsensoranordnung 1 umfasst ferner eine zweite Sensorschicht 4 mit einer zweiten Gruppe von Pixeln 5, wobei jedes Pixel 5 der zweiten Gruppe eine Fotodiode (nicht dargestellt) umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in einem zweiten Wellenlängenbereich erfasst. Die Bildsensoranordnung 1 umfasst ferner eine Ausleseschicht 6 mit einer Ausleseschaltung 7, die dazu ausgelegt ist, dass sie elektrische Signale aus den Pixeln 3, 5 der ersten und der zweiten Gruppe ausliest. Die zweite Sensorschicht 4 ist zwischen der ersten Sensorschicht 2 und der Ausleseschicht 6 angeordnet. Der zweite Wellenlängenbereich liegt außerhalb des von der ersten Sensorschicht 2 erfassbaren Wellenlängenbereichs.
  • Die erste Sensorschicht 2, die zweite Sensorschicht 4 und die Ausleseschicht 6 haben jeweils eine Haupterstreckungsebene. Die Haupterstreckungsebenen können, wie in dargestellt, parallel zueinander verlaufen. Die Haupterstreckungsebenen können sich in den seitlichen Richtungen x, y erstrecken. In einer vertikalen Richtung z, die sich auf eine senkrecht zu den Haupterstreckungsebenen verlaufende Richtung bezieht, sind die erste Sensorschicht 2, die zweite Sensorschicht 4 und die Ausleseschicht 6 übereinander angeordnet und bilden einen Stapel. Die zweite Sensorschicht 4 ist auf der Ausleseschicht 6 angeordnet. Die erste Sensorschicht 2 ist auf der zweiten Sensorschicht 4 angeordnet. Die erste Sensorschicht 2 ist zwischen der zweiten Sensorschicht 4 und einfallender elektromagnetischer Strahlung angeordnet.
  • Die erste Sensorschicht 2 umfasst eine Hauptfläche 2' und eine Rückfläche 2''. Eine Verdrahtung (nicht dargestellt) der ersten Gruppe von Pixeln kann an der Hauptfläche 2' der ersten Sensorschicht 2 angeordnet sein. In der in gezeigten Ausführungsform ist die erste Sensorschicht 2 so angeordnet, dass ihre Rückseite 2'' der Quelle der elektromagnetischen Strahlung zugewandt ist. Die Hauptfläche 2' der ersten Sensorschicht 2 ist der zweiten Sensorschicht 4 zugewandt. In anderen Ausführungsformen (nicht dargestellt) kann die erste Sensorschicht 2 jedoch auch andersherum angeordnet sein.
  • Die zweite Sensorschicht 4 umfasst eine Hauptfläche 4' und eine Rückfläche 4''. Eine Verdrahtung der zweiten Gruppe von Pixeln 5 kann an der Hauptfläche 4' der zweiten Sensorschicht 4 angeordnet sein. In der in dargestellten Ausführungsform ist die zweite Sensorschicht 4 so angeordnet, dass ihre Rückseite 4'' der Ausleseschicht 6 zugewandt ist. Die Hauptfläche 4' der zweiten Sensorschicht 4 ist der ersten Sensorschicht 2 zugewandt. In anderen Ausführungsformen (z. B. in ) kann die zweite Sensorschicht 4 jedoch auch andersherum angeordnet sein.
  • Die Ausleseschicht 6 umfasst eine Hauptfläche 6' und eine Rückfläche 6''. An der Hauptfläche 6' der Ausleseschicht 6 kann eine Verdrahtung der Ausleseschaltung 7 angeordnet sein. In der in dargestellten Ausführungsform ist die Ausleseschicht 6 so angeordnet, dass ihre Hauptfläche 6' der zweiten Sensorschicht 4 zugewandt ist.
  • zeigt außerdem eine Hybridbondschnittstelle 8. Mittels der Hybridbondschnittstelle 8 wird die erste Sensorschicht 2 mit der zweiten Sensorschicht 4 verbunden.
  • Die Hybridverbindung kann beispielsweise mittels eines Klebstoffs hergestellt werden. In einem anderen Beispiel kann das Bonden im Zuge eines Direktbond- oder Fusionsbondprozesses mit einer Oxidschichtschnittstelle erfolgen.
  • Die Hybridbondschnittstelle 8 umfasst elektrische Verbindungen 9, so dass die Pixel 3 der ersten Gruppe und die Pixel 5 der zweiten Gruppe elektrisch miteinander verbunden werden können. Bei den elektrischen Verbindungen 9 handelt es sich zum Beispiel um Metallhöcker (z. B. Löthöcker), die in einen Klebstoff eingebettet sind. Die elektrischen Verbindungen 9 können auch Metallpads sein, die parallel zu einer entsprechenden dielektrischen Verbindungsschicht, z. B. einer Oxidschicht, verarbeitet sind. In diesem Fall kann die elektrische Kontaktierung während des Temperns durch Metalldiffusionsbonden erreicht werden.
  • Die Implementierung einer Bondschnittstelle ist nicht auf die vorgeschlagenen Beispiele beschränkt. Im Allgemeinen kann jede Verbindungstechnik verwendet werden, bei der eine dauerhafte Verbindung zwischen zwei Schichten hergestellt wird, die eine dielektrische Verbindung mit einem eingebetteten Metall kombiniert, um elektrische Verbindungen 9 zu bilden.
  • zeigt ferner ein optisches Element 10. Das optische Element 10 kann einen Zweibandfilter 11 umfassen. Der Zweibandfilter 11 ist zwischen der ersten Sensorschicht und der einfallenden, zu erfassenden elektromagnetischen Strahlung angeordnet. Das bedeutet, dass der Zweibandfilter 11 in vertikaler Richtung z auf oder über der ersten Sensorschicht 2 angeordnet ist, so dass die erste Sensorschicht 2 zwischen dem Zweibandfilter 11 und der zweiten Sensorschicht 4 angeordnet ist. Der Zweibandfilter 11 kann direkt an der ersten Sensorschicht 2 angebracht sein oder in einem vorgegebenen Abstand zur ersten Sensorschicht 2 angeordnet sein, wie in 1 gezeigt. Der Zweibandfilter 11 ist dazu ausgebildet, dass er elektromagnetische Strahlung mit Ausnahme von mindestens einem Teil des ersten Wellenlängenbereichs (z. B. sichtbares Licht) und mindestens einem Teil des zweiten Wellenlängenbereichs (z. B. SWIR-Licht) blockiert.
  • Stattdessen oder zusätzlich umfasst das optische Element 10 eine Linse oder eine Anordnung von Linsen. Die Linse oder die Anordnung von Linsen sind dazu ausgelegt, dass sie einfallendes Licht auf die erste Sensorschicht 2 und die zweite Sensorschicht 4 lenken. Die Linse oder die Anordnung von Linsen kann verwendet werden, um das Licht durch Öffnungen von Metallschichten (z. B. Metallschichten, die von den Pixelverdrahtungen oder der Hybridbondschnittstelle 8 gebildet werden) zwischen der ersten Sensorschicht 2 und der zweiten Sensorschicht 4 zu lenken. Die Linse kann eine Mikrolinse sein, und die Linsenanordnung kann ein Array von Mikrolinsen sein.
  • In sind ferner zwei Substratdurchkontaktierungen 12 (TSV) dargestellt. Die TSVs 12 durchdringen die zweite Sensorschicht 4 und verbinden die Pixel 3 der ersten Gruppe in der ersten Sensorschicht 2 elektrisch mit der Ausleseschaltung 7 in der Ausleseschicht 6. Jedes TSV 12 durchdringt die zweite Sensorschicht vollständig. Das bedeutet, dass das TSV 12 von der Hauptoberfläche 4' bis zur Rückfläche 4'' der zweiten Sensorschicht 4 reicht.
  • Darüber hinaus können die TSVs 12 auch die erste Sensorschicht 2 vollständig durchdringen, wie durch gestrichelte Linien angedeutet. In diesem Fall reichen die TSVs 12 von der Rückfläche 2'' der ersten Sensorschicht bis zur Rückfläche 4'' der zweiten Sensorschicht 4.
  • Die TSVs 12 bieten einen Auslesepfad zum Auslesen der elektrischen Signale der Pixel 3 der ersten Gruppe. In einigen Ausführungsformen werden auch die elektrischen Signale der Pixel 5 der zweiten Gruppe über das TSV 12 ausgelesen. Jedes TSV 12 kann elektrisch mit nur einem Pixel 3 verbunden sein. Es ist auch möglich, dass jedes TSV 12 mit mehr als einem Pixel 3 elektrisch verbunden ist. In sind nur beispielhaft zwei TSVs 12 dargestellt. Die Bildsensoranordnung 1 kann jedoch eine Vielzahl von TSVs umfassen, wobei jedes TSV 12 mit einem oder mehreren Pixeln 3 elektrisch verbunden ist.
  • In ist eine weitere Ausführungsform einer Bildsensoranordnung 1 dargestellt. Die Ausführungsform nach 2 unterscheidet sich von der Ausführungsform nach 1 dadurch, dass sich zwischen der ersten Sensorschicht 2 und der zweiten Sensorschicht 4 keine Hybridbondschnittstelle 8 befindet. Stattdessen befindet sich eine Hybridverbindungsschnittstelle 8 zwischen der zweiten Sensorschicht 4 und der Ausleseschicht 6. Insbesondere ist die Hauptfläche 4' der zweiten Sensorschicht 4 mit der Hauptfläche 6' der Ausleseschicht 6 durch hybrides Bonden verbunden.
  • Die Hybridbondschnittstelle 8 umfasst elektrische Verbindungen 9, so dass die Pixel 5 der zweiten Gruppe mit Teilen der Ausleseschicht 6 elektrisch verbunden sein können.
  • Wie bereits beschrieben, können die elektrischen Verbindungen 9 Metallhöcker (z.B. Löthöcker) sein, die in einen Klebstoff eingebettet sind. Bei den elektrischen Verbindungen 9 kann es sich auch um Metallpads handeln, die parallel zu einer entsprechenden dielektrischen Verbindungsschicht, z. B. einer Oxidschicht, verarbeitet sind. In diesem Fall kann die elektrische Kontaktierung während des Temperns durch Metalldiffusionsbonden erreicht werden. Mittels der elektrischen Verbindungen 9 wird neben dem Ausleseweg für die Pixel 3 der ersten Gruppe über die TSVs 12 ein separater Auslesepfad für die Pixel 5 der zweiten Gruppe bereitgestellt.
  • In 3 ist ein Detail der Ausführungsform nach 1 schematisch dargestellt. Es sind nur die erste Sensorschicht 2 und die zweite Sensorschicht 4 dargestellt, einschließlich der Hybridbondschnittstelle 8. Die Ausleseschicht 6 ist zur Veranschaulichung weggelassen. In ist dargestellt, wie ein Pixel 5 der zweiten Gruppe (z. B. ein SWIR-Pixel) mit einem Pixel 3 der ersten Gruppe (z. B. ein Pixel für sichtbares Licht oder ein RGB-Pixel) elektrisch verbunden ist. Weitere Pixel 3, 5 können auf die gleiche oder ähnliche Weise elektrisch verbunden sein.
  • Im Folgenden werden die Pixel der zweiten Gruppe als SWIR-Pixel 3 bezeichnet, auch wenn diese Pixel einen anderen Wellenlängenbereich erfassen können. Dementsprechend werden die Pixel 3 der ersten Gruppe als Pixel für sichtbares Licht 5 bezeichnet. Es sei darauf hingewiesen, dass die Bildsensoranordnung 1 jedoch nicht auf die Erfassung von sichtbarem Licht und SWIR-Licht beschränkt ist.
  • In umfasst die zweite Sensorschicht 4 ein Pixel 5 der zweiten Gruppe, z. B. ein SWIR-Pixel 5. Das SWIR-Pixel 5 umfasst eine Fotodiode 13. Bei der Fotodiode 13 handelt es sich beispielsweise um eine gepinnte Fotodiode 13. Abgesehen von den Fotodioden 13, die die SWIR-Pixel 5 umfassen, kann die zweite Sensorschicht 4 frei von Schaltungsteilen wie Transistoren oder dergleichen sein.
  • Die Fotodiode 13 ist dazu ausgelegt, dass sie elektromagnetische Strahlung erfasst und in ein elektrisches Signal umwandelt. Auf ihrer Anodenseite ist die Fotodiode 13 elektrisch mit einem elektrischen Potenzial, z. B. einem Massepotenzial, verbunden. Auf ihrer Kathodenseite ist die Fotodiode 13 über die elektrische Verbindung 9 der Hybridbondschnittstelle 8 mit dem Pixel 3 der ersten Gruppe elektrisch verbunden.
  • Das Pixel 3 für sichtbares Licht in der ersten Sensorschicht 2 der Ausführungsform von besteht aus vier Subpixeln 18-21 mit entsprechenden Fotodioden 14-17. Es sind jedoch auch andere Pixelarchitekturen möglich. So kann das Pixel 3 für sichtbares Licht beispielsweise nur eine Fotodiode oder mehrere Fotodioden umfassen. Jede der Fotodioden kann dazu ausgelegt sein, dass sie Licht im gleichen Wellenlängenbereich oder in unterschiedlichen Wellenlängenbereichen erfasst. Daher ist die in gezeigte Konfiguration nur als beispielhafte Ausführungsform zu verstehen.
  • Das Pixel 3 für sichtbares Licht von kann ein erstes Subpixel 18 mit einer Fotodiode 14 umfassen, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung im roten Wellenlängenbereich erfasst und umwandelt. Das Pixel 3 für sichtbares Licht kann ferner ein zweites und ein drittes Subpixel 19, 20 umfassen, die jeweils eine Fotodiode 15, 16 aufweisen, die dazu ausgelegt sind, dass sie elektromagnetische Strahlung im grünen Wellenlängenbereich erfassen und umwandeln. Und das Pixel 3 für sichtbares Licht kann ferner ein viertes Subpixel 21 umfassen, das eine Fotodiode 17 enthält, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung im blauen Wellenlängenbereich erfasst und umwandelt. Auch hier sind die Pixel nicht auf RGB beschränkt, andere Wellenlängenbereiche sind ebenfalls möglich.
  • Jede der Fotodioden 14-17 ist an ihrer Anodenseite elektrisch mit einem elektrischen Potenzial, z. B. einem Massepotenzial, verbunden. Die Subpixel 18-21 können sich einen gemeinsamen potentialfreien Diffusionsknoten 22 teilen. Auf ihrer Kathodenseite sind die Fotodioden 14-17 über einen entsprechenden Transfertransistor 23, der von einem entsprechenden Transfersignal TX gesteuert wird, elektrisch mit dem potentialfreien Diffusionsknoten 22 verbunden.
  • In der Pixelarchitektur gemäß wird der Transfertransistor 23 von einer Steuerschaltung 24 umfasst. Die Steuerschaltung 24 umfasst ferner einen Rücksetztransistor 25, der dazu ausgelegt ist, dass er an seinem Gate ein Rücksetzsignal RST empfängt, so dass der potentialfreie Diffusionsknoten 22 auf eine Pixel-Versorgungsspannung VDD zurückgesetzt wird und alle überflüssigen Ladungsträger entfernt werden.
  • Die Steuerschaltung 24 umfasst außerdem einen Source-Folger 26 zur Verstärkung der lichtinduzierten Ladungsträger am potentialfreien Diffusionsknoten 22.
  • Die Steuerschaltung 24 umfasst ferner einen Auswahltransistor 27, der dazu ausgelegt ist, dass er an seinem Gate ein Auswahlsignal empfängt, so dass das Pixel 3 beim Auslesen adressiert werden kann. Der Auswahltransistor 27 ist auf der einen Seite mit dem Source-Folger 26 und auf der anderen Seite mit einem Auslesepfad 28 verbunden (einschließlich des TSV 12, wie in dargestellt).
  • In der Ausführungsform gemäß 3 umfasst die Steuerschaltung 24 ferner einen weiteren Transfertransistor 29. Der weitere Transfertransistor 29 kann dazu ausgelegt sein, dass er ein weiteres Transfersignal TX' empfängt, so dass Ladungsträger, die von dem SWIR-Pixel 5, das elektrisch mit dem jeweiligen Pixel 3 für sichtbares Licht verbunden ist, erzeugt werden, zu dem potentialfreien Diffusionsknoten 22 übertragen werden. Somit teilen sich das SWIR-Pixel 5 und das sichtbare Lichtpixel 3 einen gemeinsamen potentialfreien Diffusionsknoten 22 sowie einen gemeinsamen Auslesepfad 28.
  • In 4 ist ein Detail der Ausführungsform gemäß 2 schematisch dargestellt. In 4 sind mehrere SWIR-Pixel 5 einer Reihe eines Arrays von SWIR-Pixeln 5 dargestellt. Entsprechend sind mehrere sichtbare Pixel 3 einer Reihe eines Arrays von Pixeln 3 für sichtbares Licht dargestellt. Die vollständigen Reihen sind durch Dreipunkte angedeutet.
  • In der Ausführungsform gemäß sind die SWIR-Pixel 5 nicht über eine Hybridbondschnittstelle 8 mit den Pixeln 3 für sichtbares Licht elektrisch verbunden. Daher haben die SWIR-Pixel 5 keinen gemeinsamen Auslesepfad mit den Pixeln 3 für sichtbares Lichts. Stattdessen werden die Pixel 3 für sichtbares Licht von der Ausleseschaltung 7 über einen separaten Auslesepfad 28 ausgelesen, während die SWIR-Pixel 5 von der Ausleseschaltung 7 über eine Transfereinheit 30 ausgelesen werden. Zwischen der zweiten Sensorschicht 4 und der Ausleseschicht 6 besteht somit eine elektrische Verbindung 9 mittels einer Hybridbondschnittstelle 8.
  • Die Transfereinheit 30 kann neben der Ausleseschaltung 7 in der Ausleseschicht 6 angeordnet werden. Im Beispiel von ist die Transfereinheit 30 unter dem Array der SWIR-Pixel 5 angeordnet. Die Ausleseschaltung 7 ist an einem Rand der Ausleseschicht 6 angeordnet. Die Transfereinheit 30 kann dazu ausgelegt sein, dass die SWIR-Pixel 5 im Global-Shutter-Modus ausgelesen werden können. Die Transfereinheit 30 kann Speicherkondensatoren zur Speicherung von lichtinduzierten Ladungsträgern umfassen. Sie kann ferner Schalter und/oder Transistoren zur Steuerung elektrischer Signale zur und von der Transfereinheit 30 umfassen.
  • In ist eine beispielhafte Architektur der Übertragungseinheit für jedes SWIR-Pixel 5 dargestellt. Die Ausführungsform ist jedoch nicht auf die gezeigte Architektur der Transfereinheit beschränkt, und andere Architekturen sind ebenfalls möglich. Jedes SWIR-Pixel 5 ist jeweils einer Transfereinheit 30 zugeordnet. Die Transfereinheiten 30 sind über einen Auslesepfad 28' verbunden, der mit der Ausleseschaltung 7 verbunden ist.
  • Die Fotodiode 13 des SWIR-Pixels 5 ist über einen optionalen Transfertransistor 32, der durch ein Transfersignal TX' gesteuert wird, elektrisch mit einem potentialfreien Diffusionsknoten 31 in der Ausleseschicht 6 verbunden. Der Transfertransistor 32 kann auch weggelassen werden. Die Transfereinheit 30 umfasst ferner einen Rücksetztransistor 33, der dazu ausgelegt ist, dass er ein Rücksetzsignal RST' empfängt, so dass der potentialfreie Diffusionsknoten 31 auf eine Pixelversorgungsspannung VDD zurückgesetzt wird und alle überflüssigen Ladungsträger entfernt werden. Eine potentialfreie Diffusionskapazität 34 speichert die Ladungsträger an dem potentialfreien Diffusionsknoten 31. Die Transfereinheit 30 umfasst ferner einen ersten Source-Folger 35 zur Verstärkung der lichtinduzierten Ladungsträger am potentialfreien Diffusionsknoten 31.
  • Ein Vorladetransistor 36 dient als Stromquellenlast für den ersten Source-Folger 35. Außerdem wird er zum Vorladen der Abtastkondensatoren 37, 38 verwendet. Die Schalter 39, 40 realisieren zusammen mit dem ersten Abtastkondensator 37 und dem zweiten Abtastkondensator 38 eine Abtast- und Haltefunktion des SWIR-Pixels 5. Ein zweiter Source-Folger 41 puffert die Abtastsignale für den Auslesepfad 28'. Und ein Zeilenauswahltransistor 42 ist dazu ausgelegt, dass er an seinem Gate ein Auswahlsignal SEL' empfängt, so dass das Pixel 5 während des Auslesens adressiert werden kann.
  • Wie in gezeigt, kann die Architektur Pixel 3 für sichtbares Licht in dieser Ausführungsform die gleiche oder eine ähnliche sein wie in der Ausführungsform von . Die Pixel 3 für sichtbares Licht der dargestellten Reihe sind über den Auslesepfad 28 elektrisch verbunden. Der Auslesepfad 28 ist über das TSV 12 elektrisch mit der Ausleseschaltung 7 verbunden. In dieser Konfiguration können die Pixel 3 für sichtbares Licht im Rolling-Shutter-Modus betrieben werden, während die SWIR-Pixel 5 im Global-Shutter-Modus betrieben werden können.
  • 5 zeigt eine schematische Darstellung einer beispielhaften Ausführungsform einer Bildsensorvorrichtung 43, die die oben beschriebene Bildsensoranordnung 1 umfasst. Die erste Gruppe von Pixeln 3 und die zweite Gruppe von Pixeln 5 der Bildsensoranordnung 1 können in einem jeweiligen zweidimensionalen Array angeordnet sein, wie in 5 dargestellt. Die Bildsensorvorrichtung 43 umfasst ferner eine Lichtquelle 44, die mit den Pixeln 5 der zweiten Gruppe synchronisiert ist. Die Lichtquelle emittiert beispielsweise Licht im SWIR-Bereich. Die Bildsensorvorrichtung 43 umfasst ferner eine Steuereinheit 45, die zur Steuerung der Lichtquelle 44 und der zweiten Gruppe von Pixeln 5 ausgelegt ist.
  • Die Ausführungsformen der Bildsensoranordnung 1 und das Verfahren zum Betrieb der Bildsensoranordnung 1, die hierin offenbart werden, sind zu dem Zweck erörtert worden, den Leser mit neuen Aspekten der Idee vertraut zu machen. Obwohl bevorzugte Ausführungsformen gezeigt und beschrieben wurden, können viele Änderungen, Modifikationen, Äquivalente und Substitutionen der offengelegten Konzepte von einem Fachmann vorgenommen werden, ohne unnötig vom Umfang der Ansprüche abzuweichen.
  • Es wird deutlich, dass die Offenbarung nicht auf die offengelegten Ausführungsformen und auf das, was hier besonders gezeigt und beschrieben wurde, beschränkt ist. Vielmehr können Merkmale, die in einzelnen abhängigen Ansprüchen oder in der Beschreibung aufgeführt sind, vorteilhaft kombiniert werden. Darüber hinaus schließt der Umfang der Offenbarung jene Variationen und Modifikationen ein, die für den Fachmann offensichtlich sind und in den Anwendungsbereich der beigefügten Ansprüche fallen.
  • Der Begriff „umfassend“, soweit er in den Ansprüchen oder in der Beschreibung verwendet wurde, schließt andere Elemente oder Schritte eines entsprechenden Merkmals oder Verfahrens nicht aus. Falls die Begriffe „ein“ oder „eine“ in Verbindung mit Merkmalen verwendet wurden, schließen sie eine Vielzahl solcher Merkmale nicht aus. Darüber hinaus sind alle Bezugszeichen in den Ansprüchen nicht als Einschränkung des Anwendungsbereichs zu verstehen.
  • Diese Patentanmeldung beansprucht die Priorität der deutschen Patentanmeldung 102021107730.3 , deren Offenbarungsgehalt hiermit durch Bezugnahme aufgenommen wird.
  • Bezugszeichenliste
  • 1
    Bildsensoranordnung
    2
    erste Sensorschicht
    2'
    Hauptfläche der ersten Sensorschicht
    2''
    Rückfläche der ersten Sensorschicht
    3
    Pixel der ersten Gruppe
    4
    zweite Sensorschicht
    4'
    Hauptfläche der zweiten Sensorschicht
    4''
    Rückfläche der zweiten Sensorschicht
    5
    Pixel der zweiten Gruppe
    6
    Ausleseschicht
    6'
    Hauptfläche der Ausleseschicht
    6''
    Rückfläche der Ausleseschicht
    7
    Ausleseschaltung
    8
    Bondschnittstelle
    9
    elektrische Verbindung
    10
    optisches Element
    11
    Zweibandfilter
    12
    Substratdurchkontaktierung
    13-17
    Fotodiode
    18-21
    Subpixel
    22
    potentialfreier Diffusionsknoten
    23
    Transfertransistor
    24
    Steuerschaltung
    25
    Rücksetztransistor
    26
    Source-Folger
    27
    Auswahltransistor
    28, 28'
    Auslesepfad
    29
    weiterer Transfertransistor
    30
    Transfereinheit
    31
    potentialfreier Diffusionsknoten
    32
    Transfertransistor
    33
    Rücksetztransistor
    34
    potentialfreie Diffusionskapazität
    35
    erster Source-Folger
    36
    Vorladetransistor
    37
    erster Kondensator
    38
    zweiter Kondensator
    39
    erster Schalter
    40
    zweiter Schalter
    41
    zweiter Source-Folger
    42
    Auswahltransistor
    43
    Bildsensorvorrichtung
    44
    Lichtquelle
    45
    Steuereinheit
    RST, RST'
    Rücksetzsignal
    SEL, SEL'
    Auswahlsignal
    TX, TX'
    Transfersignal
    VDD
    Versorgungsspannung
    x, y
    laterale Richtungen
    z
    vertikale Richtung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 1020211077303 [0128]

Claims (15)

  1. Bildsensoranordnung (1), umfassend: - eine erste Sensorschicht (2), die eine erste Gruppe von Pixeln (3) umfasst, wobei jedes Pixel (3) der ersten Gruppe eine Fotodiode (14, 15, 16, 17) umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in einem ersten Wellenlängenbereich erfasst, - eine zweite Sensorschicht (4), die eine zweite Gruppe von Pixeln (5) umfasst, wobei jedes Pixel (5) der zweiten Gruppe eine Fotodiode (13) umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in einem zweiten Wellenlängenbereich erfasst, - eine Ausleseschicht (6) mit einer Ausleseschaltung (7), die dazu ausgelegt ist, dass sie elektrische Signale aus den Pixeln (3, 5) der ersten und der zweiten Gruppe ausliest, wobei die zweite Sensorschicht (4) zwischen der ersten Sensorschicht (2) und der Ausleseschicht (6) angeordnet ist, und wobei der zweite Wellenlängenbereich außerhalb eines von der ersten Sensorschicht (2) erfassbaren Wellenlängenbereichs liegt, und - einen Zweibandfilter (11), der zwischen der ersten Sensorschicht (2) und einer Quelle der zu erfassenden elektromagnetischen Strahlung angeordnet ist, wobei der Zweibandfilter (11) dazu ausgelegt ist, dass er elektromagnetische Strahlung bis auf mindestens einen Teil des ersten Wellenlängenbereichs und mindestens einen Teil des zweiten Wellenlängenbereichs blockiert.
  2. Bildsensoranordnung (1) nach dem vorhergehenden Anspruch, wobei der erste Wellenlängenbereich sichtbares Licht umfasst, und wobei der zweite Wellenlängenbereich kurzwellige Infrarotstrahlung, SWIR, umfasst.
  3. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei die erste Sensorschicht (2) mit der zweiten Sensorschicht (4) durch Hybridbonden verbunden ist, so dass elektrische Verbindungen (9) zwischen den Pixeln (3) der ersten Gruppe und den Pixeln (5) der zweiten Gruppe gebildet sind.
  4. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei die zweite Sensorschicht (4) mit der Ausleseschicht (6) durch Hybridbonden verbunden ist, so dass elektrische Verbindungen (9) zwischen den Pixeln (5) der zweiten Gruppe und der Ausleseschaltung (7) gebildet sind.
  5. Bildsensoranordnung (1) nach einem der vorangehenden Ansprüche, ferner umfassend mindestens eine Substratdurchkontaktierung (12), wobei die Substratdurchkontaktierung (12) die zweite Sensorschicht (4) durchdringt und die Pixel (3) der ersten Gruppe in der ersten Sensorschicht (2) mit der Ausleseschaltung (7) in der Ausleseschicht (6) elektrisch verbindet.
  6. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei die erste Sensorschicht (2) und/oder die Ausleseschicht (6) ein Halbleitermaterial, insbesondere Silizium, umfasst.
  7. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei die zweite Sensorschicht (4) eines der Materialien Germanium, Indiumgalliumarsenid, eine Quantenpunktschicht oder ein anderes Material mit einer geeigneten Bandlücke für die spektrale Reaktion auf elektromagnetische Strahlung im zweiten Wellenlängenbereich umfasst.
  8. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei die Pixel (3) der ersten Gruppe und die Pixel (5) der zweiten Gruppe zum Auslesen durch die Ausleseschaltung (7) in einem Rolling-Shutter-Modus ausgebildet sind.
  9. Bildsensoranordnung (1) nach einem der Ansprüche 1 bis 6, wobei die Pixel (3) der ersten Gruppe zum Auslesen durch die Ausleseschaltung (7) in einem Rolling-Shutter-Modus und die Pixel (5) der zweiten Gruppe zum Auslesen durch die Ausleseschaltung (7) in einem Global-Shutter-Modus über eine Transfereinheit (30) ausgebildet sind.
  10. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei die erste Sensorschicht (2) ferner eine Steuerschaltung (24) umfasst, wobei die Steuerschaltung (24) dazu ausgelegt ist, elektrische Signale zu/von jedem Pixel (3) der ersten Gruppe zu steuern.
  11. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei eine Verdrahtung der Pixel (3) der ersten Gruppe an einer der zweiten Sensorschicht (4) zugewandten und von einer Strahlungseintrittsseite der ersten Sensorschicht (2) abgewandten Hauptfläche (2') der ersten Sensorschicht (2) angeordnet ist.
  12. Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche, wobei eine Verdrahtung der Pixel (5) der zweiten Gruppe an einer der ersten Sensorschicht (2) zugewandten Hauptfläche (4') der zweiten Sensorschicht (4) angeordnet ist.
  13. Bildsensoranordnung (1) nach einem der Ansprüche 1 bis 11, wobei eine Verdrahtung von Pixeln (5) der zweiten Gruppe an einer der Ausleseschicht (6) zugewandten Hauptfläche (4') der zweiten Sensorschicht (4) angeordnet ist.
  14. Bildsensorvorrichtung (43) umfassend die Bildsensoranordnung (1) nach einem der vorhergehenden Ansprüche und eine Lichtquelle (44), die mit den Pixeln (5) der zweiten Gruppe synchronisiert ist.
  15. Verfahren zum Betrieb einer Bildsensoranordnung (1), wobei das Verfahren die folgenden Schritte umfasst: - Blockieren von elektromagnetischer Strahlung durch einen Zweibandfilter (11) bis auf mindestens einen Teil eines ersten Wellenlängenbereichs und mindestens einen Teil eines zweiten Wellenlängenbereichs, - Belichten einer ersten Gruppe von Pixeln (3) einer ersten Sensorschicht (2) mit elektromagnetischer Strahlung, die von dem Zweibandfilter (11) durchgelassen wird, wobei jedes Pixel (3) der ersten Gruppe eine Fotodiode (14, 15, 16, 17) umfasst, die dazu ausgebildet ist, dass sie elektromagnetische Strahlung in dem ersten Wellenlängenbereich erfasst, - Übertragen mindestens eines Teils der von dem Zweibandfilter (11) übertragenen elektromagnetischen Strahlung über die erste Sensorschicht (2) zu einer zweiten Sensorschicht (4), wobei der Teil der elektromagnetischen Strahlung dem zweiten Wellenlängenbereich entspricht und außerhalb eines von der ersten Sensorschicht (2) erfassbaren Wellenlängenbereichs liegt, - Belichten einer zweiten Gruppe von Pixeln (5) der zweiten Sensorschicht (4) mit dem Teil der elektromagnetischen Strahlung, wobei jedes Pixel (5) der zweiten Gruppe eine Fotodiode (13) umfasst, die dazu ausgelegt ist, dass sie elektromagnetische Strahlung in dem zweiten Wellenlängenbereich erfasst, - Umwandeln der elektromagnetischen Strahlung in elektrische Signale durch die Fotodioden (13, 14, 15, 16, 17), - Übertragen der elektrischen Signale der Pixel (3, 5) der ersten und zweiten Gruppe an eine Ausleseschicht (6), die eine Ausleseschaltung (7) aufweist.
DE112022000204.2T 2021-03-26 2022-03-02 Bildsensoranordnung, Bildsensorvorrichtung und Verfahren zum Betrieb einer Bildsensoranordnung Pending DE112022000204T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102021107730.3 2021-03-26
DE102021107730 2021-03-26
PCT/EP2022/055271 WO2022200007A1 (en) 2021-03-26 2022-03-02 Image sensor arrangement, image sensor device and method for operating an image sensor arrangement

Publications (1)

Publication Number Publication Date
DE112022000204T5 true DE112022000204T5 (de) 2023-08-17

Family

ID=80953600

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022000204.2T Pending DE112022000204T5 (de) 2021-03-26 2022-03-02 Bildsensoranordnung, Bildsensorvorrichtung und Verfahren zum Betrieb einer Bildsensoranordnung

Country Status (6)

Country Link
US (1) US20240162271A1 (de)
JP (1) JP2024511212A (de)
CN (1) CN116745917A (de)
DE (1) DE112022000204T5 (de)
TW (1) TWI808688B (de)
WO (1) WO2022200007A1 (de)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10985201B2 (en) * 2018-09-28 2021-04-20 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor including silicon over germanium layer
US20200412980A1 (en) * 2019-06-28 2020-12-31 Apple Inc. Stacked Electromagnetic Radiation Sensors for Visible Image Sensing and Infrared Depth Sensing, or for Visible Image Sensing and Infrared Image Sensing

Also Published As

Publication number Publication date
TWI808688B (zh) 2023-07-11
CN116745917A (zh) 2023-09-12
US20240162271A1 (en) 2024-05-16
JP2024511212A (ja) 2024-03-12
WO2022200007A1 (en) 2022-09-29
TW202245461A (zh) 2022-11-16

Similar Documents

Publication Publication Date Title
DE202017102626U1 (de) Doppel-Photodioden-Bildpixel
DE102018116043B4 (de) Bildsensor
DE69729648T2 (de) Aktivpixelsensormatrix mit mehrfachauflösungsausgabe
DE202017100976U1 (de) Bildsensoren mit hocheffizienten Ladungsspeicherfähigkeiten
DE10230134B4 (de) Bildsensor und Verfahren zu dessen Herstellung
DE202016105510U1 (de) Pixel mit Global Shutter und hohem Dynamikumfang
DE102018126875A1 (de) Mehrfachtiefgrabenisolations(MDTI)-Strukur für CMOS-Bildsensor
DE102005060518B4 (de) Bilderfassungsbauelement und Herstellungsverfahren
DE112011103229T5 (de) Farbbildabtastung und -rekonstruktion
DE112018002719T5 (de) Abbildungsvorrichtung und elektronisches Gerät
DE102020004050A1 (de) Verfahren und schaltungsanordnungen zur verbesserung der global-shutter-effizienz bei rückseitig beleuchteten bildsensorpixeln mit hohem dynamikumfang
EP2210073B1 (de) Schaltungsanordnung zum erzeugen von licht- und temperaturabhängigen signalen, insbesondere für ein bildgebendes pyrometer
DE102007063227A1 (de) Abbildungssensorvorrichtungen mit Lichtsperrschichten und Verfahren zum Herstellen von Abbildungssensorvorrichtungen mit Lichtsperrschichten
DE102020119179A1 (de) Bilderzeugungssysteme und verfahren zum erzeugen von bildern mit hohem dynamikbereich
DE112021004358T5 (de) Festkörperbildgebungsvorrichtung und elektronische vorrichtung
DE60035586T2 (de) Empfindlichkeiterhöhung eines bildsensors mittels fluoreszierenden phosphor
DE112018006813T5 (de) Bildsensor und elektronische vorrichtung
DE102019103721B4 (de) Bildsensor zum Erfassen von LED-Licht mit reduziertem Flimmern
DE112021002438T5 (de) Festkörperbildgebungselement und elektronische vorrichtung
DE102011053219A1 (de) Kombiniertes Pixel mit phasensensitivem und farbselektivem Subpixel
DE112022003407T5 (de) Pixelanordnung, pixelmatrix, bildsensor und verfahren zum betrieb einer pixelanordnung
DE112022000204T5 (de) Bildsensoranordnung, Bildsensorvorrichtung und Verfahren zum Betrieb einer Bildsensoranordnung
DE102012110094A1 (de) Sensoranordnung zur Bilderfassung
DE102022102417A1 (de) Bildpixel mit gekoppelten gate-strukturen
DE102019113572B4 (de) Bildsensoren mit dummy-pixel-zeilen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)