DE102022201523A1 - Ein Bildsensor, ein Verfahren zum Betreiben eines Bildsensors, ein Verfahren zum Herstellen eines Bildsensors und ein stationäres Gerät oder ein Fahrzeug oder eine Drohne mit einem Bildsensor - Google Patents

Ein Bildsensor, ein Verfahren zum Betreiben eines Bildsensors, ein Verfahren zum Herstellen eines Bildsensors und ein stationäres Gerät oder ein Fahrzeug oder eine Drohne mit einem Bildsensor Download PDF

Info

Publication number
DE102022201523A1
DE102022201523A1 DE102022201523.1A DE102022201523A DE102022201523A1 DE 102022201523 A1 DE102022201523 A1 DE 102022201523A1 DE 102022201523 A DE102022201523 A DE 102022201523A DE 102022201523 A1 DE102022201523 A1 DE 102022201523A1
Authority
DE
Germany
Prior art keywords
filter
image sensor
polarization
absorption
optical bandwidth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022201523.1A
Other languages
English (en)
Inventor
Dietrich Dumler
Franz Wenninger
Christoph Kutter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to EP22194383.0A priority Critical patent/EP4184932A1/de
Priority to US17/940,864 priority patent/US20230081017A1/en
Priority to JP2022143926A priority patent/JP2023041050A/ja
Priority to CN202211108973.8A priority patent/CN115811647A/zh
Publication of DE102022201523A1 publication Critical patent/DE102022201523A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/286Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising for controlling or changing the state of polarisation, e.g. transforming one polarisation state into another
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • G02B5/3025Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mechanical Engineering (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Studio Devices (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ausführungsbeispiele der Erfindung schaffen einen Bildsensor (100, 410, 650, 720) mit einer Bildelementstruktur (100). Die Bildelementstruktur (100) weist eine Vielzahl von rasterförmig angeordneten Bildelementen (120) in einer ersten Richtung (113, 213) und in einer zweiten Richtung 116, die zu der ersten Richtung (113, 213) orthogonal ist, auf. Ein Bildelement (120) der Vielzahl von Bildelementen (120) weist eine Mehrzahl von räumlich nebeneinander angeordneten Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) auf. Die Mehrzahl von Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) weist wenigstens einen Farbfilter (133, 242, 244, 246) und wenigstens einen zusätzlichen Filter (136, 253, 256, 263, 266) aus einer Filtergruppe auf. Die Filtergruppe weist einen ersten Absorptionsfilter (136, 253, 256) mit einer ersten optischen Bandbreite, einen zweiten Absorptionsfilter (136, 253, 256) mit einer zweiten optischen Bandbreite, die sich von der ersten optischen Bandbreite unterscheidet, einen ersten Polarisationsfilter (136, 263, 266) mit einer ersten Polarisationscharakteristik, einen zweiten Polarisationsfilter (136, 263, 266) mit einer zweiten Polarisationscharakteristik, die sich von der ersten Polarisationscharakteristik unterscheidet, und ein Filterelement (136) ohne Absorptions- oder Polarisationswirkung auf.

Description

  • Die vorliegende Anmeldung betrifft einen Bildsensor mit rasterförmig angeordneten Bildelementen, die eine Mehrzahl von Filterelementen aufweisen.
  • Die Erkennung der Straßenverhältnisse ist unerlässlich für ein sicheres Fahren. Moderne Fahrzeuge schätzen allgemeine Risiken der Straßenverhältnisse mithilfe von Sensoren, wie zum Beispiel mit optischen Sensoren.
  • Die Situation vor einem Fahrzeug wird beispielsweise mit einer Kamera aufgenommen. Auf einem Rot-Grün-Blau-Bild (RGB-Bild) ist es schwierig zum Beispiel einen nassen Fleck von einem schmutzigen Fleck auf einer Fahrbahnoberfläche zu unterscheiden, da beide einfach nur dunkel sind. Obwohl Wasser transparent ist, ist Wasser in RGB-Bildern aufgrund verschiedener Effekte, die den Weg eines Lichtstrahls verändern, leicht sichtbar. Gängige Verfahren zur Objekterkennung (object detection) verwenden RGB-Daten, um Objekte, wie zum Beispiel Passanten, zu erkennen. Objekte, wie zum Beispiel Pfützen, mit simplen Formen und mit komplexem optischem Verhalten, wie zum Beispiel starke Reflexion oder Transparenz, sind jedoch schwer zu erkennen. Umweltvariablen, wie zum Beispiel Tageslicht, Hintergrund und Untergrund, verändern das Erscheinungsbild witterungsbedingter Ablagerungen erheblich, was die Erkennung noch weiter erschwert.
  • RGB-Kameras oder RGB-Bildsensoren können die verschiedenen Effekte, wie zum Beispiel Absorption und/oder Polarisation, nicht bestimmen. Daher sind die Ergebnisse des Lokalisierungs- und Klassifizierungsverfahrens stark fallabhängig und unzuverlässig.
  • Die Aufgabe der vorliegenden Erfindung besteht deshalb darin, eine kompakte Vorrichtung zu schaffen, die eine verbesserte Erkennung von Gefahren auf einer Fahrbahnoberfläche ermöglicht.
  • Diese Aufgabe wird durch einen Bildsensor nach Anspruch 1, durch ein Fahrzeug nach Anspruch 13, durch ein stationäres Gerät nach Anspruch 15, durch eine Drohne nach Anspruch 19, durch ein Verfahren zum Betreiben eines Bildsensors nach Anspruch 22 oder durch ein Verfahren zum Herstellen eines Bildsensors nach Anspruch 23 gelöst.
  • Ausführungsbeispiele der Erfindung schaffen einen Bildsensor mit einer Bildelementstruktur. Die Bildelementstruktur weist eine Vielzahl von rasterförmig angeordneten Bildelementen in einer ersten Richtung und in einer zweiten Richtung, die zu der ersten Richtung orthogonal ist, auf.
  • Ein Bildelement der Vielzahl von Bildelementen weist eine Mehrzahl von räumlich nebeneinander angeordneten Filterelementen auf. Die Mehrzahl von Filterelementen weist wenigstens einen Farbfilter und wenigstens einen zusätzlichen Filter aus einer Filtergruppe auf.
  • Die Filtergruppe weist einen ersten Absorptionsfilter mit einer ersten optischen Bandbreite, einen zweiten Absorptionsfilter mit einer zweiten optischen Bandbreite, die sich von der ersten optischen Bandbreite unterscheidet, einen ersten Polarisationsfilter mit einer ersten Polarisationscharakteristik, einen zweiten Polarisationsfilter mit einer zweiten Polarisationscharakteristik, die sich von der ersten Polarisationscharakteristik unterscheidet, und ein Filterelement ohne Absorptions- oder Polarisationswirkung auf.
  • Ein Bildsensor mit rasterförmig angeordneten Bildelementen, bei dem ein Bildelement wenigstens einen Farbfilter und wenigstens einen zusätzlichen Filter aufweist, erweitert einen klassischen Kamerasensor um weitere Filter. Der erfinderische Bildsensor liefert neben den Farbinformationen zusätzliche Informationen, wie z. B. Absorptions- und/oder Polarisationsinformationen, die beispielsweise eine Differenzierung von Wasseraufkommen erleichtern.
  • Der Farbfilter ist ausgebildet, um das Licht farbspezifisch zu filtern, und ermöglicht es damit dem Bildsensor, Farbinformationen zu detektieren. Häufig werden drei Farbfilter verwendet, da aus drei grundlegenden Farben, wie z. B. aus den Farben Rot, Grün und Blau, alle anderen Farben mischbar sind. Ein Filterelement ohne Absorptions- oder Polarisationswirkung kann zum Beispiel einen Farbfilter aus diesen drei Farbfiltern ersetzen, um Kosten zu sparen.
  • Absorptionsinformationen ermöglichen es, konkrete Materialien mit bestimmen Absorptionseigenschaften in einer Sensoraufnahme leichter zu finden, und Sensoraufnahmen mit Polarisationsfiltern ermöglichen es, die an einer Oberfläche reflektierenden Lichtstrahlen zu analysieren.
  • Ein erfinderischer Bildsensor mit zusätzlichen Filterelementen bleibt so kompakt wie ein klassischer Bildsensor, da die Erweiterung der Filterelemente des Bildsensors um zusätzliche Filterelemente nur die Oberfläche und/oder die Auflösung des Bildsensors beeinflusst.
  • Mit den zusätzlichen Filterelementen liefert der erfinderische Bildsensor eine kompakte Lösung, die eine verbesserte Erkennung von Gefahren auf einer Fahrbahnoberfläche ermöglicht.
  • Bei Ausführungsbeispielen weist die Mehrzahl von Filterelementen einen RGB-Farbfilter und mehrere verschiedene zusätzliche Filter auf, die einen ersten Absorptionsfilter mit einer ersten optischen Bandbreite, einen zweiten Absorptionsfilter mit einer zweiten optischen Bandbreite, die sich von der ersten optischen Bandbreite unterscheidet, einen ersten Polarisationsfilter mit einer ersten Polarisationscharakteristik und einen zweiten Polarisationsfilter mit einer zweiten Polarisationscharakteristik, die sich von der ersten Polarisationscharakteristik unterscheidet, umfassen.
  • Ein Bildsensor mit einem RGB-Farbfilter und mit mehreren verschiedenen zusätzlichen Filtern, wie z. B. mit zwei unterschiedlichen Absorptionsfiltern und mit zwei unterschiedlichen Polarisationsfiltern, liefert mehr Informationen als ein klassischer Bildsensor oder als ein Bildsensor, der nur einen Farbfilter und einen zusätzlichen Filter umfasst.
  • Beispielsweise ermöglicht die Verwendung von zwei Absorptionsfiltern mit unterschiedlichen optischen Bandbreiten, in denen Wasser unterschiedliche Absorptionsraten hat, eine Erkennung von Wasser auf einer Fahrbahnoberfläche.
  • Andernfalls ermöglicht die Verwendung von zwei Absorptionsfiltern mit unterschiedlichen optischen Bandbreiten, in denen Chlorophyll oder Stickstoff unterschiedliche Absorptionsraten hat, eine Detektion von Pflanzen und/oder organischen Materialien oder Stoffen.
  • Die Verwendung von Polarisationsfiltern mit unterschiedlichen Polarisationswinkeln ermöglicht zum Beispiel eine Unterscheidung zwischen Wasser, Schnee und Glatteis. Die Reflexion von flüssigem Wasser zeigt ein hohes Polarisationsverhältnis des Lichts mit vorwiegend horizontaler Ausrichtung, während die Eiskristalle den Lichtstrahl streuen und eine Rotation der Welle verursachen. Eiskristalle ergeben eine stärker gestreute Polarisation mit leicht verschobener Orientierung.
  • Bei Ausführungsbeispielen weist die erste optische Bandbreite eine Bandbreite auf, die aus einem Spektralbereich zwischen 400 nm und 900 nm ausgewählt ist. Gleichzeitig weist die zweite optische Bandbreite eine Bandbreite auf, die aus einem Spektralbereich zwischen 900 nm und 1200 nm ausgewählt ist.
  • Durch eine oben genannte Auswahl der ersten optischen Bandbreite und der zweiten optischen Bandbreite wird ein optimaler Intensitätsunterschied in Bereichen mit Wasser zwischen Sensoraufnahmen ermöglicht.
  • Bei Ausführungsbeispielen weist die erste optische Bandbreite bei einer Halbwertbreite einen Wert zwischen 820 nm und 870 nm und die zweite optische Bandbreite bei der Halbwertbreite einen Wert zwischen 920 nm und 970 nm auf.
  • Durch eine optimale Auswahl der ersten optischen Bandbreite und der zweiten optischen Bandbreite wird ein möglichst maximaler Intensitätsunterschied in Bereichen mit Wasser zwischen Sensoraufnahmen ermöglicht.
  • Bei Ausführungsbeispielen sind die Polarisationscharakteristik des ersten Polarisationsfilters und die Polarisationscharakteristik des zweiten Polarisationsfilters 90° zueinander versetzt ausgebildet.
  • Gleichmäßig verteilte Polarisationscharakteristiken bzw. Polarisationswinkel der Polarisationsfilter liefern die meisten Informationen über die an der Oberfläche reflektierenden Lichtstrahlen. Zwei Polarisationsfilter liefern schon ausreichende Informationen über die Polarisationsebene des Lichtstrahls.
  • Bei Ausführungsbeispielen weist der Bildsensor wenigstens einen weiteren zusätzlichen Absorptionsfilter und/oder Polarisationsfilter auf.
  • Der weitere zusätzliche Absorptionsfilter erlaubt es, weitere Materialien, wie zum Beispiel organische Materialien oder Pflanzen, zu erkennen, und/oder der weitere zusätzliche Polarisationsfilter ermöglicht eine noch genauere Bestimmung der Polarisation der an der Oberfläche reflektierenden Lichtstrahlen.
  • Bei Ausführungsbeispielen sind der wenigstens eine Farbfilter eines Bildelements und der wenigstens eine zusätzliche Filter des Bildelements in der ersten Richtung nebeneinander angeordnet.
  • Der Bildsensor einer Kamera, die in eine Fahrtrichtung ausgerichtet ist, nimmt die Straße in einem flachen Winkel verzerrt und/oder gestaucht auf. Da die vertikale Achse stärker gestaucht ist als die horizontale Achse, ist die Auflösung in vertikaler Ausrichtung wertvoller. Die in der ersten Richtung nebeneinander angeordneten Filterelemente schaffen eine maximale vertikale Auflösung, bei der jedes Bildelement nur eine Zeile hat.
  • Bei Ausführungsbeispielen sind der wenigstens eine Farbfilter und der wenigstens eine zusätzliche Filter zweizeilig in der ersten Richtung angeordnet.
  • Der Bildsensor einer Kamera, die in eine Fahrtrichtung ausgerichtet ist, nimmt die Straße in einem flachen Winkel verzerrt und/oder gestaucht auf. Da die vertikale Achse stärker gestaucht ist als die horizontale Achse, ist die Auflösung in der vertikalen Ausrichtung wertvoller als die Auflösung in der horizontalen Ausrichtung. Ist die Anzahl der Filterelemente des Bildelements zum Beispiel höher als eine vordefinierte Anzahl, können die Filterelemente des Bildelements zweizeilig in der ersten Richtung angeordnet werden. So wird eine möglichst maximale vertikale Auflösung erzielt geschafft, bei der die Filterelemente des Bildelements immer noch denselben Teil der Fahrbahnoberfläche aufnehmen können.
  • Bei Ausführungsbeispielen gehören der wenigstens eine Farbfilter zu einem ersten Haufen und der wenigstens eine zusätzliche Filter zu einem zweiten Haufen.
  • Die Verarbeitung der Informationen wird somit vereinfacht. Die Filterelemente in dem ersten Haufen detektieren, ähnlich wie bei den klassischen Kamerasensoren, die Farbinformationen. Somit können die Farbinformationen mit bekannten Methoden verarbeitet werden und nur die neuen zusätzlichen Filterelemente des zweiten Haufens benötigen neue Bildverarbeitungsmethoden.
  • Bei Ausführungsbeispielen sind der erste Haufen und der zweite Haufen zweizeilig nebeneinander in der ersten Richtung angeordnet.
  • Diese Anordnung ermöglicht eine vereinfachte Informationsverarbeitung mit einer möglichst maximalen vertikalen Auflösung.
  • Bei Ausführungsbeispielen ist für jedes Bildelement jeder Bildsensorabschnitt, der einem eigenen Filterelement in dem Bildelement zugeordnet ist, selektiv auslesbar.
  • Der erfinderische Bildsensor erweitert einen klassischen Kamerasensor um zusätzliche Filterelemente. Jeder Bildsensorabschnitt, der einem eigenen Filterelement in einem Bildelement zugeordnet ist, ist selektiv auslesbar. Somit kann der erfinderische Bildsensor die verschiedenen Informationen voneinander trennen.
  • Das Filterelement ohne Absorptions- oder Polarisationswirkung ist als optisches Allpassfilter oder als Öffnung oder Loch in einer Filterschicht ausgebildet.
  • Optische Allpassfilter, Öffnungen oder Löcher sind die günstigsten Lösungen, um Filterelemente ohne Absorptions- oder Polarisationswirkung zu schaffen.
  • Weitere Ausführungsbeispiele gemäß der vorliegenden Erfindung schaffen Fahrzeuge, stationäre Geräte oder Drohnen mit einem erfinderischen Bildsensor, der in eine Fahrtrichtung einer Fahrbahnoberfläche ausgerichtet ist. Hierbei ist der Bildsensor so angeordnet, dass die erste Richtung des Bildsensors quer zur Fahrtrichtung und die zweite Richtung des Bildsensors längs zur Fahrtrichtung angeordnet ist. Die Fahrzeuge, stationären Geräte oder Drohnen sind ausgebildet, um einen entfernten Server oder einen Fahrer oder eine Fahrerin über den Zustand oder über einen gefährlichen Zustand der Fahrbahnoberfläche zu informieren.
  • Weitere Ausführungsbeispiele gemäß der vorliegenden Erfindung schaffen entsprechende Verfahren zum Betreiben des Bildsensors und/oder zum Herstellen des Bildsensors.
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung schaffen eine Kamera oder einen Bildsensor einer Kamera zur Erkennung von Gefahren im Straßenverkehr mit gesteigerter Wahrnehmung für Wasser auf Straßenoberflächen.
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert.
    • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Bildsensors mit rasterförmig angeordneten Bildelementen, die eine Mehrzahl von räumlich nebeneinander angeordneten Filterelementen aufweisen;
    • 2 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Mehrzahl von Filterelementen eines Bildelements mit Farbfiltern, zwei Absorptionsfiltern mit unterschiedlichen optischen Bandbreiten und zwei Polarisationsfiltern mit unterschiedlichen Polarisationscharakteristiken;
    • 3 zeigt eine schematische perspektivische Darstellung einer Fahrbahnoberfläche mit einem Rastermuster und einen Rahmen, der eine Sensoraufnahme der Fahrbahnoberfläche repräsentiert;
    • 4a zeigt eine schematische Darstellung einer in die Fahrtrichtung ausgerichteten Kamera mit einem Öffnungswinkel α, die eine Straßenoberfläche, dargestellt durch die punktierte Linie, in einem flachen Winkel φ aufnimmt;
    • 4b zeigt eine schematische Darstellung einer Sensoraufnahme der Kamera in 4a;
    • 5 zeigt ein Diagramm mit der Kennlinie der Verzerrung der Achsen x und y in Abhängigkeit von dem Betrachtungswinkel φ;
    • 6 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Fahrzeugs mit dem erfinderischen Bildsensor;
    • 7a zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Drohne;
    • 7b zeigt eine schematische Darstellung eines Ausführungsbeispiels eines stationären Geräts.
  • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Bildsensors 100 mit einer Vielzahl von rasterförmig angeordneten Bildelementen 120 in einer ersten Richtung 113 und in einer zweiten Richtung 116, die zu der ersten Richtung 113 orthogonal ist.
  • Jedes Bildelement 120 der Vielzahl von Bildelementen 120 weist eine Mehrzahl von räumlich nebeneinander angeordneten Filterelementen 130 auf. Die Mehrzahl von Filterelementen 130 weist wenigstens einen Farbfilter 133 und wenigstens einen zusätzlichen Filter 136 auf.
  • Der Farbfilter 133 ist ausgebildet, um das Licht farbspezifisch zu filtern, und ermöglicht es dem Bildsensor 100 damit, Farbinformationen zu detektieren. Einer der am häufigsten verwendeten Farbfilter ist der RGB-Farbfilter. Hierbei werden die Farben Rot, Grün und Blau detektiert.
  • Der zusätzlichen Filter 136 kann zum Beispiel einen Absorptionsfilter, einen Polarisationsfilter und/oder ein Filterelement ohne Absorptions- oder Polarisationswirkung aufweisen. Absorptionsinformationen ermöglichen es, konkrete Materialien mit bestimmen Absorptionseigenschaften in einer Sensoraufnahme leichter zu finden, und Sensoraufnahmen mit Polarisationsfiltern ermöglichen es, die an einer Oberfläche reflektierenden Lichtstrahlen zu analysieren.
  • Das Filterelement ohne Absorptions- oder Polarisationswirkung kann zum Beispiel einen Farbfilter in einem RGB-Farbfilter ersetzen. Die Farbinformationen des eingesparten Farbfilters können mithilfe von den anderen Farbfiltern berechnet werden, da aus drei grundlegenden Farben, wie zum Beispiel Rot, Grün und Blau, alle andere Farben mischbar sind.
  • Jeder Bildsensorabschnitt, der einem eigenen Filterelement in einem Bildelement zugeordnet ist, ist selektiv auslesbar. Somit kann der erfinderische Bildsensor neben Farbinformationen zusätzliche Informationen, wie z. B. Absorptions- und/oder Polarisationsinformationen, getrennt detektieren.
  • Die zusätzlichen Informationen können eine Erkennung von Gefahren auf einer Fahrbahnoberfläche erleichtern. Weitere mögliche zusätzliche Filterelemente werden noch in 2 gezeigt.
  • 2 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Mehrzahl von Filterelementen 200 eines Bildelements, zum Beispiel des Bildelements 120 in 1. Wie in 1 gezeigt wurde, weist die Mehrzahl von Filterelementen 200 wenigstens einen Farbfilter und wenigstens einen zusätzlichen Filter auf.
  • Die Mehrzahl von Filterelementen 200 weist einen RGB-Farbfilter auf, der einen roten Filter 246, einen blauen Filter 244 und zwei grüne Filter 242 aufweist.
  • Ähnlich wie bei klassischen Kamerasensoren, ist der RGB-Farbfilter des Bildelements ausgebildet, um Farbinformationen zu detektieren. Somit können die Farbinformationen mit bekannten Methoden verarbeitet werden.
  • Die Mehrzahl von Filterelementen 200 weist noch weitere zusätzliche Filter auf, die einen ersten Absorptionsfilter 253 mit einer Bandbreite von 850 nm bzw. mit einer Halbwertsbreite zwischen 820 nm und 870 nm, einen zweiten Absorptionsfilter 256 mit einer Bandbreite von 950 nm bzw. mit einer Halbwertsbreite zwischen 920 nm und 970 nm, einen ersten Polarisationsfilter 263 mit vertikaler Ausrichtung und einen zweiten Polarisationsfilter 266 mit horizontaler Ausrichtung aufweisen.
  • Die Bandbreiten des ersten und des zweiten Absorptionsfilters 253, 256 sind ausgewählt, um die Absorptionscharakteristik von Wasser auszunutzen und dadurch die Erkennung eines Wasseraufkommens zu erleichtern. Daher liefern das erste und das zweite Absorptionsfilter 253, 256 unterschiedliche Intensitätswerte in Bereichen mit Wasser.
  • Optional kann die Kamera oder der Bildsensor der Kamera noch um weitere Filter ergänzt werden. Eine Verwendung von zusätzlichen Absorptionsfiltern mit unterschiedlichen optischen Bandbreiten, in denen Chlorophyll oder Stickstoff unterschiedliche Absorptionsraten hat, ist ebenso möglich, um Pflanzen und/oder organische Materialien oder Stoffe zu detektieren. Eine besonders starke Absorption des Chlorophylls wird mit Absorptionsfiltern mit Bandbreiten von 450 nm und 650 nm detektiert. Die Erkennung von Stickstoff erfordert Absorptionsfilter mit Bandbreiten von 740 nm, 820 nm und 860 nm. Stickstoff befindet sich in organischen Materialien, Stoffen oder in Pflanzen.
  • Polarisationsfilter ermöglichen es, die an der Oberfläche reflektierenden Lichtstrahlen zu analysieren und dadurch die unterschiedlichen Wasseraufkommen zu differenzieren. Beispielsweise zeigt ein hohes Polarisationsverhältnis mit vorwiegend horizontaler Ausrichtung flüssiges Wasser, während eine stärker gestreute Polarisation mit leicht verschobener Orientierung Eis andeutet.
  • Eine Verwendung von einem zusätzlichen Polarisationsfilter mit einem Polarisationswinkel von 45° ermöglicht eine noch genauere Bestimmung der Polarisation.
  • Die Farbfilter 242, 244, 246 gehören zu einem ersten Haufen 230 und die zusätzlichen Filter 253, 256, 263, 266 gehören zu einem zweiten Haufen 220. Die Filterelemente des ersten Haufens 230 und des zweiten Haufens 220 sind zweizeilig nebeneinander in der ersten Richtung 213 angeordnet.
  • Die Filterelemente des Bildsensors sind einzeilig oder zweizeilig in der ersten Richtung nebeneinander angeordnet, um eine maximale vertikale Auflösung zu erreichen. Die Auflösung in der vertikalen Ausrichtung ist wertvoller als die Auflösung in der horizontalen Ausrichtung, wie in 3 erläutert wird.
  • 3 zeigt eine schematische perspektivische Darstellung 300 einer Fahrbahnoberfläche 310 mit einem Rastermuster. Jedes Kästchen 320 des Rastermusters repräsentiert einen quadratischen Bereich von 1 m x 1 m auf der Fahrbahnoberfläche 310.
  • 3 zeigt einen Rahmen 330. Die Bildinformationen innerhalb des Rahmens repräsentieren eine Sensoraufnahme 340, z. B. eine Sensoraufnahme 340 des Bildsensors 100 in 1. Die Sensoraufnahme 340 zeigt, dass die Straßenabschnitte oder die Kästchen 320 der Sensoraufnahme 340 verzerrt sind.
  • Es ist deutlich zu sehen, dass die Ebene der Fahrbahnoberfläche 310 in der Sensoraufnahme 340 verzerrt und gestaucht ist. Die vertikale Achse ist stärker gestaucht als die horizontale Achse und deswegen ist die Auflösung in der vertikalen Ausrichtung wertvoller als die Auflösung in der horizontalen Ausrichtung.
  • Der Grad des Verhältnisses zwischen der vertikalen Achse und der horizontalen Achse ist abhängig von dem Winkel der Kamera oder des Kamerasensors zu der Straßenoberfläche 310, wie in den 4a, 4b erläutert wird.
  • 4a zeigt eine schematische Darstellung einer in die Fahrtrichtung ausgerichteten Kamera 410 mit einem Öffnungswinkel α, die eine Straßenoberfläche, dargestellt durch die punktierte Linie 430, in einem flachen Winkel φ aufnimmt. Bei einem Winkel von φ = 90° ist die Kamera 410 oder die Blickrichtung der Kamera 410 parallel zu der Straßenoberfläche.
  • Ist die Blickrichtung des Bildsensors 410 oder der Kamera 410 senkrecht φ = 0°) zu der Straßenoberfläche, sieht die Kamera in einer Entfernung L von der Straßenoberfläche ein unverzerrtes Straßenstück mit einer Länge von 2·ry(0).
  • Ist der Winkel φ größer als 0° und kleiner als 90° (0° < φ < 90°), zeigt die Sensoraufnahme, wie z. B. die Sensoraufnahme 340 in 3, ein längeres Straßenstück, nämlich ein Straßenstück mit einer Länge von 2·ry(φ). 4a zeigt, dass die Verzerrung der vertikalen Achse einer Sensoraufnahme von dem Winkel der Blickrichtung der Kamera zur Straßenoberfläche abhängig ist.
  • 4b zeigt eine schematische Darstellung einer Sensoraufnahme 450 der Kamera 410 in 4a. Die Sensoraufnahme 450 zeigt eine schematische Darstellung einer Straßenoberfläche 460. Die Breite der Straßenoberfläche 460 staucht sich mit der Entfernung von der Kamera.
  • Die Sensoraufnahme 450 zeigt, dass der Grad der Verzerrung (g oder g(φ)) der vertikalen und der horizontalen Achse das Verhältnis zwischen der in der Sensoraufnahme 450 angezeigten vertikalen und horizontalen Länge ry(φ) und rx ist.
  • Der Grad der Verzerrung der Achsen x und y in Abhängigkeit des Winkels der Blickrichtung der Kamera zur Straßenoberfläche kann mit der folgenden Formel berechnet und in einem Diagramm dargestellt werden: g ( φ ) = r y ( φ ) r x = cos ( α ) sin ( π 2 φ α ) .
    Figure DE102022201523A1_0001
  • 5 zeigt ein Diagramm mit der Kennlinie der Verzerrung der Achsen x und y in Abhängigkeit von dem Betrachtungswinkel φ.
  • 5 kann so interpretiert werden, dass mit einem zunehmend flachen Kamerawinkel (φ - 0; Kamera ist parallel zu der Straßenoberfläche) die y-Achse ungleich mehr gestaucht wird als die x-Achse. Bei einer zu großen Stauchung kommt es dazu, dass ein Objekt im aufgenommenen Bild auf weniger als einen Pixel reduziert wird, welches daraufhin nicht mehr dargestellt und somit das Objekt nicht mehr detektiert werden kann. Dieser Effekt wird durch den erfinderischen Bildsensor mit einer möglichst maximalen vertikalen Auflösung und durch einen steilen Kamerawinkel minimiert.
  • Um den Kamerawinkel so steil wie möglich zu halten, ist die Kamera, wie in 6 gezeigt wird, auf dem höchst möglichen Punkt in einem Fahrzeug angebracht.
  • 6 zeigt eine Seitenansicht 610 und eine Frontalansicht 620 eines Fahrzeugs 600 mit einem erfinderischen Bildsensor 650, der in die Fahrtrichtung 670 des Fahrzeugs 600 ausgerichtet ist.
  • Beispielweise bei einer Einbauhöhe von etwa 1400 mm und einer angestrebten Mindestreichweite von 50 m beträgt der Kamerawinkel zur Straße etwa 88,4°, was für den Bereich 50 m entfernt von der Kamera einem Achsenverhältnis von etwa 1:35 entspricht. Dies bedeutet, dass die Auflösung in der vertikalen Ausrichtung nur 1/35 der horizontalen Auflösung ist und somit die Auflösung in der vertikalen Ausrichtung wertvoller ist. Das Filtermosaik oder die Mehrzahl der Filterelemente wird daher in einer flachen Struktur erweitert, um eine höchstmögliche vertikale Auflösung zu gewährleisten. Mögliche Filterelementstrukturen sind die einzeilig (1xN) oder die zweizeilig (2xN) angeordneten Filterelemente.
  • Neben den Fahrzeugen können stationäre Geräte oder Drohnen mit dem erfinderischen Bildsensor ausgestattet sein, wie in 7a, 7b erläutert wird.
  • 7a zeigt eine Drohne 710 mit einem Bildsensor 720.
  • Hierbei kann der erfinderische Bildsensor 720 in eine Fahrtrichtung einer Fahrbahnoberfläche ausgerichtet sein. Der Bildsensor 720 ist möglichst so angeordnet, dass die erste Richtung des Bildsensors quer zur Fahrtrichtung und die zweite Richtung des Bildsensors längs zur Fahrtrichtung angeordnet ist. Die Drohne ist ausgebildet, um einen entfernten Server über den Zustand oder über einen gefährlichen Zustand der Fahrbahnoberfläche zu informieren.
  • 7b zeigt ein stationäres Gerät 750 mit einem Bildsensor 720, einer Anzeige 730 und einem Prozessor 740.
  • Der erfinderische Bildsensor 720 kann in eine Fahrtrichtung einer Fahrbahnoberfläche ausgerichtet sein. Der Bildsensor 720 ist möglichst so angeordnet, dass die erste Richtung des Bildsensors 720 quer zur Fahrtrichtung und die zweite Richtung des Bildsensors 720 längs zur Fahrtrichtung angeordnet ist.
  • Der Prozessor 740 ist ausgebildet, um einen Zustand der Fahrbahnoberfläche anhand der Sensoraufnahme des Bildsensors 720 zu schätzen und um einen Fahrer oder eine Fahrerin mithilfe der Anzeige 730 über den Zustand oder über einen gefährlichen Zustand der Fahrbahnoberfläche zu informieren.
  • Das Gerät 750 kann zusätzlich oder alternativ ausgebildet sein, um einen entfernten Server über den Zustand oder über einen gefährlichen Zustand der Fahrbahnoberfläche zu informieren.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahingehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
  • Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahingehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahingehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (23)

  1. Ein Bildsensor (100, 410, 650, 720) mit folgenden Merkmalen: einer Bildelementstruktur (100), die eine Vielzahl von rasterförmig angeordneten Bildelementen (120) in einer ersten Richtung (113, 213) und in einer zweiten Richtung (116), die zu der ersten Richtung (113, 213) orthogonal ist, aufweist, wobei ein Bildelement (120) der Vielzahl von Bildelementen (120) eine Mehrzahl von räumlich nebeneinander angeordneten Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) aufweist, wobei die Mehrzahl von Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) wenigstens einen Farbfilter (133, 242, 244, 246) und wenigstens einen zusätzlichen Filter (136, 253, 256, 263, 266) aus einer Filtergruppe aufweist, und wobei die Filtergruppe einen ersten Absorptionsfilter (136, 253, 256) mit einer ersten optischen Bandbreite, einen zweiten Absorptionsfilter (136, 253, 256) mit einer zweiten optischen Bandbreite, die sich von der ersten optischen Bandbreite unterscheidet, einen ersten Polarisationsfilter (136, 263, 266) mit einer ersten Polarisationscharakteristik, einen zweiten Polarisationsfilter (136, 263, 266) mit einer zweiten Polarisationscharakteristik, die sich von der ersten Polarisationscharakteristik unterscheidet, und ein Filterelement (136) ohne Absorptions- oder Polarisationswirkung aufweist.
  2. Der Bildsensor (100, 410, 650, 720) gemäß Anspruch 1, bei dem die Mehrzahl von Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) einen Rot-Grün-Blau-Farbfilter (133, 242, 244, 246), einen ersten Absorptionsfilter (136, 253, 256) mit einer ersten optischen Bandbreite, einen zweiten Absorptionsfilter (136, 253, 256) mit einer zweiten optischen Bandbreite, die sich von der ersten optischen Bandbreite unterscheidet, einen ersten Polarisationsfilter (136, 263, 266) mit einer ersten Polarisationscharakteristik und einen zweiten Polarisationsfilter (136, 263, 266) mit einer zweiten Polarisationscharakteristik aufweist, die sich von der ersten Polarisationscharakteristik unterscheidet.
  3. Der Bildsensor (100, 410, 650, 720) gemäß Anspruch 1 oder 2, bei dem die erste optische Bandbreite eine Bandbreite umfasst, die aus einem Spektralbereich zwischen 400 nm und 900 nm ausgewählt ist; und die zweite optische Bandbreite eine Bandbreite umfasst, die aus einem Spektralbereich zwischen 900 nm und 1200 nm ausgewählt ist.
  4. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 3, bei dem die erste optische Bandbreite bei einer Halbwertsbreite einen Wert zwischen 820 nm und 870 nm aufweist; und die zweite optische Bandbreite bei der Halbwertsbreite einen Wert zwischen 920 nm und 970 nm aufweist.
  5. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 4, bei dem die Polarisationscharakteristik des ersten Polarisationsfilters (136, 263, 266) und die Polarisationscharakteristik des zweiten Polarisationsfilters (136, 263, 266) 90° zueinander versetzt ausgebildet sind.
  6. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 5, der wenigstens einen weiteren zusätzlichen Absorptionsfilter (136, 253, 256) und/oder Polarisationsfilter (136, 263, 266) aufweist.
  7. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 6, bei dem der wenigstens eine Farbfilter (133, 242, 244, 246) und der wenigstens eine zusätzliche Filter (136, 253, 256, 263, 266) in der ersten Richtung (113, 213) nebeneinander angeordnet sind.
  8. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 7, bei dem der wenigstens eine Farbfilter (133, 242, 244, 246) und der wenigstens eine zusätzliche Filter (136, 253, 256, 263, 266) zweizeilig in der ersten Richtung (113, 213) angeordnet sind.
  9. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 8, bei dem der wenigstens eine Farbfilter (133, 242, 244, 246) zu einem ersten Haufen (230) gehört und der wenigstens eine zusätzliche Filter (136, 253, 256, 263, 266) zu einem zweiten Haufen (220) gehört.
  10. Der Bildsensor (100, 410, 650, 720) gemäß Anspruch 9, bei dem der erste Haufen (230) und der zweite Haufen (220) zweizeilig nebeneinander in der ersten Richtung (113, 213) angeordnet sind.
  11. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 10, bei dem für jedes Bildelement (120) jeder Bildsensorabschnitt, der einem eigenen Filterelement (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) in dem Bildelement (120) zugeordnet ist, selektiv auslesbar ist.
  12. Der Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 10, bei dem das Filterelement (136) ohne Absorptions- oder Polarisationswirkung als optisches Allpassfilter oder als Öffnung oder Loch in einer Filterschicht ausgebildet ist.
  13. Ein Fahrzeug (600) mit folgenden Merkmalen: einer Fahrzeugvorderseite, die zu einer Fahrbahnoberfläche (310, 430, 460) in eine Fahrtrichtung (670) des Fahrzeugs gerichtet ist und sich bezüglich der Fahrbahnoberfläche (310, 430, 460) nach oben erstreckt; und einem Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 12, der an der Fahrzeugvorderseite in einem oberen Bereich der Fahrzeugvorderseite angebracht ist und in die Fahrtrichtung (670) ausgerichtet ist.
  14. Das Fahrzeug (600) gemäß Anspruch 13, bei dem der Bildsensor (100, 410, 650, 720) so angeordnet ist, dass die erste Richtung (113, 213) der Bildelementstruktur (100) quer zur Fahrtrichtung (670) angeordnet ist und dass die zweite Richtung (116) der Bildelementstruktur (100) längs zur Fahrtrichtung (670) angeordnet ist, wobei der wenigstens eine Farbfilter (133, 242, 244, 246) des Bildelements (120) des Bildsensors (100, 410, 650, 720) und der wenigstens eine zusätzliche Filter (136, 253, 256, 263, 266) des Bildelements (120) nebeneinander in der ersten Richtung (113, 213) angeordnet sind.
  15. Ein stationäres Gerät (750), mit folgenden Merkmalen: einer Vorderseite, die zu einer Fahrbahnoberfläche (310, 430, 460) in eine Fahrtrichtung (670) eines Fahrzeugs (600) gerichtet ist und sich bezüglich der Fahrbahnoberfläche (310, 430, 460) nach oben erstreckt; und einem Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 12, der an der Vorderseite in einem oberen Bereich der Vorderseite angebracht ist und in die Fahrtrichtung (670) ausgerichtet ist.
  16. Das stationäre Gerät (750) gemäß Anspruch 15, bei dem der Bildsensor (100, 410, 650, 720) so angeordnet ist, dass die erste Richtung (113, 213) der Bildelementstruktur (100) quer zur Fahrtrichtung (670) angeordnet ist und dass die zweite Richtung (116) der Bildelementstruktur (100) längs zur Fahrtrichtung (670) angeordnet ist; wobei der wenigstens eine Farbfilter (133, 242, 244, 246) des Bildelements (120) des Bildsensors (100, 410, 650, 720) und der wenigstens eine zusätzliche Filter (136, 253, 256, 263, 266) des Bildelements (120) nebeneinander in der ersten Richtung (113) angeordnet sind.
  17. Das stationäre Gerät (750) gemäß Anspruch 15 oder 16, bei dem das Gerät (750) eine Hinterseite, einen Prozessor (740) und eine Anzeige (730) aufweist, wobei die Hinterseite gegenüberliegend und parallel zu der Vorderseite ist; wobei der Prozessor (740) ausgebildet ist, um einen Zustand der Fahrbahnoberfläche (310, 430, 460) anhand der Sensoraufnahmen (340, 460) des Bildsensors (100, 410, 650, 720) zu schätzen; wobei die Anzeige (730) an der Hinterseite des Gerätes (750) angebracht ist und in eine Richtung entgegengesetzt zu der Fahrtrichtung (670) ausgerichtet ist, wobei die Anzeige (730) ausgebildet ist, um einen Fahrer über den Zustand der Fahrbahnoberfläche (310, 430, 460) zu informieren oder um einen Fahrer über einen gefährlichen Zustand der Fahrbahnoberfläche (310, 430, 460) zu informieren.
  18. Das stationäre Gerät gemäß einem der Ansprüche 15 bis 17, bei dem das Gerät eine Schnittstelle aufweist, die ausgebildet ist, um einen entfernten Server über den Zustand der Fahrbahnoberfläche (310, 430, 460) zu informieren oder um einen entfernten Server über einen gefährlichen Zustand der Fahrbahnoberfläche (310, 430, 460) zu informieren.
  19. Eine Drohne (710) mit einem Bildsensor (100, 410, 650, 720) gemäß einem der Ansprüche 1 bis 12, bei der der Bildsensor (100, 410, 650, 720) ausgebildet ist, um in eine Fahrtrichtung (670) einer Fahrbahnoberfläche (310, 430, 460) ausgerichtet zu sein.
  20. Die Drohne (710) gemäß Anspruch 19, bei der der Bildsensor (100, 410, 650, 720) so angeordnet ist, dass die erste Richtung (113, 213) der Bildelementstruktur (100) quer zur Fahrtrichtung (670) angeordnet ist und dass die zweite Richtung (116) der Bildelementstruktur (100) längs zur Fahrtrichtung (670) angeordnet ist; wobei der wenigstens eine Farbfilter (133, 242, 244, 246) des Bildelements (120) des Bildsensors (100, 410, 650, 720) und der wenigstens eine zusätzliche Filter (136, 253, 256, 263, 266) des Bildelements (120) nebeneinander in der ersten Richtung (113, 213) angeordnet sind.
  21. Die Drohne (710) gemäß Anspruch 19 oder 20, die eine Schnittstelle aufweist, die ausgebildet ist, um einen entfernten Server über den Zustand der Fahrbahnoberfläche (310, 430, 460) zu informieren oder um einen entfernten Server über einen gefährlichen Zustand der Fahrbahnoberfläche (310, 430, 460) zu informieren.
  22. Verfahren zum Betreiben eines Bildsensors (100, 410, 650, 720) mit einer Bildelementstruktur (100), die eine Vielzahl von rasterförmig angeordneten Bildelementen (120) in einer ersten Richtung (113, 213) und in einer zweiten Richtung (116), die zu der ersten Richtung (113, 213) orthogonal ist, aufweist, wobei ein Bildelement (120) der Vielzahl von Bildelementen (120) eine Mehrzahl von räumlich nebeneinander angeordneten Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) aufweist, wobei die Mehrzahl von Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) wenigstens einen Farbfilter (133, 242, 244, 246) und wenigstens einen zusätzlichen Filter (136, 253, 256, 263, 266) aus einer Filtergruppe aufweist, wobei die Filtergruppe einen ersten Absorptionsfilter (136, 253, 256) mit einer ersten optischen Bandbreite, einen zweiten Absorptionsfilter (136, 253, 256) mit einer zweiten optischen Bandbreite, die sich von der ersten optischen Bandbreite unterscheidet, einen ersten Polarisationsfilter (136, 263, 266) mit einer ersten Polarisationscharakteristik, einen zweiten Polarisationsfilter (136, 263, 266) mit einer zweiten Polarisationscharakteristik, die sich von der ersten Polarisationscharakteristik unterscheidet, und ein Filterelement (136) ohne Absorptions- oder Polarisationswirkung aufweist, mit folgenden Schritten: Auslesen eines lichtempfindlichen Bereichs, der dem Filter (133, 242, 244, 246) zugeordnet ist; und Auslesen eines weiteren lichtempfindlichen Bereichs, der dem zusätzlichen Filter (136, 253, 256, 263, 266) zugeordnet ist.
  23. Verfahren zum Herstellen eines Bildsensors (100, 410, 650, 720) mit einer Bildelementstruktur (100), die eine Vielzahl von rasterförmig angeordneten Bildelementen (120) in einer ersten Richtung (113, 213) und in einer zweiten Richtung (116), die zu der ersten Richtung (113, 21 3) orthogonal ist, aufweist, mit folgendem Schritt: Ausgestalten der Bildelemente (120) der Vielzahl von Bildelementen (120), so dass jedes Bildelement (120) eine Mehrzahl von räumlich nebeneinander angeordneten Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) aufweist, wobei die Mehrzahl von Filterelementen (130, 133, 136, 242, 244, 246, 253, 256, 263, 266) wenigstens einen Farbfilter (133, 242, 244, 246) und wenigstens einen zusätzlichen Filter (136, 253, 256, 263, 266) aus einer Filtergruppe aufweist, wobei die Filtergruppe einen ersten Absorptionsfilter (136, 253, 256) mit einer ersten optischen Bandbreite, einen zweiten Absorptionsfilter (136, 253, 256) mit einer zweiten optischen Bandbreite, die sich von der ersten optischen Bandbreite unterscheidet, einen ersten Polarisationsfilter (136, 263, 266) mit einer ersten Polarisationscharakteristik, einen zweiten Polarisationsfilter (136, 263, 266) mit einer zweiten Polarisationscharakteristik, die sich von der ersten Polarisationscharakteristik unterscheidet, und ein Filterelement (136) ohne Absorptions- oder Polarisationswirkung aufweist.
DE102022201523.1A 2021-09-10 2022-02-14 Ein Bildsensor, ein Verfahren zum Betreiben eines Bildsensors, ein Verfahren zum Herstellen eines Bildsensors und ein stationäres Gerät oder ein Fahrzeug oder eine Drohne mit einem Bildsensor Pending DE102022201523A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP22194383.0A EP4184932A1 (de) 2021-09-10 2022-09-07 Ein bildsensor, ein verfahren zum betreiben eines bildsensors, ein verfahren zum herstellen eines bildsensors und ein stationäres gerät oder ein fahrzeug oder eine drohne mit einem bildsensor
US17/940,864 US20230081017A1 (en) 2021-09-10 2022-09-08 Image sensor, method for operating an image sensor, method for manufacturing an image sensor, and stationary device or vehicle or drone having an image sensor
JP2022143926A JP2023041050A (ja) 2021-09-10 2022-09-09 画像センサ、画像センサを動作させるための方法、画像センサを製造するための方法、および画像センサを有する固定デバイスまたは車両またはドローン
CN202211108973.8A CN115811647A (zh) 2021-09-10 2022-09-13 图像传感器、操作和制造其的方法以及具有其的设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021210050 2021-09-10
DE102021210050.3 2021-09-10

Publications (1)

Publication Number Publication Date
DE102022201523A1 true DE102022201523A1 (de) 2023-03-16

Family

ID=85284820

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022201523.1A Pending DE102022201523A1 (de) 2021-09-10 2022-02-14 Ein Bildsensor, ein Verfahren zum Betreiben eines Bildsensors, ein Verfahren zum Herstellen eines Bildsensors und ein stationäres Gerät oder ein Fahrzeug oder eine Drohne mit einem Bildsensor

Country Status (4)

Country Link
US (1) US20230081017A1 (de)
JP (1) JP2023041050A (de)
CN (1) CN115811647A (de)
DE (1) DE102022201523A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10523873B2 (en) 2015-11-19 2019-12-31 Sony Corporation Image processing device and image processing method
US10652497B2 (en) 2017-04-21 2020-05-12 Trustees Of Dartmouth College Quanta image sensor with polarization-sensitive jots

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557261A (en) * 1994-05-06 1996-09-17 Nichols Research Corporation Ice monitoring and detection system
US9159236B2 (en) * 2011-12-01 2015-10-13 Elwha Llc Presentation of shared threat information in a transportation-related context
US9646495B2 (en) * 2013-11-21 2017-05-09 General Electric Company Method and system for traffic flow reporting, forecasting, and planning
EP3158302B1 (de) * 2014-06-18 2021-12-29 Innopix, Inc. Spektralbildgebungssystem für fern- nichtinvasiven nachweis von zielsubstanzen mit spektralen filterarrays und bilderfassungsarrays
JP6697680B2 (ja) * 2016-08-17 2020-05-27 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
CN111357282B (zh) * 2017-11-21 2023-04-18 索尼公司 图像处理装置、图像处理方法、程序和固态成像装置
TWI832864B (zh) * 2018-08-07 2024-02-21 日商索尼半導體解決方案公司 攝像裝置及攝像系統
US10823562B1 (en) * 2019-01-10 2020-11-03 State Farm Mutual Automobile Insurance Company Systems and methods for enhanced base map generation
KR102632474B1 (ko) * 2019-02-11 2024-02-01 삼성전자주식회사 이미지 센서의 픽셀 어레이 및 이를 포함하는 이미지 센서
US11322033B2 (en) * 2019-08-27 2022-05-03 International Business Machines Corporation Remote surface condition assessment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10523873B2 (en) 2015-11-19 2019-12-31 Sony Corporation Image processing device and image processing method
US10652497B2 (en) 2017-04-21 2020-05-12 Trustees Of Dartmouth College Quanta image sensor with polarization-sensitive jots

Also Published As

Publication number Publication date
JP2023041050A (ja) 2023-03-23
US20230081017A1 (en) 2023-03-16
CN115811647A (zh) 2023-03-17

Similar Documents

Publication Publication Date Title
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
EP3004851B1 (de) Verfahren zur bestimmung der brechkraft eines transparenten objekts sowie entsprechende vorrichtung
WO2011124406A1 (de) Farbmaske für einen bildsensor einer fahrzeugkamera
DE102011106072A1 (de) Schattenentfernung in einem durch eine fahrzeugbasierte kamera erfassten bild unter verwendung einer optimierten ausgerichteten linearen achse
DE102013212495A1 (de) Verfahren und Vorrichtung zur Inspektion einer konturierten Fläche,insbesondere des Unterbodens eines Kraftfahrzeugs
DE102009001122B4 (de) 1 - 15Kameraanordnung und Verfahren zum Ermitteln von Bildsignalen mit Farbwerten
DE112014006439T5 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE102011051583A1 (de) Bildaufnahmevorrichtung für ein Fahrzeug
DE112017007695T5 (de) Facettenaugen-bildaufnahmevorrichtung, bildverarbeitungsverfahren, programm und aufzeichnungsmedium
DE102006055905A1 (de) Verfahren zur Fahrzeugumfelderkennung und Vorrichtung zur Umfelderkennung in einem Kraftfahrzeug
EP2856755A1 (de) Vorrichtung und verfahren zur aufnahme von bildern eines fahrzeugunterbodens
WO2017041795A1 (de) Stereokameravorrichtung zur umgebungserfassung eines kraftfahrzeugs, kraftfahrzeug mit einer solchen stereokameravorrichtung sowie ein verfahren zur erkennung von regentropfen oder ablagerungen
DE602004003771T2 (de) Verfahren und Vorrichtung zur Farbunterscheidung von Fahrbahnmarkierungen
DE102022201523A1 (de) Ein Bildsensor, ein Verfahren zum Betreiben eines Bildsensors, ein Verfahren zum Herstellen eines Bildsensors und ein stationäres Gerät oder ein Fahrzeug oder eine Drohne mit einem Bildsensor
EP4184932A1 (de) Ein bildsensor, ein verfahren zum betreiben eines bildsensors, ein verfahren zum herstellen eines bildsensors und ein stationäres gerät oder ein fahrzeug oder eine drohne mit einem bildsensor
DE102019128781A1 (de) Verfahren zur Erzeugung eines Ausgabesignals eines PDAF-Bildpunkts
DE102016105579A1 (de) Optisches Filter für eine Kamera eines Kraftfahrzeugs, Kamera für ein Fahrerassistenzsystem, Fahrerassistenzsystem sowie Kraftfahrzug mit einem Fahrerassistensystem
WO2013068521A1 (de) Vorrichtung und verfahren zum mechanischen ausdünnen von blüten
EP4102492A1 (de) Verfahren und vorrichtung zur lichttechnischen vermessung eines elektronischen displays sowie verfahren zur ansteuerung eines elektronischen displays
DE102021132645A1 (de) Bildsensoranordnung, Fahrzeugkamera und Verfahren zur Steuerung einer Bildsensoranordnung
DE2006474B2 (de) Abbildungsvorrichtung fuer eine farbcodierkamera
DE102018212179A1 (de) Bildverarbeitungsvorrichtung und verfahren zur bildverarbeitung
DE102005011599B4 (de) Verfahren und Vorrichtung zur Verkehrsraumüberwachung
WO2011067249A1 (de) Verfahren und vorrichtung zur anpassung von bildinformationen eines optischen systems
DE102014112914A1 (de) Verfahren zum Segmentieren eines Bildes, Fahrerassistenzsystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005335000

Ipc: H04N0025000000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0025000000

Ipc: H04N0025110000

R016 Response to examination communication