DE102012221356A1 - Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation - Google Patents

Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation Download PDF

Info

Publication number
DE102012221356A1
DE102012221356A1 DE102012221356A DE102012221356A DE102012221356A1 DE 102012221356 A1 DE102012221356 A1 DE 102012221356A1 DE 102012221356 A DE102012221356 A DE 102012221356A DE 102012221356 A DE102012221356 A DE 102012221356A DE 102012221356 A1 DE102012221356 A1 DE 102012221356A1
Authority
DE
Germany
Prior art keywords
image pickup
light
image
pickup element
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012221356A
Other languages
English (en)
Inventor
Wolfgang Sepp
Johannes Foltin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102012221356A priority Critical patent/DE102012221356A1/de
Priority to CN201380031882.1A priority patent/CN104603586B/zh
Priority to US14/409,954 priority patent/US9521387B2/en
Priority to PCT/EP2013/058984 priority patent/WO2013189652A1/de
Publication of DE102012221356A1 publication Critical patent/DE102012221356A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0488Optical or mechanical part supplementary adjustable parts with spectral filtering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0474Diffusers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4228Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7904Processing of colour television signals in connection with recording using intermediate digital signal processing

Abstract

Die Erfindung betrifft einen Sensor zur Erfassung von Licht mit einem Bildaufnehmer mit einem ersten Bildaufnahmeelement (231) und einem benachbart zu dem ersten ersten Bildaufnahmeelement (231) angeordneten zweiten Bildaufnahmeelement (233) sowie mit einem optischen Element, das ausgebildet ist, um einen ersten Anteil (225) eines in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) auf das zweite Bildaufnahmeelement (233) zu lenken und einen zweiten Anteil (227) des in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) auf das erste Bildaufnahmeelement (231) einfallen zu lassen.

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf einen Sensor und ein Verfahren zur Erfassung von Licht und auf ein Verfahren und eine Vorrichtung zur Ermittlung einer Farbinformation.
  • Fahrzeuge sind mit weiß strahlenden Frontscheinwerfern und rot strahlenden Rückleuchten ausgestattet. Um festzustellen, ob sich ein Fremdfahrzeug dem eigenen Fahrzeug annähert oder sich von dem eigenen Fahrzeug entfernt, kann die Farbe der Lichter des Fremdfahrzeugs ausgewertet werden.
  • Die WO 2004/011890 A1 befasst sich mit einem optischen System, mit dem kleine, entfernte Lichtquellen zuverlässig erkannt werden können.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit der vorliegenden Erfindung ein Sensor und ein Verfahren zur Erfassung von Licht sowie ein Verfahren und eine Vorrichtung zur Ermittlung einer Farbinformation gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Um die Farbe einer kleinen Lichtquelle, beispielsweise eines weit entfernten Lichtes eines Fahrzeugs, basierend auf einer Aufnahme der Lichtquelle durch einen Bildaufnehmer erkennen zu können, kann das von der Lichtquelle ausgestrahlte Licht vor dem Auftreffen auf sensitiven Bildaufnahmeelementen des Bildaufnehmers von einem optischen Element beeinflusst werden. Durch die Beeinflussung kann gewährleistet werden, dass das ausgestrahlte Licht von zumindest zwei Bildaufnahmeelementen des Bildaufnehmers erfasst wird. Die zumindest zwei Bildaufnahmeelemente können zur Erfassung unterschiedlicher Farben oder Frequenzbereichen des ausgestrahlten Lichts vorgesehen sein. Auf diese Weise lässt sich die Farbe auch sehr kleiner Lichtquellen zuverlässig bestimmen.
  • Ein Sensor zur Erfassung von Licht weist folgende Merkmale auf:
    einen Bildaufnehmer mit einem ersten Bildaufnahmeelement und einem benachbart zu dem ersten ersten Bildaufnahmeelement angeordneten zweiten Bildaufnahmeelement; und
    ein optisches Element, das ausgebildet ist, um einen ersten Anteil eines in Richtung des ersten Bildaufnahmeelements einfallenden Lichts auf das zweite Bildaufnahmeelement zu lenken und einen zweiten Anteil des in Richtung des ersten Bildaufnahmeelements einfallenden Lichts auf das erste Bildaufnahmeelement einfallen zu lassen.
  • Bei dem Bildaufnehmer kann es sich um einen Bildsensor oder Imager, beispielsweise einer Kamera handeln. Der Bildaufnehmer kann ein Feld aus zumindest den zwei Bildaufnahmeelementen oder aus einer Vielzahl benachbart zueinander angeordneten Bildaufnahmeelementen aufweisen. Dabei kann ein erstes Bildaufnahmeelement jeweils direkt angrenzend zu einem zweiten Bildaufnahmeelement angeordnet sein. Jedes Bildaufnahmeelement kann ausgebildet sein, um eine Intensität eines auf eine sensitive Fläche des Bildaufnahmeelements einfallenden Lichts zu erfassen und ein die Intensivität repräsentierendes Bildsignal zu erzeugen. Unter einem Bildaufnahmeelement kann ein Bildpunkt, ein sogenanntes Pixel, verstanden werden. Das Licht kann einem von einer Lichtquelle ausgesendeten Lichtstrahl entsprechen. Die Lichtquelle kann aufgrund ihres Abstands zu dem Sensor, von dem Bildaufnehmer aus gesehen, eine so geringe Ausdehnung aufweisen, dass das in Richtung des zweiten Bildaufnahmeelements einfallende Licht umgebende weitere Lichtstrahlen keine Information über die Lichtquelle umfassen. Wäre das optische Element nicht vorhanden, so würde das in Richtung des zweiten Bildaufnahmeelements einfallende Licht ausschließlich auf das zweite Bildaufnahmeelement fallen und es würde kein angrenzendes Bildaufnahmeelement von dem Licht bestrahlt werden. Durch das optische Element kann das in Richtung des zweiten Bildaufnahmeelements einfallende Licht aufgeweitet oder aufgefächert werden, sodass neben dem zweiten Bildaufnahmeelement auch das erste Bildaufnahmeelement von dem durch das optische Element beeinflusste Licht bestrahlt wird. Somit kann eine in dem Licht enthaltene Information, beispielsweise über die Lichtquelle, von den zwei benachbarten Bildaufnahmeelementen erfasst werden.
  • Das optische Element kann ausgebildet sein, um über einer Schwelle liegende Frequenzanteile des Lichts zu entfernen. Dies entspricht einer Weichzeichnung. Auf diese Weise können klein erscheinende Lichtquellen zumindest auf die zwei Bildaufnahmeelemente abgebildet werden.
  • Beispielsweise kann das optische Element einen Diffusor oder eine Defokussiereinrichtung umfassen. Durch ein solches Element kann eine Unschärfe erzeugt werden, die dazu führt, dass das in Richtung des zweiten Bildaufnahmeelements einfallende Licht aufgeweitet wird und über eine äußere Grenze des zweiten Bildaufnahmeelements tritt. Das Licht wird dabei unscharf auf die Ebene der Bildaufnahmeelemente abgebildet.
  • Gemäß einer Ausführungsform kann das zweite Bildaufnahmeelement für eine erste Farbe sensitiv und für eine zweite Farbe nicht sensitiv sein. Das erste Bildaufnahmeelement kann für die zweite Farbe sensitiv sein. Eine Farbsensitivität eines Bildaufnahmeelements kann mittels eines dem Bildaufnahmeelement zugeordneten Farbfilters bestimmt sein, durch den auf das Bildaufnahmeelement einfallendes Licht geführt wird. Beispielsweise kann das zweite Bildaufnahmeelement eine Sensitivität für rote Farbe und das erste Bildaufnahmeelement eine Sensitivität für weiße Farbe aufweisen. Somit können bekannte Bildaufnehmer eingesetzt werden.
  • Das optische Element kann ausgebildet sein, um einen ersten Anteil eines der ersten Farbe entsprechenden Lichtanteils des in Richtung des ersten Bildaufnahmeelements einfallenden Lichts auf das zweite Bildaufnahmeelement zu lenken und einen zweiten Anteil des der ersten Farbe entsprechenden Lichtanteils des in Richtung des ersten Bildaufnahmeelements einfallenden Lichts auf das erste Bildaufnahmeelement fallen zu lassen. Ferner kann das optische Element ausgebildet sein, um einen der zweiten Farbe entsprechenden Lichtanteil des in Richtung des ersten Bildaufnahmeelements einfallenden Lichts vollständig auf das erste Bildaufnahmeelement fallen zu lassen. Auf diese Weise kann beispielsweise nur ein bestimmter Farbanteil des Lichts unscharf auf die Bildaufnahmeelemente abgebildet werden.
  • Gemäß einer Ausführungsform kann das optische Element eine beabstandet zu den Bildaufnahmeelementen angeordnete Beugungsstruktur zur Beugung zumindest eines Teils des in Richtung des ersten Bildaufnahmeelements einfallenden Lichts in Richtung des zweiten Bildaufnahmeelements umfassen. Die Beugungsstruktur kann aus beabstandet zueinander angeordneten Beugungselementen aufgebaut sein. Der erste Anteil des Lichts kann durch ein solches Beugungselement abgelenkt werden, also eine Richtungsänderung erfahren, und dadurch auf das zweite Bildaufnahmeelement treffen. Ein Abstand zwischen den Bildaufnahmeelementen und der Beugungsstruktur kann so gewählt sein, dass der erste Anteil des Lichts aufgrund der Ablenkung durch die Beugungsstruktur auf eine dem zweiten Bildaufnahmeelement zugeordnete Fläche des Bildaufnehmers erreichen kann. Zwischen den Bildaufnahmeelementen und der Beugungsstruktur kann eine für das Licht durchlässige Zwischenschicht angeordnet sein. Dies ermöglicht einen einfachen Aufbau des Sensors.
  • Eine solche Beugungsstruktur kann beispielsweise eine Gitterstruktur, eine Linienstruktur oder eine Punktstruktur aufweisen. Solche Strukturen eignen sich insbesondere dann, wenn der Bildaufnehmer eine Mehrzahl erster und zweiter Bildaufnahmeelemente aufweist.
  • Gemäß einer Ausführungsform können das erste Bildaufnahmeelement und das zweite Bildaufnahmeelement die gleiche Farbsensitivität aufweisen. Ferner kann die Beugungsstruktur als ein Farbfilter ausgeführt sein. Auf diese Weise kann ein Ausrichten der Beugungsstruktur gegenüber den Bildaufnahmeelementen entfallen oder vereinfacht werden. Zudem kann der Bildaufnehmer einfacher hergestellt werden, da benachbarte erste und zweite Bildaufnahmeelemente gleich ausgeführt werden können.
  • Der Bildaufnehmer kann ein Halbleiterelement sein. Der Bildaufnehmer kann beispielsweise in CMOS-Technik oder CCD-Technik hergestellt sein. Ein Bildaufnahmeelement kann als eine Fotodiode realisiert sein. Auf diese Weise können für Videokameras gängige Bildaufnehmer eingesetzt werden.
  • Ein Verfahren zur Erfassung von Licht umfasst die folgenden Schritte:
    Lenken eines ersten Anteils eines in Richtung eines ersten Bildaufnahmeelements einfallenden Lichts auf ein zweites Bildaufnahmeelement, wobei das erste Bildaufnahmeelement benachbart zu dem zweiten Bildaufnahmeelement auf einem Bildaufnehmer angeordnet ist;
    Einfallen lassen eines zweiten Anteils des in Richtung des ersten Bildaufnahmeelements einfallenden Lichts auf das erste Bildaufnahmeelement;
    Erfassen des ersten Anteils unter Verwendung des zweiten Bildaufnahmeelements; und
    Erfassen des zweiten Anteils mit dem ersten Bildaufnahmeelement.
  • Das Verfahren kann unter Verwendung im Vorhergehenden genannten optischen Element ausgeführt werden, das in Einfallrichtung des Lichts vor den Bildaufnahmeelementen angeordnet ist.
  • Ein Verfahren zur Ermittlung einer Farbinformation eines von einem genannten Sensor erfassten Lichts umfasst die folgenden Schritte:
    Vergleichen eines Intensitätswerts eines ersten Bildsignals des ersten Bildaufnahmeelements mit einem Intensitätswert eines zweiten Bildsignals des zweiten Bildaufnahmeelements, um die Farbinformation zu ermitteln.
  • Ein Intensitätswert eines Bildsignals eines Bildaufnehmers kann eine von dem Bildaufnehmer erfasste Lichtintensität repräsentieren. Beispielsweise kann der Intensitätswert umso größer sein, umso größer die von dem Bildaufnehmer erfasste Lichtintensität ist. Das Bildsignal kann ein elektrisches Signal sein und der Intensitätswert kann beispielsweise ein Wert einer elektrischen Spannung oder eines elektrischen Stroms sein.
  • Eine entsprechende Vorrichtung zur Ermittlung einer Farbinformation eines von einem genannten Sensor erfassten Lichts weist die folgenden Merkmale auf:
    eine Einrichtung zum Vergleichen eines Intensitätswerts eines ersten Bildsignals des ersten Bildaufnahmeelements mit einem Intensitätswert eines zweiten Bildsignals des zweiten Bildaufnahmeelements, um die Farbinformation zu ermitteln.
  • Gemäß einer Ausführungsform umfasst ein Verfahren zur Steuerung eines Lichteinfalls auf einen Bildaufnehmer mit zumindest zwei benachbarten Bildaufnahmeelementen unterschiedlicher Farbsensitivität, die folgenden Schritte:
    Empfangen eines Lichtanteils, der eine Lichtinformation einer Lichtquelle umfasst, wobei der Lichtanteil eine Ausdehnung aufweist, die einer Fläche eines einzigen der Bildaufnahmeelemente des Bildaufnehmers entspricht; und
    Aufweiten des Lichtanteils, um einen aufgeweiteten Lichtanteil mit einer aufgeweiteten Ausdehnung zu erhalten, die zumindest einer Fläche zweier benachbarter der Bildaufnahmeelemente des Bildaufnehmers entspricht.
  • Dabei können im Schritt des Aufweitens oberhalb einer Schwellfrequenz liegende Frequenzanteile des Lichtanteils herausgefiltert werden, um den aufgeweiteten Lichtanteil zu erhalten. Dazu kann ein Tiefpassfilter eingesetzt werden. Die Schwellfrequenz kann abhängig von einer geometrischen Form und Anordnung der Bildaufnahmeelemente sowie einer Aufteilung der unterschiedlichen Farbsensitivitäten auf die Bildaufnahmeelemente gewählt sein.
  • Auch kann im Schritt des Aufweitens der Lichtanteil durch einen Diffusor geleitet werden, um den aufgeweiteten Lichtanteil zu erhalten. Ein Diffusor kann ein in den Strahlengang eingebrachtes optisches Element sein, das ausgebildet ist, um ein von dem Bildaufnehmer erzeugtes Bild gezielt zu verunschärfen, wodurch sich die Kantenschärfe des Bilds verringert. Dies bietet sich insbesondere bei einer Aufnahme von unterschiedlich weit entfernten Objekten an.
  • Ferner kann im Schritt des Aufweitens der Lichtanteil durch Defokussieren aufgeweitet werden, um den aufgeweiteten Lichtanteil zu erhalten. Dies bietet sich insbesondere bei einer Aufnahme ebener Objekte an.
  • Gemäß einer Ausführungsform umfasst das Verfahren einen Schritt des Aufteilens des Lichtanteils in einen ersten Lichtanteil mit einem ersten Farbanteil und einen zweiten Lichtanteil mit einem zweiten Farbanteil. Im Schritt des Aufweitens kann der zweite Farbanteil aufgeweitet werden, um einen aufgeweiteten zweiten Lichtanteil zu erhalten. In einem Schritt des Zusammenführens kann der erste Lichtanteil mit dem aufgeweiteten zweiten Lichtanteil zusammengeführt werden, um den aufgeweiteten Lichtanteil zu erhalten. Durch das Auskoppeln des zweiten Lichtanteils kann eine farbspezifische Unschärfe erzeugt werden. Beispielsweise kann ein Rotanteil einfallenden Lichts unscharf gemacht werden. Dies bietet sich bei Bildaufnehmern an, die im Verhältnis zu der Farbe Weiß zugeordneten Bildaufnahmeelementen nur wenige der der Farbe Rot zugeordneten Bildaufnahmeelementen aufweisen.
  • Gemäß einer Ausführungsform kann jedes der Bildaufnahmeelemente eine Anzahl von Bildaufnahmepunkten umfassen, wobei jeder der Bildaufnahmepunkte ausgebildet ist, um ein Bildsignal zu erzeugen. In einem Schritt des Zusammenfassens kann jeweils eine der Anzahl von Bildaufnahmepunkten pro Bildaufnahmeelement entsprechenden Anzahl von Bildsignalen zu einem zusammengefassten Bildsignal zusammengefasst werden.
  • Dies ermöglicht es, abweichend von einem bisher eingesetzten Bildaufnehmer einen Bildaufnehmer mit einer höheren Auflösung einzusetzen, wobei durch das Zusammenfassen der Bildsignale wieder die Auflösung des bisher eingesetzten Bildaufnehmers erzielt wird. Dies ermöglicht einen problemlosen Ersatz bisher eingesetzter Bildaufnehmer durch Bildaufnehmer entsprechend dem erfindungsgemäßen Ansatz.
  • Gemäß einer Ausführungsform umfasst ein Verfahren zur Ermittlung einer Farbinformation eines mit einem Bildaufnehmer mit zumindest zwei benachbarten Bildaufnahmeelementen unterschiedlicher Farbsensitivität aufgenommenen Lichtanteils, die folgenden Schritte:
    Erzeugen eines aufgeweiteten Lichtanteils entsprechend einem Verfahren zur Steuerung eines Lichteinfalls auf einen Bildaufnehmer;
    Erfassen des aufgeweiteten Lichtanteils durch die zwei benachbarten Bildaufnahmeelemente unterschiedlicher Farbsensitivität, wobei einem der benachbarten Bildaufnahmeelemente eine erste Farbsensitivität und dem anderen der benachbarten Bildaufnahmeelemente eine zweite Farbsensitivität zugeordnet ist; und
    Vergleichen einer Intensität eines ersten Bildsignals des ersten Bildaufnahmeelements mit einem Intensitätswert eines zweiten Bildsignals des zweiten Bildaufnahmeelements, um die Farbinformation zu Ermitteln.
  • Durch den Vergleich der Bildsignale kann unter Kenntnis der Farbsensitivitäten der zugeordneten Bildaufnahmeelemente einfach und zuverlässig auf die Farbe des von den zumindest zwei benachbarten Bildaufnahmeelementen erfassten Lichtanteils geschlossen werden. Beispielsweise kann dem ersten Bildaufnahmeelement eine Farbsensitivität für die Farbe rot und dem zweiten Bildaufnahmeelement eine Farbsensitivität für die Farbe weiß zugewiesen sein. In diesem Beispiel erhält das „weiße“ Bildaufnahmeelement die ungefilterte Intensität. Das „rote“ Bildaufnahmeelement entfernt alle Lichtanteile (Energie im Lichtsignal), die nicht rot sind. Wenn das erste Bildsignal und das zweite Bildsignal gleich sind, also gleich große Werte repräsentieren, bedeutet das, dass das „rote“ Bildaufnahmeelement keine Energie entfernt hat und folglich das Lichtsignal rot sein muss. Wenn die von den beiden Bildsignalen repräsentierten Werte unterschiedlich sind (weiß > rot), heißt das, dass der rote Farbfilter des „roten“ Bildaufnahmeelements Energie aus dem Lichtsignal „entfernt“ hat, die dann nicht mehr auf dem lichtsensitiven Element landet. Daher ist das Licht nicht rot gewesen, sondern war beispielsweise weiß.
  • Es kann eine entsprechende Vorrichtung vorgesehen werden, die ausgebildet ist, um die Schritte eines oder mehrerer der genannten Verfahren in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Vorteilhafterweise kann durch den beschriebenen Ansatz ein Bildaufnehmer eingespart werden, im Vergleich zu einem Ansatz bei dem zumindest zwei Bildaufnehmer verwendet werden, die für verschiedene Farben sensitiv sind (z. B. Intensität "farblos" und rot). Dabei teil ein Strahlteiler das einfallende Licht in zwei Teile bzw. zwei optische Pfade oder es ist beispielsweise eine Linse für jeden Bildaufnehmer vorhanden. Dadurch können die Farbintensitäten des einen Bildaufnehmers genau mit den Intensitäten des zweiten Bildaufnehmers miteinander verrechnet werden.
  • Prinzipiell kann das Licht in zwei optische Pfade aufgetrennt werden, ein Pfad gefiltert und wieder mit dem zweiten Pfad gemischt werden. Die Filterung kann beispielsweise aus dem Entfernen von allen Anteilen außer Rot und Einbringen einer zusätzlichen Unschärfe in diesem optischen Pfad bestehen.
  • Bei der Verwendung von zwei optischen Pfaden soll bei der Konstruktion und Herstellung sichergestellt werden, dass beide Pfade exakt zueinander ausgerichtet sind. Die Verwendung eines einzelnen Pfades kann daher vorteilhaft sein.
  • Ferner kann eine bewusste farbselektive Unschärfe ausgenutzt werden, um mit einem Objektiv, das einen festen Fokus besitzt, eine größere Tiefenschärfe zu erreichen. Dazu kann ein optisches Element in Form einer Linse charakterisiert und so ausgelegt werden, dass die unterschiedlichen Farbkanäle unterschiedliche Schärfebereiche haben. In einer nachgeschalteten Bildverarbeitung kann der Farbkanal mit der größten Schärfe, für einen Bereich, gesucht werden. Die anderen Farbkanäle können, da die Charakteristik der Linse bekannt ist, so verrechnet werden, dass auch hier eine scharfe Abbildung möglich ist. Die Farbfehler können so für eine fehlerfreie scharfe Abbildung herausgerechnet werden.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1A ein Fahrzeug mit einer Vorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 1B eine schematische Darstellung eines Sensors, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • 2 und 3 schematische Darstellungen eines Ausschnitts eines Bildaufnehmers;
  • 4 und 5 schematische Darstellungen eines Ausschnitts eines Bildaufnehmers gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 6 eine schematische Darstellung einer Bilderfassungseinrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 7 ein Ablaufdiagramm eines Verfahrens zur Ermittlung einer Farbinformation gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 8 eine Veranschaulichung einer farbselektiven Brechung oder chromatischen Abberation anhand eines Ausführungsbeispiels der vorliegenden Erfindung;
  • 9 eine Veranschaulichung einer farbselektiven Beugung oder Diffraktion anhand eines Ausführungsbeispiels der vorliegenden Erfindung;
  • 10 eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 11 ein optisches Element gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 12 ein optisches Element gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 13 einen Bildaufnehmer gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 14 einen Bildaufnehmer gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 15 eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 16 eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 17 eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 18 ein Ablaufdiagramm eines Verfahrens zur Erfassung von Licht gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
  • 19 ein Ablaufdiagramm eines Verfahrens zur Ermittlung einer Farbinformation eines von einem Sensor erfassten Lichts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1A zeigt ein Fahrzeug 100 mit einer Vorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeug 100 weist eine Kamera 102 auf, die ausgebildet ist, um ein Bild einer Umgebung des Fahrzeugs 100 zu erfassen und an eine Bildauswerteeinrichtung 104 auszugeben. Die Bildauswerteeinrichtung 104 ist ausgebildet, um das Bild auszuwerten und eine ausgewertete Bildinformation an ein Assistenzsystem 106 des Fahrzeugs 100 auszugeben.
  • In der Umgebung des Fahrzeugs 100 befindet sich ein weiteres Fahrzeug 120. Das weitere Fahrzeug 120 weist eine Rückleuchte 122 auf, die sich im Erfassungsbereich der Kamera 102 befindet. Von der Rückleuchte 122 aktiv ausgestrahltes oder reflektiertes Licht 124 wird von einem Bildaufnehmer der Kamera 102 erfasst. Die Bildauswerteeinrichtung 104 ist ausgebildet, um die Rückleuchte 122 als Beleuchtungsmittel des Fahrzeugs 120 zu erkennen und eine Farbe des Lichts 124 zu erkennen. Basierend auf der Information, dass von der Kamera 102 das Licht 124 einer bestimmten Farbe des Beleuchtungsmittels 122 des weiteren Fahrzeugs 122 erfasst wurde, kann das Assistenzsystem 106 darauf schließen, das eine Heckansicht und nicht eine Frontansicht des weiteren Fahrzeug 102 von der Kamera 102 erfasst wurde.
  • Bei einem Assistenzsystem 106 in Form eines Fernlichtassistenten werden verschiedene Situationen klassifiziert, um die Lichtverteilung an die erkannte Situation zu optimieren. Für eine gute Situations-Klassifikation ist die Farbe der Lichtquelle 122, die von der Kamera 102 erkannt wird, wichtig, da damit eine Abschätzung der Fahrtrichtung des weiteren Fahrzeugs 120 erfolgen kann.
  • Bei einem weit entfernten weiteren Fahrzeug 120 kann aber nicht unbedingt zwischen vorausfahrendem und entgegenkommendem Fahrzeug 120 unterschieden werden, wenn die Lichtquelle 122 auf genau einen Bildpunkt eines Bildaufnehmers der Kamera 102 abgebildet wird. Für die Farbrekonstruktion muss zumindest die farbige Lichtquelle 122, z. B. ein rotes Rücklicht, auf mindestens zwei Bildpunkte unterschiedlicher Farbe oder Farbfilter abgebildet werden.
  • 1B zeigt einen Sensor zur Erfassung von Licht gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Der Sensor kann beispielsweise als Bildsensor in der in 1A gezeigten Kamera eingesetzt werden. Der Sensor weist einen Bildaufnehmer 210 und ein optisches Element 212 auf. Der Bildaufnehmer 210 weist ein erstes Bildaufnahmeelement 231 und ein an das erste Bildaufnahmeelement 231 angrenzendes zweites Bildaufnahmeelement 233 auf. Das optische Element 212 ist in einer Einfallrichtung eines Lichtstrahls 124 vor dem Bildaufnehmer 210 angeordnet. Schematisch ist in 1B der eine Lichtstrahl 124 dargestellt, der ohne Vorhandensein des optischen Elements 212 ausschließlich auf eine von dem ersten Bildaufnahmeelement 231 abgedeckte Fläche des Bildaufnehmers 210 treffen würde. Durch das Vorhandensein des optischen Elements 212 wird der Lichtstrahl 124 aufgespalten. Ein erster Anteil 225 des Lichtstrahls 124 wird durch das optische Element 212 in Richtung des des zweiten Bildaufnahmeelements 233 gelenkt und von dem zweiten Bildaufnahmeelement 233 erfasst. Ein zweiter Anteil 227 des Lichtstrahls 124 wird von dem optischen Element 212 entweder nicht beeinflusst oder zu dem ersten Bildaufnahmeelement 233 durchgelassen oder geleitet. Der zweite Anteil 227 des Lichtstrahls 124 wird von dem ersten Bildaufnahmeelement 231 erfasst.
  • Das erste Bildaufnahmeelement 231 ist ausgebildet, um ein erstes Bildsignal 235 auszugeben, das eine Intensität des von dem ersten Bildaufnahmeelement 231 erfassten zweiten Anteils 227 des Lichtstrahls 124 repräsentiert. Das zweite Bildaufnahmeelement 233 ist ausgebildet, um ein zweites Bildsignal 237 auszugeben, das eine Intensität des von dem zweiten Bildaufnahmeelement 233 erfassten ersten Anteils 225 des Lichtstrahls 124 repräsentiert.
  • Der Bildaufnehmer 210 kann eine Mehrzahl weiterer in 1B nicht gezeigter erster und zweiter Bildaufnahmeelemente aufweisen, die beispielsweise alternierend benachbart zu den gezeigten Bildaufnahmeelementen 231, 233 angeordnet sein können.
  • Die Bildsignale 235, 237 können beispielsweise von einer Vorrichtung zur Ermittlung der Farbinformation des von dem Sensor erfassten Lichtstrahls 124 über eine geeignete Schnittstelle empfangen und weiterverarbeitet werden. Eine solche Vorrichtung kann beispielsweise Teil der in 1A gezeigten Bildauswerteeinrichtung sein. Die Vorrichtung zur Ermittlung der Farbinformation kann dazu eine Einrichtung zum Vergleichen eines Intensitätswerts des ersten Bildsignals 235 des ersten Bildaufnahmeelements 231 mit einem Intensitätswert des zweiten Bildsignals 237 des zweiten Bildaufnahmeelements 233 umfassen. Durch Ausführung des Vergleichs kann auf die Farbe des Lichtstrahls 124 geschlossen werden.
  • Gemäß unterschiedlicher Ausführungsbeispiele kann das optische Element 212 beispielsweise als ein Diffusor oder eine Defokussiereinrichtung, als eine Einrichtung zum Auskoppeln und Einkoppeln eines Anteils des Lichts 124, oder als eine Beugungsstruktur ausgeführt sein. Je nach Ausführungsform des optischen Elements 212 können die Bildaufnahmeelemente 231, 233, die im Folgenden auch als Bildpunkte oder Pixel bezeichnet werden, mit gleicher Farbsensitivität oder mit unterschiedlicher Farbsensitivität realisiert sein.
  • Die 2 und 3 zeigen jeweils eine schematische Darstellung eines Ausschnitts eines Bildaufnehmers einer Kamera. Der Bildaufnehmer weist eine Mehrzahl von in Spalten und Zeilen nebeneinander angeordneten Bildaufnahmeelementen 231, 233 auf, die im Folgenden auch als Bildpunkte oder Pixel-Elemente bezeichnet werden. Beispielhaft ist ein erster Bildpunkt 231 und ein zweiter Bildpunkt 233 gezeigt, die den anhand von 1B beschriebenen Bildaufnahmeelementen entsprechen können. Bei dem ersten Bildpunkt 231 handelt es sich um einen Intensitäts-Pixel „weiß“ und bei dem zweiten Bildpunkt 233 um einen Rotpixel. Der erste Bildpunkt 231 ist ausgebildet, um die Intensität von weißem Licht oder von im weißen Licht enthaltenen Spektralfarben zu erfassen. Der zweite Bildpunkt 233 ist ausgebildet, um die Intensität von rotem Licht zu erfassen.
  • In 2 wird der erste Bildpunkt 231 von Licht 124 beleuchtet, das beispielsweise von der in 1A gezeigten Rückleuchte des weiteren Fahrzeugs ausgestrahlt sein kann. In diesem Fall wird von dem ersten Bildpunkt 231 ein erstes Bildsignal 235 ausgeben, dass eine Intensität des Lichts 124 repräsentiert. Das erste Bildsignal 235 wird aufgrund der Farbsensitivität des ersten Bildpunkts 231 der Farbe Weiß zugeordnet. Jedoch wird das erste Bildsignal 235 sowohl ausgegeben, wenn es sich bei dem Licht 124 um weißes Licht handelt, als auch ausgegeben, wenn es sich bei dem Licht 124 um rotes Licht handelt.
  • In 3 wird der zweite Bildpunkt 233 von Licht 124 beleuchtet, das beispielsweise von der in 1A gezeigten Rückleuchte des weiteren Fahrzeugs ausgestrahlt sein kann. In diesem Fall wird von dem zweiten Bildpunkt 233 ein zweites Bildsignal 237 ausgeben, dass eine Intensität des Lichts 124 repräsentiert. Das zweite Bildsignal 237 wird aufgrund der Farbsensitivität des zweiten Bildpunkts 233 der Farbe Rot zugeordnet. Jedoch wird das zweite Bildsignal 237 sowohl ausgegeben, wenn es sich bei dem Licht 124 um weißes Licht handelt, als auch ausgegeben, wenn es sich bei dem Licht 124 um rotes Licht handelt.
  • Fällt Licht 124 in Form eines schmalen, hier beispielsweise roten Peaks, wie bei einer entfernten Rückleuchte, nur auf einen der Bildpunkte 231, 233, wie es in den 2 und 3 dargestellt ist, so ist eine Farbrekonstruktion nicht mehr möglich.
  • Das in den 2 und 3 gezeigte Ausführungsbeispiel kann sich auf Video-Kameras im Automobil-Bereich beziehen, die meist Bildpunkte 231 in Form von Intensitäts-Pixeln „grau" / „weiß" und Bildpunkte 233 in Form von Rotpixeln besitzen. Die Bildpunkte 233 entsprechen Intensitäts-Pixeln „Weiß", wobei gewisse spektrale Anteile des einfallenden Lichts 124 so herausgefiltert werden, dass nur noch der Rot-Anteil übrig bleibt.
  • Als Intensitätspixel oder Weiß-Pixel dienende Bildpunkte 231 und als Rotpixel dienende Bildpunkte 233 werden unter anderem dazu genutzt, Rücklichter (rot) von Frontscheinwerfern (weiß) zu unterscheiden. Rote Rücklichter erzeugen auf einem Rotpixel 233 die gleiche Intensität („Grauwert") wie auf einem ungefilterten Weiß-Pixel 231. Frontscheinwerfer erzeugen auf einem als Weiß-Pixel dienenden Bildpunkt 231 eine deutlich höhere Intensität als auf einem als Rot-Pixel dienenden Bildpunkt 233, da beim als Rot-Pixel dienenden Bildpunkt 231 die nicht-roten Anteile weggefiltert wurden, die beim als Weiß-Pixel dienenden Bildpunkt 233 mit gemessen werden. Durch die „verschiedenfarbigen" Bildpunkte 231, 233 ist eine beschränkte Farbrekonstruktion möglich. Je mehr „verschiedenfarbige" Bildpunkte 231, 233 in der Kamera vorhanden sind, desto besser kann die tatsächliche Farbe rekonstruiert werden. Beispielsweise weisen Digitalkameras im Consumer-Bereich die Pixelkombination Rot, 2 × Grün und Blau auf.
  • Weit entfernte Lichter, wie Frontscheinwerfer oder Rückleuchten, werden durch die begrenzte Größe häufig nur auf einen einzelnen der Bildpunkte 231, 233 abgebildet. Wenn nur ein einzelner der Bildpunkte 231, 233, also entweder ein als rotes Pixel dienender Bildpunkt 231 oder ein als weißes Pixel dienender Bildpunkt 233 beleuchtet wird, kann keine Aussage getroffen werden, ob es sich um einen Frontscheinwerfer (weiß) oder ein Rücklicht (rot) handelt, da der Helligkeitsunterschied zwischen „weiß" und „rot" nicht gemessen werden kann, da immer nur eine Farbe vorhanden ist. Eine Aussage, ob es sich um ein vorausfahrendes (rot) oder entgegenkommendes Fahrzeug (weiß) handelt, ist dann nicht mehr möglich.
  • Die 4 und 5 zeigen jeweils eine schematische Darstellung eines Ausschnitts eines Bildaufnehmers einer Kamera gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Dabei kann es sich um einen Bildaufnehmer der in 1A gezeigten Kamera handeln. Der Bildaufnehmer weist, wie anhand der 2 und 3 beschrieben, eine Mehrzahl von Bildpunkten auf, von denen beispielhaft ein erster Bildpunkt 231 und ein zweiter Bildpunkt 233 gezeigt sind. Bei dem ersten Bildpunkt 231 handelt es sich um einen Intensitäts-Pixel „weiß“ und bei dem zweiten Bildpunkt 233 um einen Rotpixel.
  • Das bereits anhand der 2 und 3 beschriebene einfallende Licht 124 ist durch Strichlinien dargestellt. Gemäß den anhand der 4 und 5 beschriebenen Ausführungsbeispielen wird das einfallende Licht 124 jedoch vor Auftreffen auf die Bildpunkte 231, 233 aufgeweitet, sodass es nicht jeweils nur einen einzigen der Bildpunkte 231, 233, sondern als geweitetes Licht 424, 524 beide Bildpunkte 231, 233 beleuchtet. Die Aufweitung wird gemäß diesem Ausführungsbeispiel durch ein oder mehrere optische Elemente realisiert, die im Strahlengang des einfallenden Lichts 124 angeordnet sind. Das Licht 124 wird somit so durch ein oder mehrere optische Elemente aufgeweitet, dass ein erster Anteil des Lichts 124 auf einen der Bildpunkte 231, 233 und ein zweiter Anteil des Lichts 124 auf den anderen der Bildpunkte 231, 233 fällt. Bei dem optischen Element kann es sich um das anhand von 1A beschriebene optische Element handeln.
  • Indem das einfallende Licht 124, das ohne Aufweitung entweder nur auf den ersten Bildpunkt 231 oder nur auf den zweiten Bildpunkt 233 fallen würde, auf beide Bildpunkte 231, 233 fällt, ist eine Rekonstruktion der Farbe des einfallenden Lichts 124 möglich. In dem in den 4 und 5 gezeigten Ausführungsbeispiel weist das einfallende Licht 124 und somit auch das geweitete Licht 424, 524 eine rote Farbe auf. In diesem Fall zeigen das erste Bildsignal 234 und das zweite Bildsignal 237 entweder, wie in 4 gezeigt, ungefähr die gleiche Intensität an, oder es zeigt das zweite Bildsignal 237, wie in 5 gezeigt, eine größere Intensität an.
  • Wäre das einfallende Licht 124 dagegen weiß, so würde jeweils das erste Bildsignal 235 eine größere Intensität anzeigen.
  • Somit kann durch einen Vergleich der Werte der Bildsignale 235, 237 auf eine Farbe des einfallenden Lichts 124 geschlossen werden.
  • Bei dem eingesetzten optischen Element kann es sich um einen Diffuser handeln. Durch den Einsatz des Diffusors wird eine Verbesserung der Farbrekonstruktion bei von Scheinwerfern oder Rücklichtern empfangenem Licht ermöglicht. Der Diffusor kann als ein selektiver Diffuser ausgebildet sein. Selektiv kann dabei auf einen bestimmten Farbanteil bezogen sein.
  • Gemäß einem Ausführungsbeispiel wird eine Farbrekonstruktion des in den 4 und 5 gezeigten Lichts 124 durch ein optisches Element zum Abschneiden hoher Frequenzanteile, was als „unscharf machen" bezeichnet werden kann, ermöglicht. Es werden durch optische Elemente alle Frequenzanteile entfernt, die oberhalb einer gewissen Schwelle liegen. Dies entspricht einem Weichzeichner. Dadurch werden schmale Lichtpunkte auf mindestens ein Weiß-Pixel 231 und ein Rotpixel 233 abgebildet, wodurch eine Farbrekonstruktion möglich wird. Die Lichtpunkte bzw. Scheinwerfer müssen eine Mindestgröße in der Realität besitzen und dürfen nur einen gewissen Mindestabstand besitzen, dass die Abbildungsvorschrift gilt.
  • Das Abschneiden der hohen Frequenzen kann auf unterschiedliche Weisen erfolgen. Ein Ausführungsbeispiel basiert auf einer Nutzung eines Diffusors. Gemäß einem weiteren Ausführungsbeispiel wird eine Abbildungsgleichung zur Abbildung eines realen Objekts auf ein Bild systematisch verletzt, sodass eine unscharfe Abbildung stattfindet. Dies entspricht einer De-fokussierung.
  • 6 zeigt eine schematische Darstellung einer Bilderfassungseinrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Die Bilderfassungseinrichtung kann Teil der in 1A gezeigten Kamera sein. Die Bilderfassungseinrichtung ist ausgebildet, um einfallendes Licht 124 in elektrische Bildsignale 335, 337 umzuwandeln.
  • Die Bilderfassungseinrichtung weist einen Bildaufnehmer mit einem Feld aus einer Mehrzahl von Bildpunkten auf, von denen ausschnittsweise die beiden bereits anhand der 2 bis 5 beschriebenen Bildpunkte 231, 233 gezeigt sind. Die Bilderfassungseinrichtung weist zumindest ein optisches Element 212 auf, das in einem Strahlengang des einfallenden Lichts 124 angeordnet ist. Das optische Element 212 ist ausgebildet, um das einfallende Licht 124 auf die beiden Bildpunkte 231, 233 aufzuteilen. Somit ist im optischen Pfad der Bilderfassungseinrichtung z.B. ein Diffusor oder eine Einrichtung zur Erzeugung einer defokussierten Abbildung vorhanden.
  • Jeder der Bildpunkte 231, 233 ist ausgebildet, um abhängig von einer Intensität und Farbe des von dem optischen Element 212 auf die Bildpunkte 231, 233 geführten und geweiteten Lichts 424 ein Bildsignal 235, 237 auszugeben. Die Bildsignale 235, 237 können beispielsweise von der in 1A gezeigten Auswerteeinrichtung ausgewertet werden. Gemäß diesem Ausführungsbeispiel weist der Bildpunkt 233 einen Filter 642 auf, der aus dem geweiteten Licht 424 bestimmte spektrale Anteile herausfiltert, sodass nur noch ein Rot-Anteil des geweiteten Lichts 424 auf eine optische Sensorfläche des Bildpunkts 233 trifft.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird in Form von Peaks eintreffendes Licht 124 bis zu einer gewissen Ausdehnung breit genug gemacht, sodass es von zumindest zwei benachbart angeordneten Bildpunkten erfasst werden kann.
  • Die Unschärfe, die gemäß Ausführungsbeispielen der vorliegenden Erfindung ins Bild kommt, kann durch Nutzung eines Bildaufnehmers in Form eines Imagers mit einer höheren Auflösung, anschließender Farbrekonstruktion und Binning zur jetzigen „ursprünglichen" Auflösung, reduziert werden. Binning kann als das Zusammenfassen benachbarter Bildelemente im Sensor zu Pixelblöcken verstanden werden. Dadurch wird eine höhere Lichtempfindlichkeit der Kamera erreicht, wobei sich jedoch im Gegenzug das Auflösungsvermögen entsprechend der Anzahl der zusammengefassten Bildelemente reduziert.
  • Gemäß einem Ausführungsbeispiel kann durch Einsatz eines optischen Elements 212 oder mehrerer optischer Elemente 212, farbspezifisch eine Unschärfe erzeugt werden. So kann beispielsweise nur der Rot-Anteil im Licht 124 unscharf abgebildet werden. Die farb-selektiv unscharfe Abbildung kann bei der relativ geringen Abtastung des Rotanteils im Bild bei einem R3I-Imager vorteilhaft sein. Bei einem R3I-Imager sind pro 4 Pixel (normalerweise ein 2×2 Pixel-Block) drei Intensitäts-Pixel (I; „weiß") und ein Rot-Pixel (R; „rot") vorhanden. Möglich wäre das z.B. durch Auskoppeln von Lichtteilen in einen zweiten optischen Pfad, in dem z.B. der Rot-Anteil unscharf gemacht wird, beispielsweise durch einen Diffusor oder De-fokussierung, und anschließend wieder eingekoppelt wird. Gemäß einem Ausführungsbeispiel erfolgt die Ein- und Auskopplung von Lichtteilen über einen oder mehrere semitransparente Spiegel. Somit kann das optische Element 212 beispielsweise eine Einrichtung zum Auskoppeln von Lichtteilen des Lichts 124 in einen zweiten optischen Pfad und eine Einrichtung zum Aufweiten des ausgekoppelten Lichtanteils aufweisen.
  • 7 zeigt ein Ablaufdiagramm eines Verfahrens zur Ermittlung einer Farbinformation eines mit einem Bildaufnehmer mit zumindest zwei benachbarten Bildaufnahmeelementen unterschiedlicher Farbsensitivität aufgenommenen Lichtanteils gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Verfahren kann beispielsweise in den anhand der 1A beschriebenen Einrichtungen ausgeführt werden. Bei dem Bildaufnehmer kann es sich um den in 1B gezeigten Bildaufnehmer handeln.
  • In einem Schritt 751 erfolgt ein Empfangen eines Lichtanteils, der eine Lichtinformation einer Lichtquelle umfasst, beispielsweise der in 1A gezeigten Rückleuchte. In einem Schritt 753 wird der Lichtanteil aufgeweitet, beispielsweise auf die in den 2 bis 6 gezeigten benachbarten Bildpunkte. In einem Schritt 755 erfolgt ein Erfassen des aufgeweiteten Lichtanteils beispielswies durch die die in den 2 bis 6 gezeigten benachbarten Bildpunkte, wobei jeder der Bildpunkte ein elektrisches Bildsignal erzeugt. In einem Schritt 757 werden Werte der erzeugten Bildsignale miteinander verglichen, um die Farbinformation zu ermitteln.
  • Anhand der 8 bis 12 werden Ausführungsbeispiele der vorliegenden Erfindung beschrieben, bei denen optische Effekte für eine verbesserte Farbrekonstruktion verwendet werden. Dabei kann eine farbselektive Schärfebegrenzung mit nur einem optischen Pfad eingesetzt werden. Hierfür können die zwei optischen Eigenschaften der Beugung und Brechung ausgenutzt werden.
  • 8 veranschaulicht die farbselektive Brechung oder chromatische Abberation anhand eines optischen Elements 212 und einem Bildaufnehmer 210 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Dabei wird auf das optische Element 212, das hier in Form einer Linse realisiert ist, einfallendes Licht 124 abhängig von seiner Farbe oder Wellenlänge unterschiedlich stark gebrochen. Materialien, wie das Material des optischen Elements 212 haben die Eigenschaften verschiedene Längenwellen (Lichtfarben) unterschiedlich stark zu brechen. Dies wird beispielsweise beim Dispersionsprisma ausgenutzt, um weißes Licht in seine Bestandteile aufzubrechen. Dabei wird weißes Licht in einen Regenbogen oder in Regenbogenfarben aufgebrochen. Kurzweiliges Licht (blau) 801 wird stärker gebrochen als grünes Licht 802, das wiederum stärker gebrochen wird als langweiliges Licht (rot) 803, was in unterschiedlichen Brennpunkten und demnach Schärfebereichen je nach Farbe 801, 803, 805 resultiert. In 8 ist schematisch der Effekt von unterschiedlichen Brennpunkten abhängig von der Lichtfarbe 801, 802, 803 gezeigt.
  • In der Auslegung optischer Elemente möchte man diesen Effekt normalerweise vollständig entfernen, da dies zu Farbsäumen in der Abbildung führt. Der Farbfehler ist allgemein als „chromatische Aberration“ bekannt. Durch Auswahl und Kombination geeigneter z. T. teuerer Materialien werden Optiken entwickelt, die nahezu keine chromatische Aberration mehr aufweisen.
  • Die chromatische Abberation kann gemäß Ausführungsbeispielen der vorliegenden Erfindung vorteilhaft genutzt werden, um mit einem optischen Pfad eine farb-abhängige Unschärfe auf dem Bildaufnehmer 210 zu erzeugen und so die Farbrekonstruktion, die für die Situationserkennung benötigt wird, zu verbessern. Dazu wird die Linse 212 so angeordnet, dass beispielsweise der grün-blaue Bereich (Maximum der Helligkeitsempfindung im mesopischen / skotopischen Bereich) scharf auf den Bildaufnehmer 210 abgebildet wird. Das Bild des roten Bereichs liegt hinter dem Bildaufnehmer 210, was in einer Unschärfe auf dem Bildaufnehmer 210 resultiert. Durch die damit erreichte Unschärfe im roten Bereich kann die Farbrekonstruktion verbessert werden, da beispielsweise zwei Bildaufnahmeelemente des Bildaufnehmers 210 von den roten Rücklichtern eines Fahrzeugs bestrahlt werden.
  • Somit kann eine farbkanal-abhängige Unschärfe bewusst ausgenutzt werden, um die Farbrekonstruktion zu verbessern. Eine scharfe Abbildung in „unendlich“ ist nicht nötig, da hier die Relevanz der Informationen verglichen mit dem nahen Bereich bei Fahrerassistenzsystemen gering ist.
  • 9 veranschaulicht die farbselektive Beugung oder Diffraktion anhand eines optischen Elements 212 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das optische Element 212 ist hier als eine Lochplatte ausgeführt. Wenn der Lochdurchmesser deutlich kleiner ist als die Wellenlänge des einfallenden Lichts 124, so entstehen hinter dem Loch Kugelwellen.
  • Bei der Beugung können die Gesetze der geometrischen Optik nicht mehr angewandt werden, da das Axiom, dass sich Lichtstrahlen 124 gerade im Raum ausbreiten nicht mehr gültig ist. Die Lichtstrahlen 124 werden an Öffnungen gebeugt und gelangen so teilweise in Bereiche, die eigentlich abgeschattet sein müssten.
  • Dies wird durch das Huygens-Fresnelsche Prinzip beschrieben. Wenn der Lochdurchmesser in der Größenordnung der Wellenlänge liegt, kann der Effekt nicht mehr vernachlässigt werden. Die Beugung von Licht 124 ist wellenlängen-abhängig. So wird beispielsweise langweiliges Licht (rot) stärker gebeugt als kurzweiliges Licht (blau). Anders formuliert werden rote Lichtstrahlen stärker aufgeweitet als blaue Lichtstrahlen.
  • 10 zeigt eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Der Sensor weist einen Bildaufnehmer 210 in Form eines Imagers auf. Beispielhaft sind fünf Bildaufnahmeelemente 231, 233 des Bildaufnehmers 210 gezeigt. Gezeigt sind dabei drei als Intensitäts-Pixel fungierende Bildaufnahmeelemente 231 und zwei als Rot-Pixel fungierende Bildaufnahmeelemente 233. Die unterschiedlichen Arten von Bildaufnahmeelementen 231, 233 sind alternierend in der Ebene des Bildaufnehmers 210 angeordnet.
  • Der Sensor weist ein optisches Element 212 in Form eines Beugungsgitters auf, das beabstandet zu den Bildaufnahmeelementen 231, 233 angeordnet ist, und zwar in Bezug auf eine Einfallsrichtung von Licht 124 auf die Bildaufnahmeelemente 231, 233 vor den Bildaufnahmeelementen 231, 233. Zwischen dem Beugungsgitter des optischen Elements 112 und lichtsensitiven Oberflächen der Bildaufnahmeelemente 231, 233 kann sich ein lichtdurchlässiges Material, beispielsweise eine Glasschicht befinden. Gemäß diesem Ausführungsbeispiel befinden sich Beugungselemente des Beugungsgitters 212 jeweils auf Höhe eines Übergangs zwischen zwei benachbarten Bildaufnahmeelementen 231, 233. Somit sind die Ränder der Bildaufnahmeelemente 231, 233 jeweils durch das Beugungsgitter 212 abgedeckt, zentrale Fläche der Bildaufnahmeelemente 231, 233 dagegen nicht. Zentrale Flächen der Bildaufnahmeelemente 231, 233 befinden sich also jeweils auf Höhe von für das Licht 124 durchlässigen Aussparungen innerhalb des Beugungsgitters 112.
  • Ein Lichtstrahl 124 ist auf das mittlere der Bildaufnahmeelemente 231 gerichtet. Der Lichtstrahl 124 trifft auf eine dem mittleren der Bildaufnahmeelemente 231 gegenüberliegenden Aussparung des Beugungsgitters 212. Schematisch ist in 10 dargestellt, dass sich ein am Rand des Lichtstrahls 124 befindlicher roter Farbanteil 803 des in Richtung des ersten Bildaufnahmeelements 231 einfallenden Lichtstrahls 124 stark gebeugt und dadurch auf benachbarte Bildaufnahmeelemente 233 gelenkt wird. Ein sich am Rand des Lichtstrahls 124 befindlicher grüner Farbanteil 802 des in Richtung des ersten Bildaufnahmeelements 231 einfallenden Lichtstrahls 124 weniger als der rote Farbanteil 803 gebeugt und dadurch auf die Grenze zwischen dem mittleren der Bildaufnahmeelemente 231 und den benachbarten Bildaufnahmeelementen 233 gelenkt. Ein sich am Rand des Lichtstrahls 124 befindlicher blauer Farbanteil 801 wird dagegen nicht oder nur geringfügig gebeugt und fällt daher auf das mittlere der Bildaufnahmeelemente 231.
  • Optische Elemente 212 in Form von Beugungsgitter und diffraktiven Elementen nutzen den physikalischen Effekt der Beugung aus. Unter einem Beugungsgitter 212 kann ein perforiertes Element verstanden werden, durch das das hindurchgehende Licht 124 gebeugt wird. Wird ein optisches Element 212 zur Beugung, in den Strahlengang gebracht, so wird das Licht 124 farbabhängig aufgeweitet und damit unscharf. Mit dem optischen Element 212 in Form eines Beugungsgitters ist es demnach möglich den roten Farbanteil 803 im gleichen optischen Pfad stärker unscharf zu machen als den blauen Anteil 801. Eine verbesserte Farbrekonstruktion ist damit möglich.
  • Je nach Art des Beugungsgitters 212 wird ein großer Anteil an Licht 124, beispielsweise 50%, durch das Gitter 212 „geschluckt“. Gitter 212 haben den Vorteil, dass das Gitter 212 prinzipiell als Befestigungsmaterial verwendet werden kann. Es gilt jedoch das Prinzip, dass die gleichen Effekte bei einer „Invertierung“ des Musters des Beugungsgitters 212 erhalten bleiben. Beispielsweise können statt an einem Spalt, an dem das Licht 124 gebeugt wird, die gleichen Beugungs-Effekte beispielsweise an einem gleich dicken Draht stattfinden.
  • Daher kann vorteilhaft statt eines Gitters 212 auch eine Punkt-Struktur als optisches Element 212 aufgebracht werden, um mehr Licht 124 auf den Bildaufnehmer 210 zu lassen. Die Punktstruktur des optischen Elements 212 kann nach der Struktur des Bildaufnehmers 210 ausgerichtet werden, sodass beispielsweise nur Bildaufnahmeelemente 233 in Form von roten Pixeln hinter den Punkten des optischen Elements 212 liegen und das Licht 124 durch Beugung auf den Bildaufnehmer 212 fällt, oder zwischen einzelnen Bildaufnahmeelementen 231, 233, um eine gleichmäßige Verteilung durch die Beugung zu erhalten.
  • Wenn die den roten Pixeln entsprechenden Bildaufnahmeelemente 233 in einer Linie angeordnet sind, kann sich auch eine einfache Linienstruktur des optischen Elements 212 anbieten, um noch mehr des Lichts 124 auf den Bildaufnehmer zu bringen.
  • Anhand der 11 und 12 sind mögliche Beugungsstrukturen eines optischen Elements 212 gezeigt, das beispielsweise anstelle des in 10 gezeigten Beugungsgitters eingesetzt werden kann.
  • 11 zeigt dabei eine Nutzung einer Punkt-Struktur als optisches Element 212 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Dabei ist das optische Element 212 als eine mit Durchgangslöchern versehene Schicht ausgeführt, ähnlich einem Beugungsgitter.
  • 12 zeigt eine Nutzung einer Punkt-Struktur als optisches Element 212 gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung. Dabei ist das optische Element 212 als eine Punktstruktur ausgeführt. Die das optische Element bildenden Punkte können beispielsweise auf einer Oberfläche einer lichtdurchlässigen Schicht angeordnet sein, die auf einer Oberfläche des Bildaufnehmers angeordnet sein kann.
  • 13 zeigt einen Bildaufnehmer 210 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Beispielhaft sind vier Bildaufnahmeelemente 231, 233 des Bildaufnehmers 210 gezeigt. Gezeigt sind dabei zwei als Intensitäts-Pixel fungierende Bildaufnahmeelemente 231 und zwei als Rot-Pixel fungierende Bildaufnahmeelemente 233. Die unterschiedlichen Arten von Bildaufnahmeelementen 231, 233 sind alternierend in der Ebene des Bildaufnehmers 210 angeordnet. Gemäß diesem Ausführungsbeispiel ist eine Realisierung des Bildaufnehmers 210 so durchgeführt, das Farbfilter im Substrat der die Bildaufnahmeelemente 233 angeordnet sind. Beispielsweise kann eine Sensitivität des Materials der die Bildaufnahmeelemente 233 für Licht roter Farbe durch Dotierung realisiert sein. Der Bildaufnehmer 210 ist also so aufgebaut, dass in dem Halbleiter-Substrat selbst Farbfilter, beispielsweise durch Dotierung realisiert sind.
  • 14 zeigt einen Bildaufnehmer 210 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Beispielhaft sind vier Bildaufnahmeelemente 231, 233 des Bildaufnehmers 210 gezeigt. Gezeigt sind dabei zwei als Intensitäts-Pixel fungierende Bildaufnahmeelemente 231 und zwei als Rot-Pixel fungierende Bildaufnahmeelemente 233. Die unterschiedlichen Arten von Bildaufnahmeelementen 231, 233 sind alternierend in der Ebene des Bildaufnehmers 210 angeordnet. Gemäß diesem Ausführungsbeispiel ist eine Realisierung des Bildaufnehmers 210 so durchgeführt, das die Bildaufnahmeelemente 233 durch ein Aufbringen von Farbfiltern 1433 als Farbpixel realisiert sind. Der Bildaufnehmer 210 ist also so aufgebaut, dass auf dem Halbleiter-Substrat des Bildaufnehmers 210, auf dem die lichtempfindlichen Flächen der Bildaufnahmeelemente 233 aufgebracht sind, die Farbfilter 1433 aufgebracht sind.
  • Die in den 13 und 14 gezeigten Bildaufnehmer 210 können beispielsweise für eine Kamera eingesetzt werden, wie sie in 1 gezeigt ist. Ferner können die Bildaufnehmer 210 für Sensoren zur Erfassung von Licht eingesetzt werden, wie sie anhand der Ausführungsbeispiele beschrieben sind.
  • 15 zeigt eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Der Sensor weist einen Bildaufnehmer 210 in Form eines Imagers auf. Beispielhaft sind vier Bildaufnahmeelemente 231, 233 des Bildaufnehmers 210 gezeigt. Der Bildaufnehmer kann wie anhand der 13 und 14 beschrieben aufgebaut sein.
  • Der Sensor weist ein optisches Element 212 in Form eines Beugungsgitters auf, das beabstandet zu den Bildaufnahmeelementen 231, 233 angeordnet ist, und zwar in Bezug auf eine Einfallsrichtung von Licht 124 auf die Bildaufnahmeelemente 231, 233 vor den Bildaufnahmeelementen 231, 233. Durch das Beugungsgitter wird ein Teil des einfallenden Lichts gebeugt, wie es anhand von 10 beschrieben ist.
  • Dabei ist anhand von 15 schematisch der Fall dargestellt, dass ein auf das Beugungsgitter 212 einfallender Lichtstrahl ausschließlich auf eines der Bildaufnahmeelemente 231 gerichtet ist. Durch die Beugung an dem Beugungsgitter 212 wird trotzdem ein Teil des einfallenden Lichtstrahls, insbesondere ein Rotanteil 803 des Lichtstrahls auf die angrenzenden Bildaufnahmeelemente 233 geleitet.
  • Indem das Beugungsgitter 212 eingesetzt wird, um farb-selektiv eine Unschärfe zu erzeugen, landet (mehr) rotes Licht 803 auf den als Rot-Imager fungierenden Bildaufnahmeelementen 233 als es ohne das Beugungsgitter 212 möglich ist, wenn die Lichtquelle genau auf ein einziges als Intensitäts-Pixel fungierendes Bildaufnahmeelement 231 abgebildet wird, wie es in 15 dargestellt ist. Dabei ist eine genaue Ausrichtung des Beugungsgitters 212 zum Pixel-Pattern, also zum Muster der Anordnung der Bildaufnahmeelemente 231, 233, erforderlich, um den Effekt gut ausnutzen zu können. Es ist also eine genaue Ausrichtung des Beugungsgitters 212 zu Bildpunkten 231, 233 Pixeln nötig.
  • 16 zeigt eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Der Sensor weist einen Bildaufnehmer 210 in Form eines Imagers auf. Beispielhaft sind vier Bildaufnahmeelemente 231, 233 des Bildaufnehmers 210 gezeigt. Der Bildaufnehmer kann wie anhand der 13 und 14 beschrieben aufgebaut sein.
  • Der Sensor weist ein optisches Element 212 in Form eines Beugungsgitters auf, das beabstandet zu den Bildaufnahmeelementen 231, 233 angeordnet ist, und zwar in Bezug auf eine Einfallsrichtung von Licht 124 auf die Bildaufnahmeelemente 231, 233 vor den Bildaufnahmeelementen 231, 233. Durch das Beugungsgitter wird ein Teil des einfallenden Lichts gebeugt, wie es anhand von 10 beschrieben ist.
  • Dabei ist anhand von 16 schematisch der Fall dargestellt, dass ein auf das Beugungsgitter 212 einfallender Lichtstrahl ausschließlich auf eines der Bildaufnahmeelemente 233 gerichtet ist. Durch die Beugung an dem Beugungsgitter 212 wird trotzdem ein Teil des einfallenden Lichtstrahls, insbesondere ein Rotanteil 803 des Lichtstrahls auf die angrenzenden Bildaufnahmeelemente 231 geleitet.
  • Anhand der 15 und 16 wird im Folgenden eine Standardposition des Beugungsgitters 212, gezeigt in 15 und eine verschobene Anordnung des Beugungsgitters 212, gezeigt in 16 beschrieben.
  • Die Ausrichtung des Beugungsgitters 212 zu den Farbfiltern, also den Bildaufnahmeelementen 233 ist anspruchsvoll. Eine nicht ideale Ausrichtung des Beugungsgitters 212 resultiert gegebenenfalls in einer schlechteren Nutzung des Beugungsgitters 212. So kann bei einer Verschiebung des Beugungsgitters 212 um einen Bildpunkt 231, 233 eine vollständig andere Charakteristik des von dem Bildaufnehmer 212 aufgenommenen Bildes erfolgen.
  • Eine Farbrekonstruktion von rotem Licht ist prinzipiell in den beiden in den 15 und 16 gezeigten Anordnungen möglich, da das rote Licht über mehrere Bildpunkte 231, 233 verteilt wird. In dem in 15 gezeigten Ausführungsbeispiel sind sowohl ein als Intensitäts-Pixel fungierender Bildpunkt 231 als auch die benachbarten als Rot-Pixel fungierenden Bildpunkte 233 beleuchtet. Der als Intensitäts-Pixel fungierender Bildpunkt 231 ist am Stärksten, die als Rot-Pixel fungierenden Bildpunkte 233 sind etwas schwächer beleuchtet. In 16 ist eine verschobene Anordnung schematisch dargestellt, in der der Rot-Pixel 233 stärker beleuchtet ist als es die Intensitäts-Pixel 231 sind. Eine Farbrekonstruktion bei rotem Licht wird dadurch schwieriger, da auf die Intensitäts-Pixel 231 weniger Licht-Energie gefallen ist, als auf das Rot-Pixel 233. Durch geeignete Modelle kann das aber zurückgerechnet werden.
  • Eine bläuliche Lichtquelle, z. B. ein Xenon- oder LED-Scheinwerfer wird in der in 15 gezeigten Anordnung scharf auf das Intensitäts-Pixel 231 abgebildet, ein sehr geringer Teil des langwelligeren Lichts fällt auf die Rot-Pixel 233. Die Lichtquelle wird als weiß bzw. bläulich erkannt. In der in 16 gezeigten verschobenen Anordnung fällt das bläuliche Licht auf den Rot-Pixel 233 und wird weggefiltert. Der kleine rötliche Anteil 803 wird auf die Intensitäts-Pixel 231 gebrochen. Damit gelangt sehr wenig Licht-Energie auf den Bildaufnehmer 210, was in dem von dem Bildaufnehmer 210 aufgenommenen Bild als eine dunkle Lichtquelle sichtbar wird. Dieser Effekt kann durch eine genaue Abstimmung des Beugungsgitters 212 auf die Bildpunkte 210 vermieden werden.
  • 17 zeigt eine schematische Darstellung eines Sensors gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Der Sensor weist einen Bildaufnehmer 210 und ein Beugungsgitter 212 mit Farbfilter-Funktionalität auf. Der Bildaufnehmer 210 weist eine Mehrzahl nebeneinander angeordneter Bildaufnahmeelemente 231, 233 auf. Die Bildaufnahmeelemente 231, 233 sind konstruktiv alle als Intensitäts-Pixel ausgeführt, eine funktionale Unterscheidung in als Intensitäts-Pixel fungierende Bildaufnahmeelemente 231 und als Rot-Pixel fungierende Bildaufnahmeelemente 233 wird durch die Verwendung des Beugungsgitters 212 mit Farbfilter-Funktionalität erreicht. Ein Substrat des Bildaufnehmers 210 kann somit ohne integrierten Farbfilter und ohne sich auf der Oberfläche des Substrats befindlichen Farbfilter realisiert werden. Diejenigen der konstruktiv gleich aufgebauten Bildaufnahmeelemente 231, 233 die sich in Bezug auf das einfallende Licht 124 hinter dem als Farbfilter ausgeführten Beugungselement 1733 des Beugungsgitters 212 befinden, werden durch die Farbfilter-Funktionalität der Beugungselemente 1733 des Beugungsgitters 212 zu als Rot-Pixel fungierenden Bildaufnahmeelementen 233.
  • In 17 sind vier nebeneinander angeordnete gleich ausgeführte Bildaufnahmeelemente 231, 233 gezeigt. Über und beabstandet zu dem links dargestellten Bildaufnahmeelement 233 ist ein farbiges Beugungselement 1733 des farbigen Beugungsgitters 212 dargestellt. Gemäß diesem Ausführungsbeispiel ist das Beugungsgitter 212 so ausgeführt, das auf das Beugungselement 1733 einfallendes Licht 124 gefiltert wird und nur ein bestimmter Farbanteil des Lichts 124, hier beispielsweise der Rotanteil 803 des Lichts 124 das Beugungselement 1733 passieren und auf das in Bezug auf die Einfallrichtung des Lichts 124 dahinterliegenden Bildaufnahmeelements 233 fallen kann. Ein Rand des Beugungselements 1733 befindet sich auf Höhe einer Grenze zwischen dem Bildaufnahmeelement 233 und dem angrenzenden Bildaufnahmeelement 231. Gemäß diesem Ausführungsbeispiel erstreckt sich das Beugungselement über den Rand zwischen dem Bildaufnahmeelement 233 und dem angrenzenden Bildaufnahmeelement 231 hinaus, überlappt also etwas mit dem angrenzenden Bildaufnahmeelement 231. An den Rand des Beugungselements 1733 auftreffendes Licht 124 wird farbabhängig gebeugt. Ein langwelligerer roter Anteil 803 des Lichts 124 wird dabei stärker gebeugt, als ein kurzwelligerer blauer Anteil 801 des Lichts 124. Ein in Bezug auf die Wellenlänge dazwischenliegender grüner Anteil 802 des Lichts 124 wird weniger als der rote Anteil 803 und mehr als der blaue Anteil 801 gebeugt. Somit wird ein Teil des Lichts 124 der ohne Vorhandensein des Beugungsgitters 212 auf das Bildaufnahmeelement 231 treffen würde auf das angrenzende Bildaufnahmeelement 233 umgeleitet. Gegenüberliegend zu einem Zentralbereich des Bildaufnahmeelements 231 ist kein Beugungselement 1733 des Beugungsgitters 212 angeordnet, oder alternativ ein für das Licht 124 vollständig oder teilweise transparentes Zwischenelement angeordnet. Somit kann auf den Zentralbereich des Bildaufnahmeelements 231 gerichtetes Licht 124 direkt auf das Bildaufnahmeelement 231 auftreffenden. Die für die beiden in 17 links gezeigten Bildaufnahmeelemente 231, 233 beschriebenen Ausführungen treffen in entsprechender Weise auch auf die beiden in 17 rechts gezeigten Bildaufnahmeelemente 231, 233 zu. Eine Form des Beugungsgitters kann, wie anhand eines der vorangegangenen Ausführungsbeispiele beschrieben ausgeführt sein.
  • Die Beugungselemente 1733, von denen in 17 zwei gezeigt sind, können auf einer Trägerschicht aufgebracht sein, die wiederum auf eine Oberfläche der Bildaufnahmeelemente 231, 233 angeordnet werden kann oder angeordnet ist. Bei der Trägerschicht kann es sich um eine für das Licht 124 transparente Schicht, beispielsweise aus Glas oder Kunststoff handeln. Eine Dicke der Trägerschicht kann so gewählt sein, dass ein eigentlich auf das Bildaufnahmeelement 231 fallender Rotanteil 803 des Lichts 124 aufgrund der Beugung an dem Beugungsgitter 212 bis auf einen Erfassungsbereich des angrenzenden Bildaufnahmeelements 233 umgelenkt werden kann.
  • Durch Nutzung eines farbigen Beugungsgitters 212 kann eine verbesserte Farbrekonstruktion eines von dem Bildaufnehmer 210 erfassten Bildes und eine größere Intensität durch Beugung erreicht werden, wobei die Genauigkeitsanforderung bezüglich der Positionierung von Bildaufnehmer 210 und Beugungsgitter stark reduziert werden kann. Bei einer Anwendung für ein Assistenzsystem eines Fahrzeugs wird eine Erkennung und Reaktion auf die Anwesenheit eines Verkehrsteilnehmers erleichtert.
  • Gemäß dem in 17 gezeigten Ausführungsbeispiel besitzt der Bildaufnehmer 210 ausschließlich konstruktiv als Intensitäts-Pixel ausgeführte Bildaufnahmeelemente 231, 233, die Farbfilterung wird vom Beugungsgitter 212 übernommen. Der Aufbau ist ähnlich wie der in 15 gezeigte Aufbau eines Bildaufnehmers, jedoch haben die als Farbfilter dienenden Beugungselemente 1733 einen Abstand zur lichtempfindlichen Fläche der ihnen jeweils zugeordneten Bildaufnahmeelemente 233. Die als Farbfilter dienenden Beugungselemente 1733 übernehmen gleichzeitig die Aufgabe des Beugungsgitters 212.
  • Mit anderen Worten ist in 17 ein Bildaufnehmer 210 zu sehen, der prinzipiell ausschließlich Intensitäts-Pixel 231, 233 hat. Das Beugungsgitter 212 ist an den Stellen, an denen gewöhnliche Beugungsgitter nicht transparent sind, für eine Farbe transparent, beispielsweise für Rot oder z. B. für Cyan, also die Komplementärfarbe von Rot.
  • Durch das farbige Beugungsgitter 212 ist die Funktionalität der Farb-Filterung und der Licht-Beugung zur Farbrekonstruktion zusammengeführt, wodurch keine Justage-Probleme mehr entstehen. Der Farbfilter 1733, der die Funktion des Beugungsgitters 212 übernimmt, kann beispielsweise gemeinsam auf einem Glasträger aufgebracht werden. Es ist unerheblich, ob sich das Beugungsgitter 212 einen Bildpunkt 231, 233 weiter links oder rechts befindet.
  • Insbesondere bei zwei· oder mehrfarbigen Filtern 1733 bietet die hier vorgeschlagene Lösung Vorteile, da das Beugungsgitter 212 und die Farbfilter 1733 fest miteinander verbunden sind. Komplett undurchsichtige (klassische) Gitterteile (oder -Punkte) können zusammen mit den Farbfiltern 1733 kombiniert werden, um die Funktionalität der Filter 1733 und Beugungsgitter 212 zu optimieren.
  • Weiterhin kann der Bildaufnehmer 210 einfacher hergestellt werden, da nur noch konstruktiv als Intensitäts-Pixel aufgebaute Bildpunkte 231, 233 nötig sind. Die Herstellungsschritte zur Farb-Filterauftragung können bei der Herstellung des Bildaufnehmers 210 eingespart werden. Diese können quasi kostenneutral, aber mit Funktionsvorteilen mit dem Beugungsgitter 212 kombiniert werden.
  • 18 zeigt ein Verfahren zur Erfassung von Licht gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Verfahren kann beispielsweise im Zusammenhang mit einem Sensor ausgeführt werden, wie er im Vorhergehenden beschrieben ist.
  • In einem Schritt 1801 wird ein erster Anteil eines in Richtung eines ersten Bildaufnahmeelements einfallenden Lichts auf ein benachbart angeordnetes zweites Bildaufnahmeelement gelenkt. In einem Schritt 1803 wird der zweite Anteil des in Richtung des ersten Bildaufnahmeelements einfallenden Lichts auf das erste Bildaufnahmeelement einfallen gelassen. In einem Schritt 1805 wird der erste Anteil unter Verwendung des zweiten Bildaufnahmeelements erfasst. Dabei kann ein erstes Bildsignal ausgegeben werden, wobei ein Intensitätswert des ersten Bildsignals einer Intensität des von dem zweiten Bildaufnahmeelement erfassten Lichts entspricht. In einem Schritt 1807 wird der zweite Anteil mit dem ersten Bildaufnahmeelement erfasst. Dabei kann ein zweites Bildsignal ausgegeben werden, wobei ein Intensitätswert des zweiten Bildsignals einer Intensität des von dem ersten Bildaufnahmeelement erfassten Lichts entspricht.
  • 19 zeigt ein Verfahren zur Ermittlung einer Farbinformation eines von einem Sensor erfassten Lichts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Verfahren kann beispielsweise im Zusammenhang mit einem Sensor ausgeführt werden, wie er im Vorhergehenden beschrieben ist. Das Verfahren kann mit dem anhand von 18 beschriebenen Verfahren kombiniert werden.
  • In einem Schritt 1901 wird ein erstes Bildsignal empfangen, das ein Bildsignal eines ersten Bildaufnahmeelements repräsentiert und in einem Schritt 1903 wird ein zweites Bildsignal empfangen, das ein Bildsignal eines zweiten Bildaufnahmeelements repräsentiert. In einem Schritt 1905 wird ein Intensitätswert des ersten Bildsignals mit einem Intensitätswert des zweiten Bildsignals verglichen. Abhängig von einem Größenverhältnis zwischen den Intensitätswerten der beiden Bildsignale kann die Farbinformation des von dem Sensor erfassten Lichts festgelegt werden.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2004/011890 A1 [0003]

Claims (12)

  1. Sensor zur Erfassung von Licht, mit folgenden Merkmalen: einen Bildaufnehmer mit einem ersten Bildaufnahmeelement (231) und einem benachbart zu dem ersten ersten Bildaufnahmeelement (231) angeordneten zweiten Bildaufnahmeelement (233); und einem optischen Element, das ausgebildet ist, um einen ersten Anteil (225; 803) eines in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) auf das zweite Bildaufnahmeelement (233) zu lenken und einen zweiten Anteil (227; 801) des in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) auf das erste Bildaufnahmeelement (231) einfallen zu lassen.
  2. Sensor gemäß Anspruch 1, bei dem das optische Element (212) ausgebildet ist, um über einer Schwelle liegende Frequenzanteile des Lichts (124) zu entfernen.
  3. Sensor gemäß einem der Ansprüche 1 oder 2, bei dem das optische Element (212) einen Diffusor oder eine Defokussiereinrichtung umfasst.
  4. Sensor gemäß einem der vorangegangenen Ansprüche, bei dem das zweite Bildaufnahmeelement (233) für eine erste Farbe (803) sensitiv und für eine zweite Farbe nicht sensitiv ist und das erste Bildaufnahmeelement (231) für die zweite Farbe sensitiv ist.
  5. Sensor gemäß Anspruch 4, bei dem das optische Element (212) ausgebildet ist, um einen ersten Anteil eines der ersten Farbe (803) entsprechenden Lichtanteils des in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) auf das zweite Bildaufnahmeelement (233) zu lenken und einen zweiten Anteil des der ersten Farbe (803) entsprechenden Lichtanteils des in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts auf das erste Bildaufnahmeelement (231) fallen zu lassen und ausgebildet ist, um einen der zweiten Farbe (801) entsprechenden Lichtanteil des in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) vollständig auf das erste Bildaufnahmeelement (231) fallen zu lassen.
  6. Sensor gemäß einem der vorhergehenden Ansprüche, bei dem das optische Element (212) eine beabstandet zu den Bildaufnahmeelementen (231, 233) angeordnete Beugungsstruktur zur Beugung des ersten Anteils (225; 803) des in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) in Richtung des zweiten Bildaufnahmeelements (233) umfasst.
  7. Sensor gemäß Anspruch 6, bei dem die Beugungsstruktur des optischen Elements (212) eine Gitterstruktur, Linienstruktur oder Punktstruktur aufweist.
  8. Sensor gemäß Anspruch 6 oder 7, bei dem das erste Bildaufnahmeelement (231) und das zweite Bildaufnahmeelement (233) die gleiche Farbsensitivität aufweisen und die Beugungsstruktur des optischen Elements (212) als ein Farbfilter ausgeführt ist.
  9. Sensor gemäß einem der vorhergehenden Ansprüche, bei dem der Bildaufnehmer (210) ein Halbleiterelement ist.
  10. Verfahren zur Erfassung von Licht, das die folgenden Schritte umfasst: Lenken (1801) eines ersten Anteils (225; 803) eines in Richtung eines ersten Bildaufnahmeelements (231) einfallenden Lichts (124) auf ein zweites Bildaufnahmeelement (233), wobei das erste Bildaufnahmeelement (231) benachbart zu dem zweiten Bildaufnahmeelement (233) auf einem Bildaufnehmer (210) angeordnet ist; Einfallen lassen (1803) eines zweiten Anteils (227; 801) des in Richtung des ersten Bildaufnahmeelements (231) einfallenden Lichts (124) auf das erste Bildaufnahmeelement (233); Erfassen (1805) des ersten Anteils (225; 803) unter Verwendung des zweiten Bildaufnahmeelements (233); und Erfassen (1807) des zweiten Anteils (227; 801) mit dem ersten Bildaufnahmeelement (231).
  11. Verfahren zur Ermittlung einer Farbinformation eines von einem Sensor gemäß einem der Ansprüche 1 bis 9 erfassten Lichts, das die folgenden Schritte umfasst: Vergleichen (1905) eines Intensitätswerts eines ersten Bildsignals (235) des ersten Bildaufnahmeelements (231) mit einem Intensitätswert eines zweiten Bildsignals (237) des zweiten Bildaufnahmeelements (233), um die Farbinformation zu ermitteln.
  12. Vorrichtung, zur Ermittlung einer Farbinformation eines von einem Sensor gemäß einem der der Ansprüche 1 bis 9 erfassten Lichts, die das folgende Merkmal aufweist: eine Einrichtung zum Vergleichen eines Intensitätswerts eines ersten Bildsignals (235) des ersten Bildaufnahmeelements (231) mit einem Intensitätswert eines zweiten Bildsignals (237) des zweiten Bildaufnahmeelements (233), um die Farbinformation zu ermitteln.
DE102012221356A 2012-06-20 2012-11-22 Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation Withdrawn DE102012221356A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102012221356A DE102012221356A1 (de) 2012-06-20 2012-11-22 Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation
CN201380031882.1A CN104603586B (zh) 2012-06-20 2013-04-30 用于求取颜色信息的光检测
US14/409,954 US9521387B2 (en) 2012-06-20 2013-04-30 Detection of light for ascertaining color information
PCT/EP2013/058984 WO2013189652A1 (de) 2012-06-20 2013-04-30 Erfassung von licht zur ermittlung einer farbinformation

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102012210370 2012-06-20
DE102012210370.8 2012-06-20
DE102012221356A DE102012221356A1 (de) 2012-06-20 2012-11-22 Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation

Publications (1)

Publication Number Publication Date
DE102012221356A1 true DE102012221356A1 (de) 2013-12-24

Family

ID=49713799

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012221356A Withdrawn DE102012221356A1 (de) 2012-06-20 2012-11-22 Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation

Country Status (4)

Country Link
US (1) US9521387B2 (de)
CN (1) CN104603586B (de)
DE (1) DE102012221356A1 (de)
WO (1) WO2013189652A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001011890A1 (en) * 1999-08-06 2001-02-15 Macrovision Corporation A scaling independent technique for watermarking images
US20020135825A1 (en) * 2000-07-14 2002-09-26 Chih-Kung Lee High light-sensing efficiency image sensor apparatus and method
WO2004011890A1 (en) 2002-07-30 2004-02-05 Gentex Corporation Light source detection and categorization system for automatic vehicle exterior light control and method of manufacturing
DE102009056178A1 (de) * 2009-11-27 2011-06-01 Carl Zeiss Ag Bildaufnehmer, Bilderzeugungseinrichtung sowie Spektroskop für die ortsaufgelöste Spektroskopie
DE102010003668A1 (de) * 2010-04-07 2011-10-13 Robert Bosch Gmbh Farbmaske für einen Bildsensor einer Fahrzeugkamera

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5796094A (en) * 1993-02-26 1998-08-18 Donnelly Corporation Vehicle headlight control using imaging sensor
US6040906A (en) * 1996-07-11 2000-03-21 Harhay; Gregory P. Resonance raman spectroscopy for identifying and quantitating biomatter, organic, and inorganic analytes
US7365769B1 (en) * 2000-07-06 2008-04-29 Donald Mager Activating a vehicle's own brake lights and/or brakes when brake lights are sensed in front of the vehicle, including responsively to the proximity of, and/or rate of closure with, a forward vehicle
JP4920839B2 (ja) * 2001-09-18 2012-04-18 キヤノン株式会社 撮像装置
MXPA05001880A (es) * 2002-08-21 2005-06-03 Gentex Corp Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.
US8045760B2 (en) * 2003-02-21 2011-10-25 Gentex Corporation Automatic vehicle exterior light control systems
US9524439B2 (en) * 2004-05-25 2016-12-20 Continental Automotive Gmbh Monitoring unit and assistance system for motor vehicles
US7477304B2 (en) * 2004-08-26 2009-01-13 Micron Technology, Inc. Two narrow band and one wide band color filter for increasing color image sensor sensitivity
JP2006119368A (ja) * 2004-10-21 2006-05-11 Konica Minolta Opto Inc 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器
WO2006130921A1 (en) * 2005-06-08 2006-12-14 Monash University Investigating biological cells using enhanced raman spectroscopy
US7805081B2 (en) * 2005-08-11 2010-09-28 Pacific Biosciences Of California, Inc. Methods and systems for monitoring multiple optical signals from a single source
US20080067330A1 (en) * 2006-09-19 2008-03-20 Denso Corporation Color sensor for vehicle and method for manufacturing the same
KR20100047862A (ko) * 2007-08-06 2010-05-10 파나소닉 주식회사 촬상용 광 검출 장치
DE102007040114B4 (de) * 2007-08-24 2010-10-28 Robert Bosch Gmbh Farbmaske für einen Bildsensor einer Fahrzeugkamera
US7745779B2 (en) * 2008-02-08 2010-06-29 Aptina Imaging Corporation Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
JP5325117B2 (ja) * 2008-06-18 2013-10-23 パナソニック株式会社 固体撮像装置
JP5055643B2 (ja) * 2008-07-28 2012-10-24 株式会社リコー 撮像素子および画像撮像装置
JP5331107B2 (ja) * 2008-12-19 2013-10-30 パナソニック株式会社 撮像装置
JP5572954B2 (ja) * 2009-01-26 2014-08-20 株式会社リコー 撮像素子及び該撮像素子を備えた画像撮像装置
DE102009001122B8 (de) * 2009-02-24 2020-11-26 Robert Bosch Gmbh Kameraanordnung und Verfahren zum Ermitteln von Bildsignalen mit Farbwerten
JPWO2011010455A1 (ja) * 2009-07-24 2012-12-27 パナソニック株式会社 撮像装置および固体撮像素子
KR101626447B1 (ko) * 2009-12-29 2016-06-01 삼성전자주식회사 렌즈 왜곡과 색수차를 보정하는 장치, 방법, 및 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능 매체
JP5503458B2 (ja) * 2010-08-24 2014-05-28 パナソニック株式会社 固体撮像素子および撮像装置
EP2439716B1 (de) * 2010-09-16 2013-11-13 Ricoh Company, Ltd. Objektidentifikationsvorrichtung, bewegliche Objektsteuerungsvorrichtung mit der Objektidentifikationsvorrichtung und Informationsdarstellungsvorrichtung mit der Objektidentifikationsvorrichtung
CN102959961B (zh) * 2011-06-16 2016-01-20 松下电器(美国)知识产权公司 固体摄像元件、摄像装置及信号处理方法
JP2013031054A (ja) * 2011-07-29 2013-02-07 Ricoh Co Ltd 撮像装置及びこれを備えた物体検出装置、並びに、光学フィルタ及びその製造方法
DE102011081425A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
DE102011081428A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zum Bestimmen einer Objektklasse eines Objekts, von dem aus Licht zu einem Fahrzeug ausgesandt und/oder reflektiert wird
JP5894573B2 (ja) * 2011-10-31 2016-03-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 固体撮像素子、撮像装置および信号処理方法
DE102011088130B4 (de) * 2011-12-09 2023-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Bremssituation
WO2013164902A1 (ja) * 2012-05-02 2013-11-07 パナソニック株式会社 固体撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001011890A1 (en) * 1999-08-06 2001-02-15 Macrovision Corporation A scaling independent technique for watermarking images
US20020135825A1 (en) * 2000-07-14 2002-09-26 Chih-Kung Lee High light-sensing efficiency image sensor apparatus and method
WO2004011890A1 (en) 2002-07-30 2004-02-05 Gentex Corporation Light source detection and categorization system for automatic vehicle exterior light control and method of manufacturing
DE102009056178A1 (de) * 2009-11-27 2011-06-01 Carl Zeiss Ag Bildaufnehmer, Bilderzeugungseinrichtung sowie Spektroskop für die ortsaufgelöste Spektroskopie
DE102010003668A1 (de) * 2010-04-07 2011-10-13 Robert Bosch Gmbh Farbmaske für einen Bildsensor einer Fahrzeugkamera

Also Published As

Publication number Publication date
US9521387B2 (en) 2016-12-13
US20150341610A1 (en) 2015-11-26
WO2013189652A1 (de) 2013-12-27
CN104603586B (zh) 2018-06-22
CN104603586A (zh) 2015-05-06

Similar Documents

Publication Publication Date Title
DE69910774T2 (de) Scheinwerfersteuerung für kraftfahrzeuge mit bilderzeugungssystem
AT514333B1 (de) Scheinwerfer für Fahrzeuge
EP2934945B1 (de) Beleuchtungsvorrichtung für ein kraftfahrzeug
DE202016102988U1 (de) Scheinwerfer für Kraftfahrzeuge
EP2306074A2 (de) Kraftfahrzeugscheinwerfer mit einem Halbleiterquellen, eine Primäroptik und eine Sekundäroptik aufweisenden Lichtmodul
EP2395392A1 (de) Kameraobjektiv und Kamerasystem mit einer Maske zur Ermittlung von Tiefeninformation
EP1706773A1 (de) Nachtsichtsystem für kraftfahrzeuge mit partiellem optischem filter
DE102008044522A1 (de) Verfahren und Vorrichtung zur Erfassung von Konturdaten und/oder optischen Eigenschaften eines dreidimensionalen semitransparenten Objekts
DE102009001122B4 (de) 1 - 15Kameraanordnung und Verfahren zum Ermitteln von Bildsignalen mit Farbwerten
DE2614377C3 (de)
DE102014214750B3 (de) Bildaufnahmesystem mit schnell vibrierendem Global-Shutter-CMOS-Sensor
DE102005028570B4 (de) Entfernungsmessvorrichtung und Verfahren zur Entfernungsmessung
WO2006067005A1 (de) Vorrichtung und verfahren zur beeinflussung des auf einen bildsensor auftreffenden lichts
DE2729107A1 (de) Verfahren zur erzeugung von farbinformationssignalen und anordnung zur durchfuehrung des verfahrens
DE102012110092A1 (de) Sensoranordnung zur Bilderfassung
DE102012111199A1 (de) Optische Vorrichtung mit multifokaler Bilderfassung
DE102014224903A1 (de) Optischer Umfeldsensor für Fahrzeuge
DE102012110094A1 (de) Sensoranordnung zur Bilderfassung
DE102012221356A1 (de) Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation
WO2017211647A1 (de) Vorrichtung und verfahren zum projizieren eines lichtmusters
DE102016208959A1 (de) Vorrichtung und Verfahren zum Projizieren eines Lichtmusters
WO2015074915A1 (de) Filteranordnung und verfahren zum herstellen einer filteranordnung
DE102020121974A1 (de) Lichtmodul mit einer Farbfehler korrigierenden Optikvorrichtung
EP2210037B1 (de) Scheinwerfer für fahrzeuge
DE102014215373A1 (de) Kamerasystem, Verfahren zum Betrieb eines solchen, Verwendung eines solchen und Kraftfahrzeug mit einem solchen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01J0001320000

Ipc: G01J0001040000

R016 Response to examination communication
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee