DE602005004544T2 - Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren - Google Patents

Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren Download PDF

Info

Publication number
DE602005004544T2
DE602005004544T2 DE602005004544T DE602005004544T DE602005004544T2 DE 602005004544 T2 DE602005004544 T2 DE 602005004544T2 DE 602005004544 T DE602005004544 T DE 602005004544T DE 602005004544 T DE602005004544 T DE 602005004544T DE 602005004544 T2 DE602005004544 T2 DE 602005004544T2
Authority
DE
Germany
Prior art keywords
microlenses
matrix
photodetectors
photodetector
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005004544T
Other languages
English (en)
Other versions
DE602005004544D1 (de
Inventor
Nereo C.R.F. Soc. Pallaro
Davide C.R.F. Soc. Capello
Piermario C.R.F. Soc. Repetto
Roberto C.R.F. Soc. Finizio
Cosimo C.R.F. Soc. Carvignese
Luca C.R.F. Soc. Liotti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centro Ricerche Fiat SCpA
Original Assignee
Centro Ricerche Fiat SCpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centro Ricerche Fiat SCpA filed Critical Centro Ricerche Fiat SCpA
Publication of DE602005004544D1 publication Critical patent/DE602005004544D1/de
Application granted granted Critical
Publication of DE602005004544T2 publication Critical patent/DE602005004544T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0411Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using focussing or collimating elements, i.e. lenses or mirrors; Aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4204Photometry, e.g. photographic exposure meter using electric radiation detectors with determination of ambient light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4228Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/108Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 'non-standard' camera systems, e.g. camera sensor used for additional purposes i.a. rain sensor, camera sensor split in multiple image areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Description

  • Die vorliegende Erfindung bezieht sich auf einen multifunktionellen optischen Sensor, insbesondere zur Automobil-Verwendung, welcher eine Matrix von Fotodetektoren vom CCD- oder CMOS-Typ enthält, welche einen empfindlichen Bereich hat, welcher in Unterbereiche aufgeteilt ist, welchen, individuell oder miteinander kombiniert, spezifische Funktionen einer Überwachung des Bereiches oder einer Messung von Umgebungsparametern zugewiesen sind.
  • Die Bereichs-Überwachungsfunktionen enthalten eine Überwachung des Bereiches vor, hinter oder seitlich des Fahrzeugs. Die vordere Überwachung erfasst beispielsweise das Vorliegen eines Fahrzeugs, welches aus der entgegengesetzten Richtung kommt, das Vorliegen von einer Kurve oder der Bewegung des Fahrzeugs zu den längs gerichteten Trennungslinien von der Fahrbahn. Die Überwachung hinter dem Fahrzeug kann beispielsweise bei Einparkmanövern helfen. Die seitliche Überwachung erfasst beispielsweise jene Fahrzeuge, welche seitlich ankommen, und welche durch den Außen-Rückspiegel nicht sichtbar sind, weil sie im sogenannten „Toten Winkel" sind.
  • Die Messung von Umgehungsparametern enthält beispielsweise die Messung von Nebel-, Regen-, Fensterbeschlagungs-, Beleuchtungs- und Sonneneinstrahlungs-Bedingungen.
  • Die Dokumente EP-A-1 418 089 und gattungsgemäß EP-A-1 521 226 von dem gleichen Anmelder beschreiben multifunktionelle optische Sensoren, beziehen sich jedoch auf multifunktionelle Integrationslösungen auf einer Matrix von Fotodetektoren vorn CCD- oder CMOS-Typ mittels einzelner. Aperturoptiken oder Matrizen von Linsen, welche vor dem optischen Fenster von dem Sensor positioniert sind. In dem Dokument EP-A-1 521 226 steht jede Funktion im Zusammenhang mit einer einzelnen Linse (oder mit mehreren Linsen, welche auf unterschiedlichen Matrizen positioniert sind), und diese Linse steht mit einer Untergruppe von Fotodetektoren in Zusammenhang.
  • 1 zeigt eine perspektivische Ansicht von einer Ausführungsform des Sensors gemäß der Erfindung von dem Dokument EP-A-1 418 089 . Die Verwendung von einzelnen Aperturoptiken beschränkt die Möglichkeit einer Reduzierung von der Größe des optomechanischen Systems insgesamt. Darüber hinaus erlaubt die Komplexität des Prozesses für den Aufbau und die Zusammensetzung des Systems nicht wesentlich die Verringerung der Kosten des Sensors bei großen Volumen.
  • Es ist eine Aufgabe von der vorliegenden Erfindung, einen optischen Sensor des oben bestimmten Typs bereitzustellen, welcher dazu in der Lage ist, um:
    • – die Aufteilung von der Matrix zu optimieren: Es gibt einen größeren Freiraum beim Bestimmen der Form (rechteckig, trapezförmig, linear) und der Koordinaten von den Unterbereichen der Fotodetektoren-Matrix in Zusammenhang mit jeder Funktion, wobei die Fotodetektoren, welche lediglich für die Trennung der Unterbereiche verwendet werden, reduziert oder beseitigt werden, wobei der gesamte empfindliche Bereich verwendet wird, und wobei es möglich ist, unterschiedliche Richtungen und Sichtfelder auf Fotodetektoren zuzuweisen, welche zum gleichen Unterbereich/zur gleichen Funktion gehören (wie im Folgenden dargestellt wird);.
    • – den Sensor hinsichtlich der Optiken und des Chips zu miniaturisieren: Unter Verwendung von Mikrolinsen-Matrizen werden die typischen Ausmaße von Einzelapertur-Optiksystemen beseitigt, indem durch die Optimierung der Einteilung von der Matrix ihr Format reduziert wird; wobei eine hohe Miniaturisierung eine Integration in das Fahrzeug vereinfacht, welches ein Einsetzen des optischen Sensors in den Rückspiegeln, nahe des Daches, in der Innenbeleuchtung, usw. ermöglicht;
    • – eine Bildverarbeitung zu vereinfachen: Jeder Fotodetektor oder jede Gruppe von Fotodetektoren hat sein Sichtfeld und seine Richtung auf eine solche Weise optimiert, um eine Art einer optischen „Vorverarbeitung" zu erzielen;
    • – Kosten aufgrund optimierter Formate von der Matrix, günstiger Mikrolinsen-Herstellungsprozessen, einer Anordnung von Interferenzfiltern auf den Oberflächen von den Mikrolinsen-Matrizen neben den Fotodetektoren zu reduzieren.
  • Gemäß der vorliegenden Erfindung wird diese Aufgabe durch einen multifunktionellen optischen Sensor gelöst, welcher die in Anspruch 1 dargelegten Merkmale hat.
  • Die vorliegende Erfindung wird nun detailliert mit Bezug auf die begleitenden Zeichnungen beschrieben, welche lediglich mittels eines nicht beschränkenden Beispiels bereitgestellt sind, in welchen:
  • 1 eine perspektivische Ansicht von einer Ausführungsform von dem Sensor gemäß Dokument EP-A-1 418 089 zeigt,
  • 2 eine schematische Ansicht ist, welche das Betriebsprinzip von einer optischen Lösung mit einer Einzelapertur zeigt,
  • 3 eine schematische Ansicht ist, welche das Betriebsprinzip von einer optischen Lösung, basierend auf Mikrolinsen-Matrizen zeigt,
  • 4 eine schematische Ansicht ist, welche das Betriebsprinzip von einem optischen System, basierend auf Mikrolinsen-Matrizen gemäß dem Stand der Technik zeigt,
  • 5 eine schematische Ansicht ist, welche das Betriebsprinzip des optischen Systems von der vorliegenden Erfindung gemäß einer ersten Ausführungsform zeigt,
  • 6 eine schematische Ansicht ist, welche das Betriebsprinzip von dem optischen System von der vorliegenden Erfindung gemäß einer zweiten Ausführungsform zeigt,
  • 7 und 8 schematische Ansichten sind, welche das Betriebsprinzip von zwei Varianten des optischen Systems von 6 darstellen,
  • 9 eine schematische Ansicht ist, welche das Betriebsprinzip von dem optischen System der vorliegenden Erfindung gemäß einer dritten Ausführungsform zeigt,
  • 10 das Betriebsprinzip von einer Mikrolinsen-Matrix mit einer hohen Auflösung zeigt, welche nicht mit der Hilfe von Membranen arbeitet,
  • 11 eine schematische Ansicht ist, welche die Räume von den Objekten und von den Bildern von zwei optischen Systemen zeigt, welche durch eine Einzelapertur-Optik (11a) und durch eine 2D-Mikrolinsen-Matrix (11b) gebildet sind, wobei die optischen Systeme an 2D-Fotodetektor-Matrizen mit dem gleichen Format gekoppelt sind,
  • 12 eine Variante von 11b ist,
  • 13 eine schematische Ansicht ist, welche die Räume von den Objekten und von den Bildern von einem optischen System zeigt, welches durch eine 1D-Mikrolinsen-Matrix gebildet ist,
  • 14 eine weitere Variante von 11b ist,
  • 15 ein Beispiel von einem optischen Sensor mit einer Matrix von Fotodetektoren mit konstanten Ausmaßen oder Abständen und Mikrolinsen mit unterschiedlichen Sichtfeldern auf einem Straßenszenario zeigt,
  • 16 ein Anwendungsbeispiel von dem optischen Sensor von 15 auf einem Straßenszenario ist,
  • 17 ein Beispiel von einer Matrix von Untergruppen von Fotodetektoren ist, welche den gleichen Bereichsabschnitt oder unterschiedliche Bereichsabschnitte einrahmen,
  • 18 eine Variante von der Verwendung der Membranen von 17 für optische Vorverarbeitungsfunktionen ist,
  • 19 und 20 zwei Beispiele einer Einteilung in Unterbereiche des empfindlichen Bereiches von der Fotodetektor-Matrix, wie zuvor in dem Dokument EP-A-1 418 089 durch den gleichen Anmelder beschrieben, zeigen,
  • 21 schematisch eine optische Lösung zur Erfassung von Regen, basierend auf einer Matrix von Mikrolinsen mit unterschiedlicher Brennweite, zeigt,
  • 22 ein Beispiel eines Lichtwellenleiters zeigt, welcher an die Fotodetektor-Matrix gekoppelt ist, um die Überwachungsfunktion des Insassen von dem Fahrzeug durchzuführen,
  • 23 ein Beispiel einer Einteilung in Unterbereiche des empfindlichen Bereiches von der Fotodetektor-Matrix gemäß einer bevorzugten Charakteristik von der vorliegenden Erfindung zeigt, und
  • 24 die mögliche Positionierung am Fahrzeug von multifunktionellen Sensoren für die „Toter Winkel"-Funktion gemäß der vorliegenden Erfindung zeigt.
  • Die vorliegende Erfindung bezieht sich auf einen multifunktionellen optischen Sensor, welcher eine Matrix von Fotodetektoren vom CCD- oder CMOS-Typ und eine Matrix von Mikrolinsen enthält, wobei jede Mikrolinse an eine Untergruppe (Gruppe) von Fotodetektoren (Pixel) oder an einen einzelnen Fotodetektor gekoppelt ist. Die Mikrolinsen sind in Untergruppen gruppiert, wobei jeder davon, individuell oder miteinander kombiniert, eine spezifische Funktion einer Überwachung des Bereiches oder einer Messung von Umgebungsparametern zugewiesen ist.
  • Die vorliegende Erfindung ist insbesondere auf die Anwendung bei einem Automobilfahrzeug von einem multifunktionellen optischen Sensor des oben erwähnten Typs gerichtet, welcher beispielsweise positioniert werden kann:
    • – in der Nähe von der Windschutzscheibe, beispielsweise im Innenrückspiegel, um beispielsweise die folgenden Funktionen durchzuführen: Messen einer Umgebungsbeleuchtung oder Einfahrt in einen Tunnel, Messen von einer Sonnenstrahlung, Erfassen des Vorliegens von Regentropfen auf der Windschutzscheibe, Erfassen von Zuständen eines inneren oder äußeren Beschlages auf der Windschutzscheibe, Erfassen des Vorliegens von Eis, Erfassen von Nebelbedingungen und Überwachen des Bereiches vor dem Fahrzeug (kreuzendes Fahrzeug); zusätzliche Funktionen, welche zusätzlich oder alternativ zu der Kreuzendes-Fahrzeug-Funktion integriert werden können, sind die Funktionen: Niveauregulierung, Kurven- oder Fahrbahnerfassung (zur Anweisung adaptiver Scheinwerfer oder zur Fahrbahn-Warnung), Nachtsicht (Betrachten des Bereiches mit Nahinfrarot oder NIR), Erfassen von vertikalen Straßenschildern, Erfassen von Fußgängern, Blackbox (Speichern von Bildern, bezogen auf eine vordere Überwachung in einem Umlauf-Speicherpuffer, welche im Falle eines Unfalles verwendet werden können);
    • – in der Nähe des Rückfensters, um die folgenden Funktionen durchzuführen: Messen von einer Umgebungsbeleuchtung, Regen/Beschlag (innen und außen), Eis, Nebel, Rücküberwachung (Einparken); zusätzliche Funktionen, welche zusätzlich oder alternativ zur Rücküberwachung integriert werden können, sind: Toter Winkel-Überwachung, Niveau-Regulierung, Fahrbahnerfassung, Blackbox;
    • – in den Seitenspiegeln, um die Funktionen durchzuführen: Messen von einer Umgebungsbeleuchtung, Nebel, Rücküberwachung (Toter Winkel); zusätzliche Funktionen, welche zusätzlich oder alternativ zu der Toter Winkel-Überwachung integriert werden können, sind: Einparken, Niveau-Regulierung, Fahrbahnerfassung, Blackbox;
    • – im Windschutzscheiben-Träger, für die Funktionen: Benutzeridentifikation, Insassenüberwachung für das Airbagsystem.
  • Der optische Sensor gemäß der vorliegenden Erfindung kann ebenfalls für weitere Anwendungen verwendet werden, wie beispielsweise: Straßen-Infrastrukturen, Robotik, Domotik, Agrarindustrie, usw.
  • Die vorliegende Erfindung wird nun detailliert mit Bezug auf die Betriebsprinzipien von den optischen Systemen beschrieben.
  • 2 zeigt die Einzelapertur-Optiklösungen, worauf die Dokumente EP-A-1 418 089 und EP-A-1 521 226 basieren: Die Linse 8 hat ein Sichtfeld FOV = 2·arctan (d/2f), wobei d = n·dpixel das Gesamtausmaß der Fotodetektor-Matrix 12 ist, dpixel das Ausmaß oder der Abstand (engl. pitch) des Fotodetektors 12 ist, und f die Brennweite des optischen Systems ist.
  • Im Allgemeinen, um die Ausmaße von dem optischen System, und insbesondere die Brennweite f um einen Faktor von n zu reduzieren, können Mikrolinsen 14 verwendet werden, wobei jede an einen Fotodetektor 12 gekoppelt ist, mit einem linearen Ausmaß von d/n = dpixel und einer Brennweite von f1 = f/n (3). In diesem Fall hat jede der Mikrolinsen 14 ein Sichtfeld, welches mit dem globalen Sichtfeld übereinstimmt, FOV1 = FOV = 2·arctan (dpixel/2f1).
  • Um das globale Sichtfeld FOV zu erhalten, das heißt, das Ergebnis von den einzelnen Sichtfeldern von jeder der Mikrolinsen 14, ist es notwendig, die Größe des aktiven Bereiches der Fotodetektoren 12 auf eine solche Weise zu reduzieren, dass ihre Ausmaße gleich dpixel/n sind, oder äquivalent Membranen 18, welche eine Apertur mit einem Ausmaß von dpixel/n haben, vor den Fotodetektoren 12 zu positionieren.
  • Wenn der Abstand zwischen den Mittelpunkten von den Membranen 18 unterschiedlich zu den Ausmaßen von den Mikrolinsen 14 ist, wie in 4 gezeigt, welche den Stand der Technik bildet, wird vor der Fotodetektoren-Matrix 12 eine Matrix von Membranen 18 derart positioniert, dass jegliche Mikrolinse 14 ein IFOV 16 mit einer zentralen Richtung 20 und einen konstanten Winkelabstand αi zwischen den zentralen Richtungen 20 hat (αi = α2 = α3 = α4). Die Summe von den einzelnen IFOV 16 bestimmt das globale Sichtfeld FOV. Jede Mikrolinse 14 kann ebenfalls von der angrenzenden Mikrolinse durch eine „Ablenkplatte" 18' getrennt werden, deren Funktion darin liegt, um zu verhindern, dass die Strahlung, welche von einer angrenzenden Mikrolinse kommt, den nicht entsprechenden Fotodetektor erreicht.
  • Wenn der Winkelabstand αi zwischen den zentralen Richtungen 20 nicht konstant erstellt ist, wie in Anspruch 1 enthalten und in 5 gezeigt, ist es notwendig, die Abstände zwischen den Mittelpunkten von den Membranen zu ändern. 5 zeigt schematisch eine Seitenansicht eines Abschnittes von einem optischen Sensor 10[pl], welcher eine Fotodetektoren-Matrix 12 und eine Mikrolinsen-Matrix 14 enthält, bei welchen der Abstand zwischen den Mittelpunkten von den Membranen 18 unterschiedlich ist zu den Abständen zwischen den Mittelpunkten von den Mikrolinsen 14. Jede Mikrolinse 14 wird einer Gruppe von Fotodetektoren 12 oder einem einzelnen Fotodetektor zugewiesen. In dem Beispiel von 5 sind die Mikrolinsen 14 gegenseitig identisch. Jede Mikrolinse 14 wird dazu eingestellt, um die Strahlung, welche von einem Abschnitt eines Raumwinkel IFOV 16 kommt, auf die Gruppe von Fotodetektoren 12 oder auf den einzelnen Fotodetektor 12, welcher mit der Mikrolinse 14 in Zusammenhang steht, zu fokussieren. 5 zeigt eine Matrix von Membranen 18, welche zwischen der Fotodetektoren-Matrix 12 und der Mikrolinsen-Matrix 14 positioniert ist. Die Membran-Matrix 18 ermöglicht es, um für jeden Fotodetektor 12 oder jede Gruppe von Fotodetektoren 12 den Abschnitt des Raumwinkel IFOV 16 auszuwählen.
  • Ein Unterschied mit Bezug auf den Fall von 4 liegt darin, dass der Winkelabstand αi zwischen den zentralen Richtungen 20 von den Abschnitten des Raumwinkels 16, geschnitten durch die Mikrolinsen 14, nicht konstant ist. In dem Beispiel von 5 sind die Winkel zwischen den zentralen Richtungen 20 mit α1, α2, α3 gekennzeichnet, und sie sind derart, dass gilt α1 ≠ α2 ≠ α3. Der Grund dafür liegt darin, dass der Abstand zwischen den Mittelpunkten von den Membranen 18 nicht konstant ist. Ein weiterer Unterschied liegt darin, dass das gesamte FOV nicht die Summe von dem IFOV 16 ist, und daher kann das FOV teilabgetastet werden. Um zu verhindern, dass die Strahlung, welche von einer angrenzenden Mikrolinse 14 kommt, den nicht entsprechenden Fotodetektor 12 erreicht, kann jede Mikrolinse 14 von der angrenzenden Mikrolinse 14 durch eine „Ablenkplatte" 18' getrennt werden.
  • Wenn der Winkelabstand αi zwischen den zentralen Richtungen 20 auf nicht konstant erstellt wird, jedoch der Abstand zwischen den Membranen 18 gleich den Ausmaßen von den Mikrolinsen 14 ist, wie in 6 gezeigt, müssen die Mikrolinsen unter Hinzufügung eines Prisma-Bauteils zu denn Sphären-Bauteil berechnet werden, um Mikrolinsen zu erhalten, welche mit einer optischen Achse arbeiten, welche nicht mit ihrer Symmetrieachse übereinstimmt (Off-Achse). Das IFOV 16 von jeder Mikrolinse wird derartige zentrale Richtungen 20 haben, dass gilt α1 ≠ α2 ≠ α3. Wie in dem in 6 gezeigten Fall kann das gesamte FOV teilabgetastet werden.
  • Um ein Sichtfeld abzudecken, welches größer ist als jenes, welches mit einer Brechungsoptik-Lösung möglich ist, wie oben beschrieben, können Lösungen mit Mikrolinsen der Art mit einer Gesamtreflexion, mit Reflexionslösungen und gemischten Lösungen in Betracht gezogen werden. Beispielsweise zeigt 7 eine Mikrolinse 22, welche mit einer Gesamtreflexion in Zusammenhang mit Brechungs-Off-Achse-Mikrolinsen 14 in Zusammenhang steht. 8 zeigt einen optischen Sensor mit einer Brechungslinse 24, welche mit Brechungs-Off-Achse-Mikrolinsen 14 in Zusammenhang steht.
  • Eine zusätzliche Möglichkeit zum Erlangen eines nicht konstanten Winkelabstandes αi zwischen den zentralen Richtungen 20 liegt in der Verwendung einer Matrix von Mikro-Objektiven, wie in 9 gezeigt. Die Mikro-Objektive 15 enthalten zumindest zwei überlagerte Mikro-Objektive. Die Duplett-Optik-Lösung erlaubt es, eine wirksame Brennweite (e.f.l.), welche die Rück-Brennweite (b.f.l.) beibehält, für alle Mikro-Objektive gleich zu variieren. Auf diese Weise ist der Abstand zwischen der Fotodetektoren-Matrix 12 und der Mikro-Objektive-Matrix 15 konstant (b.f.l.), während es die Möglichkeit der Variation der e.f.l. erlaubt, einen nicht konstanten Abstand zwischen den zentralen Richtungen 20, das heißt α1 ≠ α2 ≠ α3 zu erhalten. In diesem Fall werden die IFOV zur gleichen Zeit variiert.
  • Für die oben beschriebenen optischen Systeme besteht eine mögliche Alternative zur Verwendung der Membranen 18 in der Verwendung von einer Matrix mit Fotodetektoren 12, welche eine kleinere Größe als die Membrane 18 haben. Schließlich ist es bei gleichen Größen des empfindlichen Bereiches von der Fotodetektoren-Matrix 12 möglich, entweder eine hochauflösende Fotodetektoren-Matrix 12 oder eine Fotodetektoren-Matrix 12 mit einer größeren Größe und somit einer geringeren Auflösung zu erhalten. Wie in 10a gezeigt, wird unter Verwendung einer niedrig auflösenden Fotodetektoren-Matrix 12 eine Membranen-Matrix 18 verwendet, um die zentrale Richtung 20 in Zusammenhang mit jeder Mikrolinse 14 zu variieren (ein Fall, welcher in den vorherigen optischen Lösungen beschrieben ist). Anstelle dessen werden unter Verwendung einer hochauflösenden Fotodetektoren-Matrix 12, 10b, lediglich einige Fotodetektoren 12, welche der zentralen Richtung 20 der zu erlangenden Mikrolinse 14 entsprechen, aktiviert, und die weiteren werden inaktiviert, und zwar ohne die Notwendigkeit, eine Membranen-Matrix 18 zu verwenden. Die Vorteile der Verwendung einer hochauflösenden Matrix liegen in einer Beseitigung der Membrane 18 und in der Möglichkeit, die aktiven Fotodetektoren auf eine solche Weise neu zu konfigurieren (ebenfalls während einer Erlangung der Bilder von der Matrix), um die zentralen Richtungen 20 der Sichtfelder zu ändern. Die Nachteile liegen in der Tatsache begründet, dass der Versatz von den zentralen Richtungen 20 durch diskrete Schritte (der minimale Abstand ist gleich der Größe von dem Fotodetektor 12) und nicht kontinuierlich, wie bei der Verwendung der Membrane 18, auftritt, und dass zur Visualisierung der Bilder eine Vorverarbeitung zur Adressierung der aktiven Fotodetektoren erforderlich ist.
  • Die Mikrolinsen des optischen Sensors gemäß der vorliegenden Erfindung können durch GRIN(Gradienten-Index)-Material gebildet werden. Auf der unteren Ebene von einer bestimmten Mikrolinse oder von einer bestimmten Untergruppe von Mikrolinsen kann eine selektive Interferenz-Beschichtung abgelagert werden, welche als ein Filter arbeitet, um lediglich die Wellenlängen von Interesse zu übertragen. Für bestimmte Funktionen kann beispielsweise ein NIR (Nahinfrarot)-LED-Beleuchter verwendet werden, wobei das bezügliche spektrale Band mit Bezug auf den Hintergrund auszuwählen ist.
  • Die Fotodetektoren-Matrix ist in CCD- oder CMOS-Technologie, im Standard oder mit einer Parallel-Architektur (Vorverarbeitung am Fotodetektor-Pegel).
  • Die Integration von mehreren Funktionen auf einer Fotodetektoren-Matrix, welche an einer Mikrolinsen-Matrix gemäß Anspruch 1 gekoppelt ist, ist gemäß den folgenden Regeln:
  • – Jede Funktion ist einer einzelnen Mikrolinse oder mehreren Mikrolinsen, nicht gegenseitig angrenzend, oder einer einzelnen Untergruppe von gegenseitig angrenzenden Mikrolinsen oder mehreren, nicht gegenseitig angrenzenden Untergruppen von Mikrolinsen, zugeordnet.
    • - Jede Mikrolinse ist einem einzelnen Fotodetektor oder einer Untergruppe (Gruppe) von Fotodetektoren zugeordnet;
    • – die angrenzenden Fotodetektoren, welche dazu in der Lage sind, einer Funktion zugeordnet zu werden, bestimmen einen Unterbereich (ROI oder Bereich von Interesse);
    • – einige Fotodetektoren können lediglich zur Trennung der Unterbereiche verwendet werden;
    • – der Winkelabstand zwischen den zentralen Richtungen der Sichtfelder (IFOV), bezogen auf Fotodetektoren oder Gruppen von angrenzenden Fotodetektoren, ist innerhalb der Matrix nicht konstant.
  • Die Bedingung, bei welcher der Winkelabstand zwischen den zentralen Richtungen von den Sichtfeldern (IFOV), bezogen auf angrenzende Fotodetektoren oder Gruppen von Fotodetektoren innerhalb der Matrix nicht konstant ist, tritt in den folgenden Fällen auf:
    • – Es gibt angrenzende Unterbereiche, welche vielen Funktionen zugewiesen sind, in welchen die Sichtfelder von Unterbereichen unterschiedlich sind;
    • – zumindest eine der Funktionen, welche auf der Fotodetektoren-Matrix integriert sind, wird einer einzelnen Untergruppe von Mikrolinsen zugeordnet, welche einen Raumwinkel FOV schneidet, welche jedoch dank der Tatsache, dass die zentrale Richtung von dem Sichtfeld IFOV von jeder einzelnen Mikrolinse unabhängig aufgebaut werden kann, von angrenzenden Fotodetektoren oder Gruppen von Fotodetektoren, welche mit der Untergruppe von Mikrolinsen in Zusammenhang stehen, nicht stets gegenseitig angrenzende IFOV hat (dieser Fall wird in dem nachfolgenden Absatz „Matrix-Form" genauer beschrieben und dargestellt);
    • – die Mikrolinsen von zumindest einer Untergruppe haben unterschiedliche und gegenseitig angrenzende Sichtfelder, und zwar auf eine solche Weise, um eine unterschiedliche Auflösung innerhalb des globalen Sichtfeldes von der Untergruppe zu erlangen (dieser Fall wird in dem Absatz „Vordere Überwachung" genauer beschrieben und dargestellt);
    • – die Mikrolinsen von zumindest einer Untergruppe haben gleiche, jedoch nicht gegenseitig angrenzende Sichtfelder, und zwar auf eine solche Weise, um auf eine nicht angrenzende Weise das globale Sichtfeld von der Untergruppe von Mikrolinsen abzutasten, und um daher eine unterschiedliche Auflösung innerhalb des globalen Sichtfeldes von der Untergruppe von Mikrolinsen zu erlangen (dieser Fall wird in dem Absatz „Vordere Überwachung" genauer beschrieben und dargestellt).
  • Die Variation im Winkelabstand zwischen den zentralen Richtungen von den Sichtfeldern, bezogen auf Fotodetektoren oder Gruppen von Fotodetektoren, kann erlangt werden durch:
    • – Modifizieren des Abstandes zwischen den Mittelpunkten der Membrane, welche vor dem Fotodetektor oder der Gruppe von Fotodetektoren positioniert sind (5);
    • – Modifizieren des Prisma-Bauteils im Falle von Off-Achse-Mikrolinsen-Matrizen (6).
  • Die Variation im Sichtfeld von einer einzelnen Mikrolinse kann erlangt werden durch:
    • – Modifizieren des Durchmessers der Membrane, welche vor dem Fotodetektor oder der Gruppe von Fotodetektoren positioniert sind;
    • – Verwenden der Lösung mit Mikro-Objektiven (9).
  • Basierend auf den obigen Regeln können zusätzliche innovative Elemente identifiziert werden, welche im Folgenden einzeln beschrieben werden, unter Bezugnahme auf:
    • 1. Matrix-Form;
    • 2. Vordere Überwachung;
    • 3. Zoom;
    • 4. Optische Vorverarbeitung;
    • 5. Matrix-Unterteilung.
  • Matrix-Form
  • 11 ist eine schematische Ansicht, welche die Objekt- und Bildebenen von zwei optischen Systemen zeigt, wobei das Erste durch eine Einzelapertur-Optik 8 (11a) gebildet ist, und das Zweite durch eine 2D-Matrix von Mikrolinsen 14 (11b) gebildet ist, wobei die optischen Systeme an Matrizen 2D von Fotodetektoren 12 gekoppelt sind, wobei die Matrizen das gleiche Format mxn haben.
  • In 11a schneiden die Fotodetektoren 12 das IFO gemäß den Regeln der geometrischen Optik, welche auf die Linse 8 angewendet werden: Angrenzende Abschnitte von der Ebene von den Objekten werden in der Bildebene durch gegenseitig angrenzende Fotodetektoren 12 geschnitten.
  • In 11b, welche den Stand der Technik bildet, ebenso wie bei der vorherigen 11a, ist die Einzelapertur-Linse durch eine Mikrolinsen-Matrix 14 ersetzt, und die vorherigen Betrachtungen werden weiterhin angewendet: Angrenzende Abschnitte von der Objektebene werden in der Bildebene durch gegenseitig angrenzende Fotodetektoren 12 geschnitten.
  • Jedoch kann die zentrale Richtung 20 des Sichtfeld-IFOV von jeder einzelnen Mikrolinse 14 unabhängig aufgebaut werden. Daher sind in 12 die Mikrolinsen 14 derart positioniert, dass die vorherige Regel nicht länger gilt, und daher ist der Winkelabstand zwischen den zentralen Richtungen 20 des Sichtfeldes, bezogen auf angrenzende Fotodetektoren, innerhalb der Matrix nicht konstant. Jedoch ist in diesem Fall eine Vorverarbeitung zum Adressieren der Fotodetektoren notwendig, um die Bilder zu visualisieren.
  • Das vorherige Beispiel kann als eine Verallgemeinerung von bestimmten Fällen betrachtet werden, wobei zwei davon im Folgenden dargestellt werden.
  • Eine 2D-Matrix aus mxn-Fotodetektoren 12, welche eine Einzelapertur-Linse 8 mit einem Sichtfeld von x-Horizontalgrad und y-Vertikalgrad (11a) hat, kann als eine 1D-Linear-Matrix aus mxn-Fotodetektoren 12 auf eine solche Weise neu entworfen werden, dass jede Mikrolinse 14, welche mit dem entsprechenden Fotodetektor 12 in Zusammenhang steht, ein Sichtfeld von x/m-Horizontalgrad und y/n-Vertikalgrad mit einer zentralen Richtung 20 hat, um einen Abschnitt des globalen Sichtfeldes von x-Horizontalgrad und y-Vertikalgrad abzudecken (13).
  • Dies kann beispielsweise hilfreich sein, wenn es notwendig ist, die 2D-Überwachung eines Bereiches durchzuführen, und die Oberfläche, welche zur Integration des Sensors verfügbar ist, reicht lediglich für eine 1D-Linear-Matrix von mxn-Fotodetektoren und nicht für eine 2D-Matrix von mxn-Fotodetektoren aus.
  • Die Tatsache, dass die zentrale Richtung 20 des Sichtfeld IFOV von jeder einzelnen Mikrolinse 14 unabhängig aufgebaut werden kann, kann ebenfalls dazu verwendet werden, um die Einteilung der Fotodetektoren-Matrix in Unterbereiche zu optimieren, welchen spezifische Funktionen zugewiesen sind, und insbesondere um den gesamten empfindlichen Bereich von der Matrix auszunutzen.
  • 14 zeigt mittels eines Beispiels den Fall, bei welchem es eine Notwendigkeit gibt, einen Abschnitt eines Bereiches mit einem Sichtfeld von x-Horizontalgrad und y-Vertikalgrad zu betrachten, wobei x = y gilt, und der Unterbereich, welcher auf dem Sensor 10 zur Verfügung steht, welcher durch eine Matrix 2D von Fotodetektoren 12 gebildet ist, ist rechteckig: Wenn die gleiche Auflösung entlang der zwei Achsen x und y von der Objektebene beizubehalten ist, und daher das Sichtfeld für jede Mikrolinse 12 beizubehalten ist, können die Mikrolinsen auf dem rechteckigen Unterbereich wie in 14 positioniert werden.
  • Vordere Überwachung
  • Das Format von der TV-Kamera, welche in Systemen mit einer Einzelapertur-Linse zur Überwachung des Bereiches vor dem Fahrzeug verwendet wird, hängt hauptsächlich von zwei Parametern ab: Sichtfeld FOV und Auflösung R, welche in den Bereichen des Bereiches, in welchem einige Objekte mit einer höheren Genauigkeit zu unterscheiden sind (beispielsweise horizontale Zeichen auf der Straßenoberfläche), benötigt werden. Dies bedeutet, dass in den weiteren Bereichen des Bereiches, in welchem keine Objekte von Interesse sind, die vorherige Auflösung R vollständig redundant ist.
  • Für die meisten der vorderen Überwachungsfunktionen muss das Format von der Kamera zumindest CIF (320 × 256 Pixel) oder VGA (640 × 480 Pixel) sein.
  • Diese Formate sind nicht kompatibel mit den optischen Lösungen, basierend auf Mikrooptik-Matrizen, wie oben vorgeschlagen, wo die Größe von dem Fotodetektor im Bereich von Dutzenden von Mikrometer ist, das heißt viel größer als die von den Fotodetektoren (weniger als ein Dutzend von Mikrometer) von den Standard-Matrizen, welche heutzutage für Konsumenten- oder Automobil-Anwendungen verwendet werden. Die Verwendung von Fotodetektoren mit Ausmaßen im Bereich von Dutzenden von Mikrometer, zusammengefasst mit einer hohen Auflösung, bedeutet eine übermäßige Erweiterung des Gesamtbereiches auf dem Chip und daraus folgend einen Anstieg von Herstellungskosten.
  • Im Falle von optischen Lösungen, basierend auf Mikrooptik-Matrizen, ist es notwendig, die Untergruppe von Mikrolinsen, welche der vorderen Überwachungsfunktion zugewiesen sind, derart zu entwerfen, dass die Sichtfelder IFOV von den einzelnen Fotodetektoren (oder Gruppen von Fotodetektoren), gegenseitig angrenzend, für das gesamte Sichtfeld FOV von der Mikrolinsen-Untergruppe nicht konstant beibehalten werden, jedoch werden sie auf der Basis von den Auflösungen bestimmt, welche in den unterschiedlichen Bereichen des Bereiches tatsächlich erfordert werden, wie in 15 gezeigt. Daraus folgend ist der Winkelabstand zwischen den zentralen Richtungen der Sichtfelder IFOV von den einzelnen, gegenseitig angrenzenden Fotodetektoren (oder Gruppen von Fotodetektoren) nicht konstant.
  • Diese Annäherung ermöglicht es, eine höhere Auflösung im Fluchtpunkt von den Bildern in Relation zu jenem des peripheren Bereiches zu bestimmen, wie in 16 gezeigt. Vom Fluchtpunkt zu den äußeren Kanten von der Matrix fortfahrend, nimmt sowohl das Sichtfeld IFOV von den einzelnen Fotodetektoren (oder von den Fotodetektoren-Gruppen) als auch der Winkelabstand zwischen der zentralen Richtung von dem IFOV zu, oder andererseits nimmt lediglich der Winkelabstand zwischen den zentralen Richtungen von den IFOV zu, während die IFOV anstelle dessen konstant beibehalten werden, um den Abschnitt des Bereiches, welcher eine niedrigere Auflösung erfordert, nicht kontinuierlich abzutasten.
  • Zoom
  • Die Vorderbereich-Überwachungsfunktionen sind vielfältig (kreuzendes Fahrzeug, Fahrbahnwarnung, Kurvenerfassung, Erfassung vertikaler Schilder, Fußgängerüberwachung, usw.).
  • Um all diese Funktionen auf einer gleichen Fotodetektoren-Matrix zu integrieren, welche mit einer Einzelapertur-Linse gekoppelt ist, ist es zunächst notwendig, die funktionalen Spezifikationen hinsichtlich des Sichtfeldes, des minimalen und maximalen Bereiches, der Auflösung von einem Referenz-Hindernis an der maximalen Distanz, zu bewerten. Ein Zusammenfassen dieser Spezifikationen ermöglicht es, das Format von der Matrix zu bestimmen, welches offensichtlich für einige Funktionen ausreichen wird und fit weitere redundant sein wird. Mit dieser Annäherung wird das Format von der Kamera definitiv größer als VGA sein.
  • Eine Alternative, welche das Format von der TV-Kamera reduziert, legt die Verwendung von einem optischen Zoom auf. Jedoch gestalten es die Größe und Komplexität von einem optischen Zoom schwierig, ihn mit weiteren optischen Systemen zu integrieren, welche den Umgebungsparametern-Messfunktionen zugewiesen sind (siehe die Komplexität von dem in 1, gemäß der Erfindung von dem Dokument EP-A-1 418 089 , gezeigten optischen Sensor). Darüber hinaus erhöht das optische Zoom die Herstellungskosten von dem Sensor.
  • Wenn eine Matrix von Mikrolinsen anstelle der Einzelapertur-Optiksysteme verwendet wird, kann der Unterbereich, welcher der Vorderbereich-Überwachung zugewiesen ist, optimiert werden, wodurch eine Auflösung in den Bereichen erhöht wird, in denen Details zu unterscheiden sind (horizontale Zeichen, Hinderniserkennung, usw.), und sie in den Bereichen reduziert wird, in denen die notwendige Information qualitativer ist (Straßenkanten, Horizont, usw.). Dies ist äquivalent zur Verarbeitung der Bilder mit der optimalen Auflösung, wie sie durch ein optisches Zoom ermöglicht wird.
  • Die Lösungen zum Variieren von Auflösungen wurden bereits in dem vorherigen Absatz „Vordere Überwachung" diskutiert.
  • Optische Vorverarbeitung
  • Die Fähigkeit dazu, die Mikrolinsen-Matrix, welche die Richtung und Amplitude des Sichtfeldes für jede aus ihnen bestimmt, zu entwerfen, erlaubt eine Vereinfachung der Bildverarbeitung.
  • Eine mögliche optische Vorverarbeitungs-Funktion enthält ein Anwenden von optischen Filtern, um das Bild für eine nachfolgende Verarbeitung zuvor umzuwandeln. Mit einer Einzelapertur-Optik wird eine hohe Auflösung sogar in nicht wesentlichen Bereichen erfordert, um eine ausreichende Auflösung zum Identifizieren einiger Bereiche von den Bildern zu haben. Anstelle dessen, unter Verwendung unterschiedlicher Sichtfelder für jede Mikrolinse oder Untergruppen von Mikrolinsen, ist es möglich, die Unterbereiche von der Matrix mit einer geeigneten Auflösung und einem Sichtfeld zu bestimmen, um den Bildverarbeitungs-Betrieb zu vereinfachen.
  • Mit Bezug auf 17 besteht eine zusätzliche Möglichkeit in einem Bestimmen auf dem empfindlichen Bereich von der Matrix von k-Gruppen von j-Fotodetektoren, wobei jede dazu in der Lage ist (mittels einer einzelnen Mikrolinse oder einer Matrix von j- Mikrolinsen), das Bild auf dem gleichen Abschnitt des Bereiches oder auf unterschiedlichen Abschnitten des Bereiches zu erzeugen. Auf jeder Gruppe von j-Fotodetektoren sind Membranen mit unterschiedlichen Formen positioniert. Wenn eine Gruppe von Fotodetektoren einen Abschnitt des Bereiches einrahmt, welcher mit dem Bereich von der Membran übereinstimmt, ist das Signal das Höchste. Diese Annäherung kann beispielsweise für die Fahrbahn-Warnfunktion, wie in 17 gezeigt, verwendet werden, bei welcher es k/2-Gruppen von j-Fotodetektoren, welche den linken Teil von dem Straßenbereich sehen (Typ 1 Bereich von Interesse) und k/2-Gruppen von j-Fotodetektoren gibt, welche den rechten Teil von dem Straßenbereich sehen (Typ 2 Bereich von Interesse).
  • Das in 12 gezeigte Beispiel kann nun hinsichtlich eines unterschiedlichen Ansichtspunktes analysiert werden. Wie oben erläutert, sind die Mikrolinsen 14 derart positioniert, dass angrenzende Abschnitte von der Objektebene in der Bildebene nicht durch gegenseitig angrenzende Fotodetektoren 12 geschnitten sind, und daher ist der Winkelabstand zwischen den zentralen Richtungen 20 der Sichtfelder, bezogen auf angrenzende Fotodetektoren 12, innerhalb der Matrix nicht konstant. Basierend auf diesem allgemeinen Beispiel ist es möglich, k-Untergruppen von Mikrolinsen mit einem solchen Sichtfeld zu entwerfen, um k-Abschnitte des Bereiches zu sehen, welcher exakt mit der Form von den Membranen von 17 übereinstimmt, um k-Positionen von den horizontalen Demarkationslinien auszuwählen. Die k-Untergruppen von Mikrolinsen sind jedoch horizontal auf der Fotodetektoren-Matrix positioniert: Die erste Untergruppe beginnt von der oberen linken Kante von der Matrix und setzt sich nach rechts fort, die Zweite beginnt von dem Ende von der ersten Untergruppe und setzt sich nach rechts fort, usw.; wobei, wenn die rechte Kante von der Matrix erreicht wird, die nachfolgende Linie begonnen wird.
  • 18a zeigt die Vergrößerung von sowohl der Untergruppe von Fotodetektoren, bezogen auf einen ROI als auch der Fotodetektoren, welche aktuell der Bestrahlung aufgesetzt sind, welche durch die Membran passiert. 18b zeigt die Positionierung von der k-ten Untergruppe von Mikrolinsen, wie oben beschrieben.
  • Die Vorteil: von dieser Lösung sind: Die Entfernung von den Membranen von 17, die Verwendung einer Matrix mit einem kleineren Format, die Beseitigung jeglicher Form von Vorverarbeitung zur Adressierung der Fotodetektoren, wie in dem Beispiel von 17 erwähnt.
  • Matrix-Aufteilung
  • Die Aufteilung des empfindlichen Bereiches von der Fotodetektoren-Matrix kann unterschiedliche Aufbauten gemäß der Anzahl und des Typs von integrierten Funktionen haben.
  • 19 zeigt mittels eines Beispiels eine erste mögliche Aufteilung des empfindlichen Bereiches von der Fotodetektoren-Matrix, welche bereits im Dokument EP-A-1 418 089 durch den gleichen Anmelder erwähnt ist. Die gleichen Funktionen können gemäß den erfindungsgemäßen Elementen von der vorliegenden Patentanmeldung unterschiedlich integriert werden.
  • Die sogenannte „Dämmerungs"-Funktion wird durch einen Unterbereich von der Matrix durchgeführt, welcher eine Umgebungsbeleuchtung zu messen hat. Die Anzahl von Fotodetektoren, welche dieser Funktion zugewiesen sind, kann auf gerade mal einen reduziert werden, und es gibt keine Einschränkung hinsichtlich der Positionierung des empfindlichen Bereiches von der Matrix. Gemäß einer bevorzugten Eigenschaft, ist ein zentraler Fotodetektor (oder sind einige Fotodetektoren) umgeben (werden umgeben) durch acht oder mehrere Fotodetektoren, welche unterschiedliche Sichtfelder haben, wobei der Zentrale bzw. die Zentralen größer ist bzw. sind, und die Seitlichen kleiner sind, um eine Information sowohl über die Intensität von der Umgebungsbeleuchtung (zentraler Fotodetektor bzw. zentrale Fotodetektoren) als auch über die Intensität und Richtung einer Sonneneinstrahlung (seitliche Fotodetektoren) zu erlangen. Die Information über die Umgebungsbeleuchtung ermöglicht ein automatisches Ein-/Ausschalten der Scheinwerfer von den Fahrzeugen in Bedingungen einer schwachen Beleuchtung. Die Information über die Richtung der Sonnenbestrahlung ermöglicht es, das Klimaanlagensystem von dem Fahrzeug zu optimieren, beispielsweise um die Luftflüsse von Mehrfachzonen-Klimaanlagensystemen zu aktivieren und zu regulieren.
  • Gemäß einer zusätzlichen bevorzugten Charakteristik sind einige Fotodetektoren zum Armaturenbrett von dem Fahrzeug gerichtet, um die darauf gerichtete Strahlung (indirekte Strahlung auf die Fotodetektoren) zu messen. Die Fotodetektoren, welche der Beleuchtungs- und Sonnenstrahlungs-Funktion zugewiesen sind, können voneinander getrennt, das heißt in nicht angrenzenden Positionen, positioniert werden.
  • Mit Bezug auf die Nebelerfassungs-Funktion (basierend auf einer aktiven Technik) kann die Anzahl von Fotodetektoren sogar auf gerade mal einen reduziert werden, und es gibt keine Beschränkungen hinsichtlich der Positionierung von dem empfindlichen Bereich von der Matrix.
  • Für die Tunnel-Funktion kann die Anzahl von Fotodetektoren auf gerade mal einen reduziert werden, und es gibt keine Beschränkungen hinsichtlich der Positionierung von dem empfindlichen Bereich von der Matrix. Gemäß einer bevorzugten Eigenschaft, hat ein Fotodetektor (bzw. haben einige Fotodetektoren) ein vorderes Sichtfeld von ungefähr 20 Grad, und hat ein zweiter Fotodetektor (bzw. haben einige Fotodetektoren) ein kleineres Sichtfeld von beispielsweise etwa 10 Grad.
  • Der Unterbereich von der empfindlichen Matrix, welcher mit „Vordere Überwachung" gekennzeichnet ist, führt die sogenannte „Fahrbahn-Warnung"-Funktion durch. Vorzugsweise ist der Bereich von Interesse (das heißt der Bereich, welcher zur Bildverarbeitung wirksam verwendet wird) ein Trapez, und daher wird die Anzahl von Fotodetektoren, welche dieser Funktion zugewiesen sind, von jener, welche im Dokument EP-A-1 418 089 durch den gleichen Anmelder beschrieben ist, reduziert. Vorzugsweise ist das Sichtfeld der Fotodetektoren in den Bereichen von den Bildern kleiner (höhere Auflösung), in welchen die Fahrbahn-Demarkationslinien sich befinden können. Dies ermöglicht es, die Anzahl von Fotodetektoren, welche diesen Funktionen zugewiesen sind, zu reduzieren.
  • Der Bereich, welcher „Vordere Überwachung" genannt wird, kann, alternativ oder zusätzlich zur „Fahrbahn-Warnung"-Funktion, der Kreuzendes-Fahrzeug-Erfassungsfunktion zugewiesen werden. Gemäß einer bevorzugten Eigenschaft, ist der Bereich von Interesse (das heißt der Bereich, welcher zur Bildverarbeitung wirksam verwendet wird) ein Trapez, und daher wird die Anzahl von Fotodetektoren, welche dieser Funktion zugewiesen sind, von jener, wie im Dokument EP-A-1 418 089 durch den gleichen Anmelder beschrieben, reduziert. Die Sichtfelder von den Fotodetektoren sind in den Bereichen des Bildes, wo die potenziellen Anzeigen des Vorliegens von Scheinwerfern von einem kreuzenden Fahrzeug oder von Rückleuchten von einem Fahrzeug, welches dem bezogenen Fahrzeug vorausfährt (jenes, an welchem der Sensor befestigt ist) lokalisiert werden können, kleiner. Gemäß einer bevorzugten Eigenschaft sind zwei Untergruppen von Fotodetektoren bereitgestellt, um diese Funktion durchzuführen: Die Fotodetektoren von der ersten Untergruppe haben Sichtfelder, welche eine lange Bereichsüberwachung von dem Bereich sicherstellen, um Fahrzeuge zu erfassen, welche von der entgegengesetzten Fahrbahn ankommen, und die Fotodetektoren von der zweiten Untergruppe haben Sichtfelder, welche eine kurze Bereichsüberwachung des Bereiches sicherstellen, um die Fahrzeuge zu erfassen, welche dem bezogenen Fahrzeug vorausfahren.
  • Gemäß einer bevorzugten Eigenschaft kann ein Satz von Fotodetektoren, welche in den nicht verwendeten Bereichen des Unterbereiches für die vordere Überwachungsfunktion positioniert sind, einer seitlichen Überwachung zugewiesen werden, das heißt die Erfassung des Vorliegens von einer Kurve, um die adaptiven Scheinwerfer des Fahrzeugs anzusteuern.
  • Der Abschnitt des empfindlichen Bereiches, welcher als „Vordere Überwachung" bezeichnet wird, kann einer Kombination von mehreren Funktionen dienen, beispielsweise eine Fahrbahn-Warnung, ein kreuzendes Fahrzeug, eine Kurvenerfassung, usw. Der Unterbereich, welcher solchen Funktionen zugewiesen ist, enthält vorzugsweise Fotodetektoren, deren Mikrolinsen optimierte Richtungen und Sichtfelder haben: eine hohe Auflösung gibt es lediglich in den Bereichen, in welchen die Objekte von Interesse für die Verarbeitungsalgorithmen lokalisiert sein können, eine niedrige Auflösung gibt es in Bereichen von keinem Interesse (beispielsweise der Horizont). Das Ergebnis ist mit jenen vergleichbar, welches durch ein optisches Zoom erlangt werden könnte.
  • 20 zeigt ein zweites Beispiel einer Einteilung des empfindlichen Bereiches von der Fotodetektoren-Matrix, wie bereits in dem Dokument EP-A-1 418 089 durch den gleichen Anmelder beschrieben. Die gleichen Funktionen können gemäß den erfindungsgemäßen Elementen von der vorliegenden Patentanmeldung integriert werden.
  • Für die Regen/Beschlag-Funktion gibt es keine Einschränkungen hinsichtlich der Positionierung auf denn empfindlichen Bereich von der Matrix. In der in Dokument EP-A-1 418 089 beschriebenen Lösung muss, um die Regentropfen auf der gleichen Bildebene zu haben, die optische Achse senkrecht zur Windschutzscheibe sein. Gemäß der vorliegenden Erfindung erlaubt die Verwendung von Mikrolinsen die Beibehaltung der optischen Achse auf der Mikrolinsen-Matrix parallel zur Straßenebene. Es ist möglich, den unterschiedlichen Abstand zwischen der Fotodetektoren-Matrix und der Windschutzscheibe, auf welcher die Regentropfen liegen, zu kompensieren, indem Mikrolinsen mit einer unterschiedlichen Brennweite entworfen werden, wie in der schematischen Darstellung von 21 gezeigt. In dieser Figur ist die Windschutzscheibe von dem Fahrzeug durch das Bezugszeichen 30 gekennzeichnet. Das Bezugszeichen 32 zeigt schematisch Wassertropfen an, welche sich auf der Außenfläche von der Windschutzscheibe befinden. Die Bezugszeichen 14', 14'', 14''' kennzeichnen Mikrolinsen mit einer unterschiedlichen Brennweite, welche derart positioniert sind, dass die jeweiligen Fokussierungspunkte auf die Ebene von den Fotodetektoren unterschiedlich von dem unterschiedlichen Abstand der Mikrolinsen in Relation zur Windschutzscheibe fallen.
  • Mit Bezug auf 22 kennzeichnet das Bezugszeichen 36 eine Vorrichtung, welche dazu in der Lage ist, die Funktion einer Überwachung des Fahrzeuginsassen durchzuführen. Die Fotodetektoren-Matrix, welche durch das Bezugszeichen 38 gekennzeichnet ist, ist zur Vorderseite des Fahrzeugs gerichtet. Einige Fotodetektoren 40, welche sich beispielsweise in der unteren linken und rechten Kante von der Matrix 38 befinden, werden dazu verwendet, um die Position von dem Fahrer und das Vorliegen, den Typ und die Position des Beifahrers zu bestimmen. Da diese Funktion keine Optik erfordert, welche dazu in der Lage ist, das Bild von dem gesamten Fahrzeug zu erzeugen, sondern lediglich das Vorliegen von Insassen zu überwachen und zu unterscheiden, ist eine Anzahl von Fotodetektoren gleich beispielsweise bis zu Neun angezeigt. Da sich der Innenraum von dem Fahrzeug hinter der aktiven Seite von der Fotodetektoren-Matrix 38 befindet, wird, um den Bereich zu sehen, ein optisches System 42 verwendet, welches dazu in der Lage ist, das Bild zu empfangen, welches sich hinter der Fotodetektoren-Matrix befindet. Beispielsweise kann das optische System 42 ein Wellenleiterelement sein, wie in 22 gezeigt. Alternativ kann das optische System 42 Prismaelemente enthalten (nicht gezeigt). Das Sichtfeld des optischen Systems ist durch das Bezugszeichen 44 gekennzeichnet.
  • 23 zeigt eine zusätzliche Möglichkeit der Einteilung von der nützlichen Oberfläche der Fotodetektoren-Matrix. Diese Einteilung ermöglicht es, eine höhere Anzahl von Funktionen auf einer Matrix mit einem reduzierten Format (beispielsweise CIF) zu integrieren.
  • 24 zeigt die mögliche Anordnung von Sensoren 10 gemäß der vorliegenden Erfindung zur Durchführung der Funktion eines Betrachtens des Toten Winkels. Gemäß einer bevorzugten Eigenschaft von der Erfindung kann, um diese Funktion durchzuführen, jeder Sensor 10 zwei unterschiedliche Sichtfelder haben, um unterschiedliche Richtungen und Abstände abzudecken, so dass der Ankunftswinkel die zwei Strahlen zu unterschiedlichen Zeiten kreuzt, wodurch ein gestuftes Signal erzeugt wird, welches dazu verwendet werden kann, um die Gefahr zu signalisieren.

Claims (23)

  1. Multifunktioneller optischer Sensor mit einer Matrix von Fotodetektoren (12) vom COD- oder CMOS-Typ, welche einen empfindlichen Bereich hat, welcher in Teilbereiche aufgeteilt ist, wobei jedem davon, individuell oder miteinander kombiniert, eine spezifische Funktion einer Überwachung des durch den Sensor beobachteten Bereichs oder einer Messung von Umgebungsparametern zugewiesen ist, wobei: der optische Sensor eine Matrix von Mikrolinsen (14, 15) enthält, wobei jede Mikrolinse dazu eingestellt ist, um die Strahlung, welche von einem Abschnitt eines Raumwinkels (16) kommt, auf den zugehörigen Fotodetektor (12) oder eine Gruppe von gegenseitig angrenzenden Fotodetektoren (12) zu fokussieren, jede Funktion einer einzelnen Mikrolinse oder einer einzelnen Untergruppe von gegenseitig angrenzenden Mikrolinsen oder mehreren, nicht gegenseitig angrenzenden Mikrolinsen, oder nicht gegenseitig angrenzenden Untergruppen von Mikrolinsen zugeordnet ist, die angrenzenden Fotodetektoren dazu in der Lage sind, einer Funktion zum Bestimmen eines Unterbereichs, welcher ein Bereich von Interesse (ROI) ist, zugeordnet zu werden, und der Winkelabstand zwischen den Zentralrichtungen von den Abschnitten des Raumwinkels (16), geschnitten durch angrenzende Fotodetektoren oder angrenzende Gruppen von Fotodetektoren, innerhalb der Matrix nicht konstant ist, dadurch gekennzeichnet, dass der nicht konstante Winkelabstand bereitgestellt ist, indem: der Sensor, welcher eine Matrix von Membranen (18) enthält, zwischen der Fotodetektoren-Matrix (12) und der Mikrolinsen-Matrix (14) positioniert ist, wobei die Abstände zwischen den Zentren von den Membranen unterschiedlich zu den Ausmaßen der Mikrolinsen sind, wobei die Matrix von Membranen (18) es durch ein Ändern der Abstände zwischen den Zentren von den Membranen ermöglicht, für jeden Fotodetektor (12) oder jede Gruppe von Fotodetektoren einen Abschnitt von dem Raumwinkel, welcher durch jede Mikrolinse (14) geschnitten ist, auszuwählen, oder indem der Sensor, welcher eine Matrix von Membranen (18) enthält, zwischen der Fotodetektoren-Matrix (12) und der Mikrolinsen-Matrix (14) positioniert ist, wobei die Abstände zwischen den Zentren von den Membranen gleich den Ausmaßen von den Mikrolinsen sind, und die Mikrolinsen (14) auf einem jeweiligen Fotodetektor (12) oder einer Gruppe von Fotodetektoren zentriert sind, wobei jede Mikrolinse (14) auf eine derartige Weise entworfen ist, um für jeden Fotodetektor (12) oder jede Gruppe von Fotodetektoren einen Abschnitt des Raumwinkels, welcher durch jede Mikrolinse geschnitten ist, auszuwählen, oder indem der Sensor, welcher eine Matrix von Membranen (18) enthält, zwischen der Fotodetektoren-Matrix (12) und der Mikrolinsen-Matrix (14) positioniert ist, wobei die Abstände zwischen den Zentren von den Membranen unterschiedlich zu den Ausmaßen von den Mikrolinsen sind, wobei die Mikrolinsen eine Matrix von Mikro-Objektiven (15) sind, wobei jedes davon durch zumindest zwei Mikrolinsen gebildet ist, wobei jedes der Mikro-Objektive (15) einem jeweiligen Fotodetektor (12) oder einer Gruppe von Fotodetektoren (12) und zugeordneten Membranen zugeordnet ist, wobei es die Mikro-Objektive (15) erlauben, eine Brennweite wirksam zu variieren, während die Rück-Brennweite beibehalten ist, und dadurch eine nicht konstante Trennung zwischen den Zentralrichtungen erlauben, oder indem der Sensor, welcher keine Matrix von Membranen und die Matrix von Fotodetektoren (12) enthält, eine Hochauflösungs-Matrix ist, welche aktive Fotodetektoren (12) und inaktive Fotodetektoren (12) enthält, wobei die aktiven Fotodetektoren (12) die Zentralrichtung des Sichtfeldes, geschnitten durch eine jeweilige Mikrolinse, bestimmen.
  2. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass eine Trennwand zwischen angrenzenden Mikrolinsen vorliegt.
  3. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass die Mikrolinsen (14, 22, 24) Brechungs-Mikrolinsen mit einer Totalreflexion, einer Reflexion oder einer Kombination aus dem Obigen sind.
  4. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass es angrenzende Unterbereiche gibt, welche so vielen Funktionen zugewiesen sind, in welchen die Sichtfelder von den Unterbereichen unterschiedlich sind.
  5. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass zumindest eine der Funktionen, welche auf der Fotodetektoren-Matrix integriert sind, einer einzelnen Mikrolinsen-Untergruppe zugeordnet ist, welche ein Raumwinkel-Sichtfeld und angrenzende Fotodetektoren oder Fotodetektor-Gruppen, welche der Mikrolinsen-Untergruppe zugeordnet sind, welche nicht immer gegenseitig angrenzende individuelle Sichtfelder hat, schneidet.
  6. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass die Mikrolinsen von zumindest einer Untergruppe unterschiedliche und gegenseitig angrenzende Sichtfelder haben.
  7. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass die Mikrolinsen von zumindest einer Untergruppe gleiche, jedoch nicht angrenzende Sichtfelder haben, und zwar auf eine solche Weise, um auf eine nicht angrenzende Weise das globale Sichtfeld von der Mikrolinsen-Untergruppe abzutasten.
  8. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass es Fotodetektoren gibt, welche lediglich zur Trennung der angrenzenden Unterbereiche von dem empfindlichen Bereich von der Fotodetektoren-Matrix verwendet sind.
  9. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass die Mikrolinsen (14) durch einen Gradienten-Index, GRIN, Material gebildet sind.
  10. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass die Mikrolinsen von zumindest einer Untergruppe auf ihrer Oberfläche, welche zur Fotodetektoren-Matrix (12) gerichtet ist, eine selektive Interferenz-Optikbeschichtung haben, welche als ein Filter wirkt, um lediglich die Wellenlängen von Interesse zu übertragen.
  11. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass die Fotodetektoren-Matrix (12) in CCD- oder CMOS-Technologie, im Standard oder mit einer Parallel-Architektur ist, bereitgestellt mit einer Vorverarbeitung am Fotodetektor-Pegel (12).
  12. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass zumindest ein Unterbereich von der Matrix, welcher mxn-Fotodetektoren hat, mit einer Untergruppe von Mikrolinsen auf eine solche Weise gekoppelt ist, dass angrenzende Abschnitte von der Objektebene in der Bildebene durch Fotodetektoren (12) geschnitten sind, welche nicht gegenseitig angrenzend sind.
  13. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass ein Unterbereich, welcher mxn = t Fotodetektoren hat, welcher ein Sichtfeld von x-Horizontalgrad und y- Vertikalgrad schneidet, auf der Matrix als ein Unterbereich neu abgebildet ist, welcher pxq = t Fotodetektoren hat, wobei jeder Fotodetektor ein Sichtfeld von x/m-Horizontalgrad und y/n-Vertikalgrad und eine Zentralrichtung, welche einen Abschnitt von dem globalen Sichtfeld von x-Horizontalgrad und y-Vertikalgrad abdeckt, hat.
  14. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass er zumindest eine Untergruppe von Mikrolinsen (14) enthält, welche der Frontalbereich-Überwachungsfunktion zugewiesen sind, wobei bei den Mikrolinsen, welche zu der Untergruppe gehören, der Winkelabstand zwischen den Zentralrichtungen, geschnitten durch die angrenzenden Mikrolinsen, nicht konstant ist, und die einzelnen Sichtfelder, geschnitten durch die Mikrolinsen, nicht konstant sind, und zwar auf eine solche Weise, um die Auflösung in spezifischen Bereichen von Interesse des Bereiches zu variieren.
  15. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass er zumindest eine Untergruppe von Mikrolinsen (14) enthält, welche der Frontalbereich-Überwachungsfunktion zugewiesen sind, wobei bei den Mikrolinsen, welche zu der Untergruppe gehören, der Winkelabstand zwischen den Zentralrichtungen, geschnitten durch die angrenzenden Mikrolinsen, nicht konstant ist, und die einzelnen Sichtfelder, geschnitten durch die Mikrolinsen, konstant sind, und zwar auf eine solche Weise, um auf eine nicht angrenzende Weise den Abschnitt des Bereiches, für welchen eine niedrigere Auflösung erforderlich ist, abzutasten.
  16. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass in der zuvor genannten Fotodetektoren-Matrix (12) k Gruppen von j Fotodetektoren bestimmt sind, wobei jede Gruppe dazu in der Lage ist, das Bild von dem gleichen Abschnitt des Bereiches oder von unterschiedlichen Abschnitten des Bereiches auf den Gruppen, welche positionierte Membrane mit unterschiedlichen Formen sind, zu erzeugen, so dass, wenn eine Gruppe das Bild von dem Abschnitt des Bereiches erzeugt, welches mit der Form von der Membran am besten übereinstimmt, das Signal am stärksten ist.
  17. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass in der zuvor genannten Fotodetektoren-Matrix (12) k Gruppen von Fotodetektoren bestimmt sind, welche horizontal positioniert sind, wobei die Gruppen mit den jeweiligen Mikrolinsen gekoppelt sind, welche dazu in der Lage sind, das Bild von k unterschiedlichen Abschnitten von dem Bereich zu erzeugen.
  18. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass er zumindest einen Fotodetektor enthält, welcher der Funktion zum Messen einer Umgebungsbeleuchtung dient, wobei er in irgendeinem Punkt von dem empfindlichen Bereich von der Fotodetektoren-Matrix positioniert ist, wobei der zumindest eine Fotodetektor mit einer zentralen Mikrolinse in Zusammenhang steht, welche durch eine bestimmte Anzahl von Mikrolinsen umgeben ist, und zwar auf eine solche Weise, um eine Information sowohl über die Intensität einer Umgebungsbeleuchtung mittels der zentralen Mikrolinse, als auch über die Intensität und Richtung von einer Sonnenbestrahlung mittels der lateralen Mikrolinsen zu erlangen.
  19. Optischer Sensor nach Anspruch 18, dadurch gekennzeichnet, dass zumindest eine der lateralen Mikrolinsen auf ein Armaturenbrett des Fahrzeugs gerichtet ist, um die darauf gerichtete Sonnenbestrahlung zu messen.
  20. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass der Unterbereich von der Fotodetektoren-Matrix, welcher dazu bestimmt ist, um die frontale Überwachungsfunktion durchzuführen, die Form eines Trapez hat.
  21. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass die Mikrolinsen für eine Regenfunktion ihre optische Achse parallel zur Straßenebene haben und eine solche Brennweite haben, um die Krümmung von der Windschutzscheibe zu kompensieren.
  22. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass zur Insassen-Überwachungsfunktion in der Fotodetektoren-Matrix ein oder mehrere Pixel zugeordnet sind, welche an ein Prismen- oder Wellenleiter-System gekoppelt sind, welches dazu in der Lage ist, das Bild zu empfangen, welches zur Rückseite von der Fotodetektoren-Matrix positioniert ist.
  23. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass für die Blindwinkel-Überwachungsfunktion in der Fotodetektoren-Matrix eine oder mehrere Untergruppen von Fotodetektoren zugeordnet sind, wobei die Untergruppen von Fotodetektoren unterschiedliche Sichtfelder haben, um unterschiedliche Richtungen mit unterschiedlichen Auflösungen abzudecken.
DE602005004544T 2005-09-19 2005-09-19 Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren Active DE602005004544T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP05425654A EP1764835B1 (de) 2005-09-19 2005-09-19 Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren

Publications (2)

Publication Number Publication Date
DE602005004544D1 DE602005004544D1 (de) 2008-03-13
DE602005004544T2 true DE602005004544T2 (de) 2008-04-30

Family

ID=35954120

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602005004544T Active DE602005004544T2 (de) 2005-09-19 2005-09-19 Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren

Country Status (6)

Country Link
US (2) US7518099B2 (de)
EP (1) EP1764835B1 (de)
JP (2) JP2007086068A (de)
CN (1) CN100573891C (de)
AT (1) ATE385044T1 (de)
DE (1) DE602005004544T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009053452A1 (de) * 2009-11-17 2011-06-16 Conti Temic Microelectronic Gmbh Kamerasystem mit flachem Aufbau
DE102014108239A1 (de) * 2014-06-12 2015-12-17 Hella Kgaa Hueck & Co. Verfahren zur adaptiven Steuerung eines hochauflösenden Scheinwerfersystems

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7502474B2 (en) * 2004-05-06 2009-03-10 Advanced Micro Devices, Inc. Network interface with security association data prefetch for high speed offloaded security processing
US9524439B2 (en) 2004-05-25 2016-12-20 Continental Automotive Gmbh Monitoring unit and assistance system for motor vehicles
US7701636B2 (en) 2008-03-06 2010-04-20 Aptina Imaging Corporation Gradient index microlenses and method of formation
WO2010041198A1 (en) 2008-10-10 2010-04-15 Koninklijke Philips Electronics N.V. Light directionality sensor
DE102008061760A1 (de) * 2008-12-12 2010-06-17 Daimler Ag Vorrichtung zur Überwachung einer Umgebung eines Fahrzeugs
DE102008062977A1 (de) * 2008-12-23 2010-06-24 Adc Automotive Distance Control Systems Gmbh Optisches Modul mit multifokaler Optik zur Erfassung von Fern- und Nahbereich in einem Bild
JP5320180B2 (ja) * 2009-06-19 2013-10-23 ナイルス株式会社 車両のレイン・乗員検出センサ
DE102009027372A1 (de) * 2009-07-01 2011-01-05 Robert Bosch Gmbh Kamera für ein Fahrzeug
DE112010001879A5 (de) 2009-07-06 2012-10-11 Conti Temic Microelectronic Gmbh Optisches Modul zur gleichzeitigen Fokussierung auf zwei Sichtbereiche
EP2557414B1 (de) 2009-12-21 2015-03-25 C.R.F. Società Consortile per Azioni Optisches Detektionssystem für Kraftfahrzeuge mit mehreren Funktionen, einschließlich Detektion des Fahrbahnzustands
US8836848B2 (en) * 2010-01-26 2014-09-16 Southwest Research Institute Vision system
EP2793163B1 (de) 2010-03-11 2016-05-18 Datalogic IP TECH S.r.l. Bilderfassungsvorrichtung
US8942964B2 (en) 2010-06-08 2015-01-27 Southwest Research Institute Optical state estimation and simulation environment for unmanned aerial vehicles
JP5638328B2 (ja) * 2010-09-21 2014-12-10 Jx日鉱日石エネルギー株式会社 潤滑油劣化モニター装置
GB201020024D0 (en) 2010-11-25 2011-01-12 St Microelectronics Ltd Radiation sensor
GB201020023D0 (en) 2010-11-25 2011-01-12 St Microelectronics Ltd Radiation sensor
GB2486000A (en) 2010-11-30 2012-06-06 St Microelectronics Res & Dev Optical proximity detectors with arrangements for reducing internal light propagation from emitter to detector
WO2012092911A1 (de) 2010-11-30 2012-07-12 Conti Temic Microelectronic Gmbh Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung
GB2485998A (en) 2010-11-30 2012-06-06 St Microelectronics Res & Dev A single-package optical proximity detector with an internal light baffle
GB2485996A (en) 2010-11-30 2012-06-06 St Microelectronics Res & Dev A combined proximity and ambient light sensor
DE102011017355B4 (de) * 2011-04-16 2022-08-11 Continental Autonomous Mobility Germany GmbH Multifokales Abbildungssystem mit optischen Filtern
US8466406B2 (en) 2011-05-12 2013-06-18 Southwest Research Institute Wide-angle laser signal sensor having a 360 degree field of view in a horizontal plane and a positive 90 degree field of view in a vertical plane
AU2012255691B2 (en) * 2011-05-16 2016-12-08 Garrett Thermal Systems Limited Surveillance system
DE102011103302A1 (de) 2011-06-03 2012-12-06 Conti Temic Microelectronic Gmbh Kamerasystem für ein Fahrzeug
US20130135515A1 (en) * 2011-11-30 2013-05-30 Sony Corporation Digital imaging system
DE102011056051A1 (de) 2011-12-05 2013-06-06 Conti Temic Microelectronic Gmbh Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera unter Berücksichtigung von Informationen über Regen
US20130169606A1 (en) * 2011-12-30 2013-07-04 Qualcomm Mems Technologies, Inc. Light direction distribution sensor
DE102012103873A1 (de) 2012-05-03 2013-11-21 Conti Temic Microelectronic Gmbh Detektion von Regentropfen auf einer Scheibe mittels einer Kamera und Beleuchtung
DE102012105434B4 (de) * 2012-06-22 2014-06-05 Conti Temic Microelectronic Gmbh Kamerasystem für ein Fahrzeug zur Erfassung von Bilddaten aus mehreren Entfernungsbereichen
DE102013208677A1 (de) * 2013-05-13 2014-11-13 Robert Bosch Gmbh Bildaufnehmer zur Aufnahme eines zweidimensionalen optischen Bildes
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
CN103715215B (zh) * 2013-12-30 2018-10-16 上海集成电路研发中心有限公司 一种对角度敏感的图像像素单元
CN103745984B (zh) * 2013-12-31 2018-06-22 上海集成电路研发中心有限公司 可测量入射光角度的像素阵列、图像传感器及方法
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
US9506803B2 (en) * 2014-09-17 2016-11-29 Delphi Technologies, Inc. Vehicle optical sensor system
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10023120B2 (en) * 2016-03-30 2018-07-17 Delphi Technologies, Inc. Multi-purpose camera device for use on a vehicle
FR3050831B1 (fr) * 2016-04-29 2018-04-27 Silios Technologies Dispositif d'imagerie multispectrale
US10274599B2 (en) * 2016-06-01 2019-04-30 Toyota Motor Engineering & Manufacturing North America, Inc. LIDAR systems with expanded fields of view on a planar substrate
EP3487175A1 (de) * 2017-11-21 2019-05-22 Reliance Core Consulting LLC Verfahren und systeme zum erfassen einer bewegung, die einem interessierenden feld entspricht
JP6922705B2 (ja) * 2017-12-06 2021-08-18 トヨタ自動車株式会社 センサー搭載構造
US10953797B2 (en) * 2018-04-05 2021-03-23 Toyota Motor Engineering & Manufacturing North America, Inc. Cloaking devices with converging lenses and coherent image guides and vehicles comprising the same
CN108387974B (zh) * 2018-05-02 2023-11-07 中国人民解放军国防科技大学 一种高功率光纤激光收发一体端帽
KR102079349B1 (ko) * 2018-10-29 2020-04-07 니덱모빌리티코리아 주식회사 감지 성능이 향상된 태양광센서
CN110027458B (zh) * 2019-05-08 2020-12-22 嘉兴市万荣电器股份有限公司 自平衡新能源汽车防护小桌板
CN112882356B (zh) * 2019-11-29 2021-11-12 上海微电子装备(集团)股份有限公司 光电探测器、调焦调平装置以及光刻投影设备
CN113534403B (zh) * 2020-03-31 2023-03-10 华为技术有限公司 一种摄像头模组及电子设备
CN112584015B (zh) * 2020-12-02 2022-05-17 达闼机器人股份有限公司 物体探测方法、装置、存储介质和电子设备
CN112600994B (zh) * 2020-12-02 2023-04-07 达闼机器人股份有限公司 物体探测装置、方法、存储介质和电子设备
DE102021132724A1 (de) * 2021-12-10 2023-06-15 Valeo Schalter Und Sensoren Gmbh Optischer fahrzeug-umgebungssensor, fahrzeug und herstellungsverfahren
CN114283602A (zh) * 2021-12-17 2022-04-05 一汽奔腾轿车有限公司 一种基于微透镜阵列的v2x路况投影系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550677A (en) * 1993-02-26 1996-08-27 Donnelly Corporation Automatic rearview mirror system using a photosensor array
JPH08107194A (ja) * 1994-10-03 1996-04-23 Fuji Photo Optical Co Ltd 固体撮像装置
US5751492A (en) * 1996-06-14 1998-05-12 Eastman Kodak Company Diffractive/Refractive lenslet array incorporating a second aspheric surface
GB9618717D0 (en) * 1996-09-07 1996-10-16 Philips Electronics Nv Image sensor
JPH10239777A (ja) * 1997-02-28 1998-09-11 Kuraray Co Ltd 背面投写型映像表示装置
US6381072B1 (en) * 1998-01-23 2002-04-30 Proxemics Lenslet array systems and methods
DE19909986C2 (de) * 1999-03-06 2002-08-29 Kostal Leopold Gmbh & Co Kg Optoelektronische Überwachungseinrichtung für ein Kraftfahrzeug
EP1107316A3 (de) * 1999-12-02 2004-05-19 Nikon Corporation Festkörperbildsensor, dessen Herstellungsverfahren und digitale Kamera
US6995800B2 (en) * 2000-01-27 2006-02-07 Canon Kabushiki Kaisha Image pickup apparatus utilizing a plurality of converging lenses
ITTO20020950A1 (it) * 2002-11-05 2004-05-06 Fiat Ricerche Sistema di visione integrato multifunzionale, con matrice
ITTO20030770A1 (it) * 2003-10-02 2005-04-03 Fiat Ricerche Dispositivo di rilevamento installabile lungo una
US7081998B2 (en) * 2003-10-23 2006-07-25 Sanyo Electric Co., Ltd. Solid-state imaging apparatus
DE102004003013B3 (de) * 2004-01-20 2005-06-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und dessen Verwendung
US7187502B2 (en) * 2005-06-09 2007-03-06 Microalign Techologies, Inc. Compact optical assembly for imaging a remote object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009053452A1 (de) * 2009-11-17 2011-06-16 Conti Temic Microelectronic Gmbh Kamerasystem mit flachem Aufbau
DE102014108239A1 (de) * 2014-06-12 2015-12-17 Hella Kgaa Hueck & Co. Verfahren zur adaptiven Steuerung eines hochauflösenden Scheinwerfersystems

Also Published As

Publication number Publication date
CN1937236A (zh) 2007-03-28
CN100573891C (zh) 2009-12-23
DE602005004544D1 (de) 2008-03-13
EP1764835B1 (de) 2008-01-23
US20070096010A1 (en) 2007-05-03
JP2007086068A (ja) 2007-04-05
ATE385044T1 (de) 2008-02-15
EP1764835A1 (de) 2007-03-21
US7518099B2 (en) 2009-04-14
JP3168177U (ja) 2011-06-02
US20090236505A1 (en) 2009-09-24

Similar Documents

Publication Publication Date Title
DE602005004544T2 (de) Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren
DE102016215618B4 (de) Fahrzeugkameravorrichtung zur bildaufnahme vor dem fahrzeug und zur fahrzeugsteuerung
EP2715446B1 (de) Kamerasystem für ein fahrzeug
DE60214593T2 (de) Stereoabbildung mit einem bildsensor verwendender feuchtigkeitssensor
EP1015287B1 (de) Optoelektronische überwachungseinrichtung für ein kraftfahrzeug
DE102004037871B4 (de) Optisches Modul für ein den Außenvorraum in Fahrtrichtung eines Kraftfahrzeuges erfassendes Assistenzsystem
DE602004005012T2 (de) Detektionsvorrichtung
DE102009027372A1 (de) Kamera für ein Fahrzeug
EP2910847A2 (de) Lichtmodul eines Kraftfahrzeugscheinwerfers und Scheinwerfer mit einem solchen Lichtmodul
DE102005000650A1 (de) Vorrichtung zur Erfassung visueller Daten
WO2011015196A1 (de) Bildgebender lidarsensor
WO2010103061A1 (de) Vorrichtung und verfahren zur detektion mindestens eines objektes
EP1159169A1 (de) Optoelektronische überwachungseinrichtung für ein kraftfahrzeug
DE10138361A1 (de) Verfahren zur Verbessung der Sicht in Fahrzeugen
WO2006015906A1 (de) Optisches modul für ein fahrerassistenzsystem
DE102010023593A1 (de) Optische Vorrichtung mit einem bifokalen optischen Element und einem Spiegelelement
DE102011017355B4 (de) Multifokales Abbildungssystem mit optischen Filtern
DE19704415A1 (de) Sensoreinrichtung für eine automatische Fahrlichtschaltung
DE102013220022B4 (de) Fahrzeugkamera zur Erfassung von Bildern aus einem Umgebungsbereich eines Fahrzeugs und Fahrzeug
US7491939B2 (en) Photosensitive sensor and applications in the automotive field
DE102013220712B3 (de) Kamerasystem eines Fahrzeugs mit einer Kameraoptik zur Erfassung eines Hauptsichtfeldes der Umgebung des Fahrzeugs und einem Bildsensor
DE102013102207A1 (de) Kamerasystem für ein Fahrzeug
DE102021123944A1 (de) Kameravorrichtung zum anbringen an einem fenster eines fahrzeugs, fahrzeug und verfahren zum betreiben einer kameravorrichtung
DE102014220558A1 (de) Bilderfassungsvorrichtung für ein fahrzeug und verfahren
DE10310264A1 (de) Katadioptrische Kamera für eine technische Einrichtung, insbesondere ein Kraftfahrzeug

Legal Events

Date Code Title Description
8364 No opposition during term of opposition