DE10218175B4 - Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds - Google Patents

Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds Download PDF

Info

Publication number
DE10218175B4
DE10218175B4 DE10218175A DE10218175A DE10218175B4 DE 10218175 B4 DE10218175 B4 DE 10218175B4 DE 10218175 A DE10218175 A DE 10218175A DE 10218175 A DE10218175 A DE 10218175A DE 10218175 B4 DE10218175 B4 DE 10218175B4
Authority
DE
Germany
Prior art keywords
image
infrared
visual
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10218175A
Other languages
English (en)
Other versions
DE10218175A1 (de
Inventor
Wolfgang Hahn
Thomas Weidner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE10218175A priority Critical patent/DE10218175B4/de
Publication of DE10218175A1 publication Critical patent/DE10218175A1/de
Application granted granted Critical
Publication of DE10218175B4 publication Critical patent/DE10218175B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Abstract

Verfahren zur Sichtbarmachung der Umgebung eines Fahrzeugs mit – einer Bereitstellung der digitalen Daten eines Visuell-Abbilds der Umgebung, wobei das visuelle Abbild die visuell sichtbaren Objekte zeigt, – einer Bereitstellung der digitalen Daten eines Infrarot-Abbilds der Umgebung, wobei das Infrarot-Abbild die von den visuell sichtbaren und/oder weiteren Objekten ausgehende Infrarot-Strahlung zeigt, die digitalen Daten des Visuell-Abbilds durch eine im visuellen Spektralbereich empfindliche Visuell-Kamera, und die digitalen Daten des Infrarot-Abbilds durch eine im infraroten Spektralbereich empfindliche Infrarot-Kamera bereitgestellt werden, wobei – die Visuell-Kamera eine erste optische Achse und die Infrarot-Kamera eine zweite optische Achse aufweist, und die Kameras zumindest teilweise unterschiedliche Ausschnitte der Umgebung des Fahrzeugs, d. h. einen ersten und einen zweiten Ausschnitt, bereitstellen, dadurch gekennzeichnet, – dass der bereitgestellte erste Ausschnitt und der bereitgestellte zweite Ausschnitt ganz oder teilweise durch eine Fusionseinrichtung (106) pixel- und/oder bereichsweise fusioniert werden, und bei der Fusion mindestens ein...

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs sowie eine Kalibriervorrichtung zur Kalibrierung der Vorrichtung nach dem Oberbegriff des betreffenden unabhängigen Patentanspruchs.
  • Aus der DE 695 06 174 T2 ist ein Nachsichtsystem für ein Fahrzeug bekannt. Das System weist eine Infrarot-Kamera auf, die ein Infrarot-Abbild erzeugt, das die von Personen und Gegenständen ausgehende Wärmestrahlung eines Ausschnitts der Umgebung des Fahrzeugs zeigt. Das Infrarot-Abbild wird über ein Head-up-Display auf den unteren Teil der Windschutzscheibe projiziert und damit dem Fahrer sichtbar gemacht.
  • Die Zuordnung von Personen und Objekten im Infrarot-Abbild zu der vor dem Fahrer liegenden, visuell durch die Windschutzscheibe erfassbaren Verkehrssituation ist vom Fahrer zu leisten. Dies ist insbesondere bei Dunkelheit, für die das bekannte System gedacht sein soll, schwierig und oft sogar unmöglich, weil das Infrarot-Abbild Personen und Objekte zeigt, die der Fahrer visuell nicht erkennen kann. Eine exaktere Positionsbestimmung der nur im Infrarot-Abbild erkennbaren Personen und Objekte ist daher regelmäßig nicht möglich und lenkt den Fahrer in gefährlicher Weise ab.
  • Aus der DE 100 16 184 C2 ist eine Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs, insbesondere in Fahrtrichtung des Fahrzeugs, mit einer die Umgebung des Fahrzeugs erfassenden Kamera bekannt. Eine Bildauswertevorrichtung bearbeitet die Kameradaten und ubertragt sie in Bilddaten. Die Bilddaten werden auf einem Bildschirm angezeigt. Die Druckschrift beschaftigt sich mit der Aufgabe, die Bildqualitat von Nachtsichtgeraten fur Fahrzeuge mit einfachen Mitteln zu verbessern. Zur Lösung der Aufgabe wird vorgeschlagen, dass die Bildauswertevorrichtung einen Bilddatenspeicher und eine Bewertungsvorrichtung auf weist, welche feststellt, ob Bilddaten für den Bildschirm ein scharfes, bereichsweise unscharfes oder ein unscharfes, insbesondere regenunscharfes Bild repräsentieren. Die Bildauswertevorrichtung berücksichtigt bei der Erzeugung der Bilddaten für den Bildschirm die Daten der Bewertungsvorrichtung. Vorzugsweise werden innerhalb vorgegebener Zeitfenster nur die schärfsten Bilder an den Bildschirm weitergeleitet. Gemäß einer dazu alternativen bevorzugten Ausführungsform werden einzelne Bildabschnitte oder ganze Bilder, für die nur Bilddatensatzabschnitte vorliegen, die unscharfe aktuelle Bilder repräsentieren, durch entsprechende frühere oder nachberechnete Bildabschnitte ersetzt. Vorgeschlagen wird ferner die Verwendung einer Kamera, die Bilder in einem für das menschliche Auge sichtbaren Spektralbereich aufnimmt und in Kameradaten umwandelt oder die Verwendung einer Kamera, die Bilder im Infrarotbereich aufnimmt und in Kameradaten umwandelt.
  • Aus der DE 196 38 140 A1 ist eine Sichtabbildungsvorrichtung für Kraftfahrzeuge mit einer Sichtdarstellungsfläche im Inneren der Fahrgastzelle des Kraftfahrzeuges bekannt. Um eine für den Fahrer perfekte Sicht nach hinten oder vorne zu ermöglichen, die nicht durch die äußeren Dimensionen eines Fensters der Fahrgastzelle begrenzt ist, wird vorgeschlagen, dass mindestens zwei Miniaturkameras am Außenchassis des Kraftfahrzeuges angebracht sind, und die von den Miniaturkameras gelieferten Bilder zusammen als Kombinationsbild auf der als Flachmonitor ausgebildeten Sichtdarstellungsfläche abgebildet werden. Die beiden Visuell-Kameras nehmen unterschiedliche Bereiche der Umgebung hinter dem Fahrzeug auf und ermöglichen dem Fahrer einen Blick auf die gesamte Umgebung hinter dem Fahrzeug.
  • Aus der DE 198 01 884 A1 ist ein System zur Überwachung von vom Fahrer nicht direkt oder uber einen Spiegel einsehbaren Raumen um ein Fahrzeug bekannt. Die Druckschrift beschäftigt sich mit der Aufgabe, eine Verbesserung der Überwachung zur Verfügung zu stellen, welche dem Fahrer in allen Situationen eine fehlerfreie Überwachung der beobachteten Räume ohne Informationsverlust erlaubt.
  • Zur Lösung der Aufgabe werden Abbildungsmittel zur Erzeugung eines Bildes des zu überwachenden Raumes, Übertragungsmittel zur Weiterleitung des Bildes und mindestens eine Anzeigevorrichtung zur Darstellung des von den Übertragungsmitteln weitergeleiteten Bildes, welche im vom Fahrer einsehbaren Bereich angeordnet ist, vorgeschlagen. Pauschal wird darauf hingewiesen, dass die eingesetzten Videokameras für sichtbares oder infrarotes Licht empfindlich sein können. Beide Empfindlichkeiten können gleichzeitig oder wahlweise einschaltbar vorliegen.
  • Die Aufgabe der Erfindung besteht insbesondere in der Angabe eines verbesserten Verfahrens und einer Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs, wie insbesondere ein verbessertes Nachtsichtsystem.
  • Die Aufgabe der Erfindung wird durch den entsprechenden, unabhängigen Anspruch verfahrensmäßig bzw. vorrichtungsmäßig gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind in den zugeordneten, abhängigen Patentansprüchen angegeben.
  • Ein erster wesentlicher Aspekt der Erfindung besteht in der Anzeige bzw. Sichtbarmachung einer Kombination bzw. Überlagerung eines visuellen Abbilds, nachfolgend Visuell-Abbild genannt, und eines Infrarot-Abbilds des weitgehend selben Ausschnitts der Umgebung eines Fahrzeugs. Durch diese Überlagerung oder Fusion der Abbilder unterschiedlicher Spektralbereiche derselben Szene, werden die vorstehend beschriebenen Nachteile des Stands der Technik weitgehend beseitigt.
  • Bei dem erfindungsgemäßen Nachsichtsystem weist die Visuell-Kamera oder der erste Sensor bzw. deren Optik eine erste optische Achse und die Infrarot-Kamera oder der zweite optische Sensor bzw. deren Optik eine zweite optische Achse auf, die räumlich zueinander versetzt sind. Daher erfassen die Kameras bzw. Sensoren zumindest teilweise unterschiedliche Ausschnitte der Umgebung des Fahrzeugs, d. h. einen ersten und einen zweiten Ausschnitt. Diese sind zudem entfernungsabhängig. Es versteht sich, dass erfindungsgemäß auch mehr als zwei Infrarot-Kameras bzw. Infrarot-Sensoren, deren Empfindlichkeit unterschiedliche Wellenlängen abdeckt, vorgesehen und die von ihnen gelieferten digitalen Abbilder der Fahrzeug-Umgebung überlagert bzw. fusioniert werden können.
  • Um ein weitgehend verzerrungsfreies Fusions-Bild zur Darstellung für den Fahrer zu erhalten, ist gemäß einem zweiten wesentlichen Aspekt der Erfindung vorgesehen, dass der bereit gestellte erste Ausschnitt und der bereit gestellte zweite Ausschnitt ganz oder teilweise durch eine Überlagerungs- bzw. Fusionseinrichtung pixel- und/oder bereichsweise überlagert bzw. fusioniert werden. Zur Bereitstellung des Fusions-Bilds wird der erste Ausschnitt und/oder der zweite Ausschnitt und/oder das Fusions-Bild bzw. deren unmittelbaren oder bearbeiteten digitalen Daten durch mindestens einen Anpassungsparameter angepasst.
  • Dieser oder diese entfernungsabhängigen Parameter werden bevorzugt bei der Kalibrierung des erfindungsgemäßen Kamera- oder Sensorsystems bzw. Nachtsichtsystems für mindestens zwei Entfernungsbereiche bzw. Abstandsbereiche zwischen den Kameras bzw. Sensoren und einer Kalibriervorrichtung ermittelt. Ein wesentliches Ziel ist es, den oder die Anpassungsparameter so einzustellen, dass das bei der Uberlagerung bzw. Fusion der Abbilder entstehende Fusionsbild von Objekten im betreffenden Entfernungsbereich weitgehend verzerrungsfrei ist, wie insbesondere frei von Geister- bzw. Doppelbildern. Bei dem oder den Anpassungsparametern handelt es sich erfindungsgemäß insbesondere um mindestens einen Registrierungs- oder Transformationsparameter. Ein ähnlicher Parameter ist z. B. aus der Registrierung eines digitalen Bildverarbeitungssystems und damit vorgenommenen Überlagerungen von zwei Bildern bekannt. Der oder die fahrsituations- bzw. entfernungsabhängigen Anpassungsparameter werden bevorzugt bei der Kalibrierung in einem Datenspeicher im Fahrzeug gespeichert.
  • Bei einer bevorzugten Ausführungsform der Erfindung entspricht ein erster Entfernungsbereich einer für eine Stadtfahrt typischen Fahrsituation, wie insbesondere ein Entfernungsbereich von ca. 15 bis 75 m.
  • Alternativ oder ergänzend entspricht ein zweiter Entfernungsbereich einer für eine Landstrassenfahrt typischen Fahrsituation, wie insbesondere ein Entfernungsbereich von ca. 30 bis 150 m.
  • Alternativ oder ergänzend entspricht ein dritter Entfernungsbereich einer für eine Autobahnfahrt typischen Fahrsituation, wie insbesondere ein Entfernungsbereich von ca. 50 bis 250 m.
  • Es versteht sich, dass alternativ oder ergänzend zu den vorgenannten entfernungsabhängigen oder entfernungsbereichsabhängigen Anpassungsparametern auch andere fahrsituationsabhängige Anpassungsparameter insbesondere mit dem vorgenannten Ziel ermittelt werden können. Hierbei kann es sich beispielsweise um geeignete Anpassungsparameter für Fahrten bei tief stehender Sonne, im Nebel, bei einsetzender Dunkelheit oder bei Dunkelheit handeln.
  • Ein dritter wesentlicher Aspekt der Erfindung besteht darin, die aktuelle Fahrsituation des Fahrzeugs automatisch zu ermitteln und den oder die der aktuellen Fahrsituation entsprechenden, insbesondere durch Kalibrierung gewonnenen und im Fahrzeug gespeicherten Anpassungsparameter zur Verwendung durch die erfindungsgemäße Ausricht-Vorrichtung oder durch die Überlagerungs- bzw. Fusionseinrichtung bereitzustellen. Die Überlagerungs- bzw. Fusionseinrichtung führt eine pixel- und/oder bereichsweise Überlagerung bzw. Fusionierung des in Form von digitalen Daten vorliegenden Visuell-Abbilds und des Infrarot-Abbilds durch, wobei ein oder mehrere entfernungsabhängige Anpassungsparameter das Infrarot-Abbild und/oder das Visuell-Abbild und/oder das Fusions-Bild derart beeinflussen, dass bevorzugt ein weitgehend verzerrungsfreies und/oder geisterbildfreies Fusions-Abbild der Umgebung für den Fahrer bereitgestellt wird.
  • Alternativ oder ergänzend zur vorgenannten automatischen Ermittlung, ist bei einem Ausführungsbeispiel der Erfindung vorgesehen, dass der Fahrer ihm geeignet erscheinende, insbesondere durch Kalibrierung gewonnene und im Fahrzeug gespeicherte Anpassungsparameter zur Verwendung durch die erfindungsgemäße Ausricht-Vorrichtung oder durch die Überlagerungs- bzw. Fusionseinrichtung auswählt. So können dem Fahrer beispielsweise der oder die Anpassungsparameter für eine Stadtfahrt typische, eine Landstrassenfahrt typische, eine Autobahnfahrt typische Fahrsituation und/oder ggf. für weitere Fahrsituationen zur Auswahl angeboten werden, z. B. in Form einer manuellen Auswahlmöglichkeit oder durch Spracheingabe. Hierdurch wird der Fahrer auch ohne im Fahrzeug befindliches Fahrzeug-Navigationssystem in die Lage versetzt, ein weitgehend verzerrungsfreies bzw. doppelbildfreies Fusions-Bild selbst herbeizuführen. Zudem wird dem Fahrer dadurch die Möglichkeit eröffnet, sich ggf. über eine automatische Auswahl hinwegzusetzen. Ebenso kann dem Fahrer die Möglichkeit gegeben werden, einen oder mehrere Anpassungsparameter auszuwählen, die ihm die nähere Umgebung seines Fahrzeugs verzerrungsfrei im Fusions-Bild darstellen, z. B. Entfernungen bis zu 20 m von seinem Fahrzeug. Diese Auswahl kann vom Fahrer beispielsweise dann vorgenommen werden, wenn er im Dunkeln an seine Garage heranfährt und über die Infrarot-Information im Fusions-Bild in Erfahrung bringen will, ob ihm hinter einem Gebüsch aufgelauert wird.
  • Bei einem bevorzugten Ausführungsbeispiel der Erfindung, wird die aktuelle Position des Fahrzeugs von einem Fahrzeug-Navigationssystem, insbesondere ein Satelliten-Navigationssystem, bestimmt. Anhand der Position wird von dem im Fahrzeug befindlichen Navigationssystem durch Vergleich mit digitalen Kartendaten automatisch die entsprechende Straßenkategorie bzw. Fahrsituation, wie insbesondere Stadtstrasse, Landstrasse oder Autobahn, ermittelt. Solche Fahrzeug-Navigationssysteme sind bereits heute in zahlreichen Fahrzeugen zum Zweck der Routenführung etc. vorhanden und können ohne großen Aufwand zur vorgenanten automatischen, fahrsituationsabhängigen Optimierung der fusionierten Abbilder der Umgebung des Fahrzeugs genutzt werden.
  • Alternativ oder ergänzend ist bei einem weiteren Ausführungsbeispiel der Erfindung vorgesehen, dass die Fahrsituation anhand mindestens einer fahrdynamischen Größe, wie insbesondere die Fahrzeug-Geschwindigkeit und/oder der Betrieb des Abblend- bzw. Fernlichts und/oder die Fahrzeug-Beschleunigung und/oder Helligkeit und/oder Nebel, ermittelt wird. Diese Informationen können bereits in heutigen Fahrzeugen ganz oder teilweise von deren Bordnetz zur Verfügung gestellt werden, ohne dass ein größerer Aufwand erforderlich ist.
  • Bei einer bevorzugten Ausführungsform der Erfindung wird ein farbiges visuelles Abbild mit dem Infrarot-Abbild fusioniert bzw. kombiniert oder überlagert. Im Unterschied zu einem schwarzweißen Visuell-Abbild, entsteht ein fusioniertes Bild, das Farbinformationen des Visuell-Abbilds enthält, wie rote Bremsleuchten eines vorausfahrenden Fahrzeugs, eine rote Ampel, ein farbiges Verkehrsschild oder dgl. Die Farbinformation im fusionierten Bild erleichtert dem Fahrer eines entsprechend ausgestatteten Fahrzeugs die schnelle Orientierung und Erfassung der im fusionierten Bild dargestellten Verkehrssituation. Die Farbinformation verringert zudem die Gefahr, das farbige Warnhinweise (rote Ampel etc.) übersehen werden.
  • Zusammengefasst werden die Abbilder der Umgebung bzw. Szene für unterschiedliche Spektralbereiche jeweils von Störeinflüssen, wie Verzerrungen des Infrarot- bzw. Visuell-Abbilds, insbesondere aufgrund von Abbildungsfehlern der jeweils verwendeten Optik usw., befreit. Dies geschieht bevorzugt softwaremäßig durch bekannte Maßnahmen zur Aufbereitung von digitalisierten Bildern. Die von Störeinflüssen weitgehend befreiten Abbilder bzw. deren digitale Bild-Daten werden bevorzugt durch digitale Bildverarbeitung zueinander ausgerichtet bzw. zur Deckung gebracht, so dass weitgehend zeit- und ortsgleiche Bild-Paare aus Infrarot- und Visuell-Abbild bzw. von deren digitalen Daten vorliegen. Dies geschieht erfindungsgemäß unter Verwendung von mindestens einem entfernungsabhängigen und/oder fahrsituationsabhängigen Anpassungsparameter zur Herbeiführung eines verzerrungsfreien Fusions-Bildes. Die verwendete Software und Hardware zur digitalen Bildverarbeitung erlaubt vorzugsweise eine Verschiebung, Drehung und Skalierung der Abbilder relativ zueinander. Durch diese Aufbereitung kann der nachfolgende Hardwareaufwand zur Überlagerung bzw. Fusion der Abbilder aus den unterschiedlichen Spektralbereichen in kostengünstiger Weise – trotz weitgehender Echtzeit-Verarbeitung zeit- und ortsgleicher Bild-Paare – minimiert werden.
  • Gemäß einer bevorzugten Ausführungsform der Erfindung, werden die Infrarot-Abbilder und die Visuell-Abbilder mit jeweils gleicher Bildwiederholrate, bevorzugt von ein oder zwei Kameras oder Sensoren für diese Spektralbereiche, erzeugt. Hierdurch können in besonders einfacher Weise zeitgleiche Bild-Paare aus Infrarot-Abbild und Visuell-Abbild erzeugt werden, was den Software- und Hardware-Aufwand für die nachfolgende, erfindungsgemäße Überlagerung bzw. Fusion beider Abbilder – weitgehend in Echtzeit – erheblich vermindert. Die Verarbeitungsgeschwindigkeit der Bild-Paare steigt; die Kosten für Halbleiter-Speicher zur Zwischenspeicherung der Abbilder werden minimiert.
  • Bei einer bevorzugten Ausführungsform der Erfindung, zeigt das Infrarot-Abbild die von Personen und Objekten abgegebene Infrarot-Strahlung bzw. Wärmestrahlung, die im Wellenlängenbereich von ca. 8 bis 14 μm liegt. Bevorzugt wird eine IR-Kamera oder ein IR-Sensor verwendet, die oder der im Bereich von ca. 8 bis 10 μm empfindlich ist. Damit kann in vorteilhafter Weise auf einen Infrarot-Strahler bzw. eine solche Beleuchtung (typischer Wellenlängenbereich von ca. 800 nm bis 2,5 μm) für die Fahrzeugumgebung verzichtet werden. Eine wechselseitige Blendung entgegenkommender Fahrzeuge, die in bekannter Weise jeweils mit einer Infrarot-Beleuchtung versehen sind, tritt nicht auf. Ebenso ist das erfindungsgemäße Infrarot-Abbild nicht auf die Reichweite einer Infrarot-Beleuchtung beschränkt.
  • Die Erfindung wird nachfolgend anhand eines Ausführungsbeispiels näher erläutert. Es zeigt:
  • 1 das Blockschaltbild einer erfindungsgemäßen Vorrichtung zur Sichtbarmachung eines Ausschnitts der Umgebung eines Fahrzeugs bzw. ein Nachtsichtsystem, anhand dem das erfindungsgemäße Verfahren zur Sichtbarmachung beschrieben wird.
  • Die in 1 als Blockschaltbild dargestellte, erfindungsgemäße Vorrichtung bzw. das Nachtsichtsystem 100 weist eine im visuellen Spektralbereich aufnehmende elektronische, hier sogenannte Visuell-Kamera 101, z. B. ein CCD-Sensor, eine im infraroten Spektralbereich von ca. 8 bis 10 μm empfindliche elektronische Infrarot-Kamera 102, z. B. ein IR-Sensor, eine erste Normalisierungsvorrichtung 103, eine zweite Normalisierungsvorrichtung 104, eine Ausricht-Vorrichtung 105 und eine Überlagerungs- bzw. Fusionseinrichtung 106 auf. Die Visuell-Kamera 101 liefert ein farbiges, visuelles Abbild.
  • Die optischen Achsen der Kameras 101 und 102 sind bevorzugt parallel zueinander ausgerichtet, wodurch der Parallaxenfehler minimiert werden kann, und liegen bevorzugt nahe beieinander, wodurch Versetzungsfehler minimiert werden. Die Bildebenen beider Kameras oder Sensoren werden bevorzugt parallel zueinander und senkrecht zur optischen Achse ausgerichtet und liegen nahe beieinander. Die fotoempfindlichen Sensorflächen beider Kameras bzw. Sensoren sind bevorzugt relativ zueinander weder verdreht noch gekippt, sondern weitgehend parallel zueinander angeordnet. Beide Kameras oder Sensoren haben bevorzugt zudem denselben Öffnungswinkel. Durch diese Maßnahmen kann erreicht werden, das die Kameras oder Sensoren Abbilder unterschiedlicher Spektralbereiche liefern, die weitgehend denselben Ausschnitt der Umgebung zeigen und relativ zueinander und zur tatsächlichen Situation nicht verdreht sind. Hierdurch kann der Aufwand für eine Bearbeitung der Abbilder zur Bereitstellung eines fusionierten Bilds aus beiden Abbildern und damit der Hardware- und Software-Aufwand deutlich verringert werden.
  • Die optischen Oberflächen der Kameras werden bevorzugt hydrophob beschichtet und bevorzugt ist zu ihrer Reinigung eine Hochdruckdüse oder dgl. vorgesehen, wie sie bereits zur Scheinwerfer-Reinigung üblich ist. Beide Kameras werden bevorzugt in einem gemeinsamen Gehäuse eingebaut (Montagefreundlichkeit, Gesamtausrichtung zur Fahrzeugachse, keine Verschiebung optischer Parameter der Kameras untereinander). Am Gehäuse der Kameras sind bevorzugt Befestigungen angeordnet, die einen vibrationsarmen Betrieb der Kameras am oder im Fahrzeug gewährleisten. Für den Betrieb der Kameras sind Anschlüsse für die Betriebsspannung vorgesehen. Die Betriebsspannung der Kameras sollte flexibel an die jeweilige Bordnetzspannung, wie z. B. 12 Volt und/oder 42 Volt, anpassbar sein. Um die Elektronik und die Sensoren der Kameras vor Beschädigungen zu schützen, ist im Betriebsspannungszweig bevorzugt eine Überlastsicherung und ein Verpolungsschutz eingebracht. Die Ausgabe der von den Kameras oder Sensoren generierten Videosignale (Spektralbereiche getrennt oder bereits fusioniert) sollte sich an einem Standard orientieren (z. B. NTSC, PAL, SECAM oder eigener Standard). Als Digital/Analogumsetzer können vorhandene Halbleiterelemente verwendet werden. Die Kameras oder Sensoren können zur Sichtbarmachung der Fahrumgebung vor, hinter und seitlich vom Fahrzeug angebracht werden.
  • Im Folgenden wird die Kalibrierung des Nachsichtsystems bzw. der Vorrichtung 100 näher beschrieben. Zur Kalibrierung wird eine erfindungsgemäße Kalibriervorrichtung (nicht dargestellt) verwendet. Diese weist mehrere Glühlampen auf, die bevorzugt schachbrettartig angeordnet sind. Glühlampen zeichnen sich dadurch aus, dass sie sowohl Wärmestrahlung als auch visuell sichtbare Strahlung abgeben. Bevorzugt wird eine mit mehreren Glühlampen versehene Platte oder dgl. nacheinander in verschiedenen Abstandsbereichen vor den beiden Kameras bzw. Sensoren 101 und 102 angeordnet. Bei den Abstandsbereichen handelt es sich um typische fahrsituationsabhängige Abstandsbereiche, was nachfolgend näher erläutert werden wird.
  • Die vor den Kameras 101 und 102 befindliche Kalibriervorrichtung, die bevorzugt in dunkler Umgebung und nicht in der Nachbarschaft von Wärmequellen angeordnet ist, erzeugt in der Visuell-Kamera 101 ein (sogenanntes) Visuell-Abbild, das die schachbrettartig angeordneten Glühlampen zeigt, wie sie auch das menschliche Auge sieht. Ferner erzeugt die Kalibriervorrichtung in der Infrarot-Kamera 102 ein Wärmebild, das ebenfalls die Anordnung der Glühlampen zeigt. Typischerweise zeigt sowohl das Visuell-Abbild als auch das Infrarot-Abbild, insbesondere aufgrund von optischen Abbildungsfehlern etc., Verzeichnungen an den Rändern des jeweiligen Abbilds. In bekannter Weise werden die Verzeichnungen bzw. Abbildungsfehler im Visuell-Abbild durch eine erste Normalisierungsvorrichtung 103 weitgehend beseitigt. In bekannter Weise werden die Verzeichnungen bzw. Abbildungsfehler im Infrarot-Abbild durch eine zweite Normalisierungsvorrichtung 104 weitgehend beseitigt. Die Normalisierung bzw. Fehlerbeseitigung erfolgt bevorzugt durch bekannte, softwaremäßige Maßnahmen an den digitalen Daten der Abbilder (digitale Bildverarbeitung) unter Verwendung von Kalibrierungsparametern 107 für das Visuell-Abbild und Kalibrierungsparametern 108 für das Infrarot-Abbild.
  • Die normalisierten bzw. weitgehend von Störungen etc. befreiten Abbilder bzw. deren digitale Daten werden durch einen an sich in der digitalen Bildverarbeitung bekannten Registrierungsvorgang zueinander durch eine Ausricht-Vorrichtung 105 unter Verwendung von Registrierungsparametern 109 ausgerichtet. Bei dem Ausrichtvorgang bleibt bevorzugt eines der Abbilder unverändert und dient als Referenz für das andere Abbild. Das zweite Abbild wird in Größe und Lage so verändert, dass ein weitgehend objektgleiches Abbild relativ zum ersten Abbild entsteht.
  • Die normalisierten Abbilder werden also so relativ zueinander ausgerichtet, dass ein und das selbe Objekt an weitgehend gleicher Stelle und in weitgehend gleicher Größe im fusionierten Bild erscheint. Wird dieser Vorverarbeitungsschritt nicht ausgeführt, entstehen aufgrund unterschiedlicher Kamerageometrien und des Kameraversatzes Schatten- oder Zwillingsbilder. Das bedeutet, dass ein Objekt an zwei Orten und in unterschiedlichen Größen im fusionierten Bild erscheint. Der Betrachter wird von solch einem Bild eher irritiert, als dass ihm geholfen wird.
  • Zur fahrsituationsabhängigen Optimierung der pixelgenauen oder bereichsgenauen Fusion, wird zunächst ein erster Registrierungsvorgang für eine stadtfahrt-typische Fahrsituation durchgeführt. Der Abstand zwischen der Kalibriervorrichtung und den Kameras 101 und 102 wird hierzu beispielsweise im Bereich von ca. 15 bis 75 m variiert und der oder die für diesen Abstandsbereich geeigneten Registrierungsparameter werden ermittelt und gespeichert. In entsprechender Weise wird ein zweiter Registrierungsvorgang für eine landstrassen-typische Fahrsituation, d. h. beispielsweise ein Bereich von ca. 30 bis 150 m, durchgeführt. Schließlich wird in entsprechender Weise ein dritter Registrierungsvorgang für eine autobahn-typische Fahrsituation, d. h. beispielsweise im Bereich von ca. 50 bis 250 m, durchgeführt.
  • Unter Verwendung der von einem Fahrzeug-Navigationssystem (nicht dargestellt) bereitgestellten, aktuellen Positionsdaten wird von dem System anhand von digitalen Kartendaten die der Position des Fahrzeugs entsprechende Straßenkategorie bzw. Fahrsituation ermittelt, wie insbesondere Stadtstrasse, Landstrasse oder Autobahn. Insbesondere bei Dunkelheit, werden die der Fahrsituation entsprechenden und im Fahrzeug bei den Kalibriervorgängen gespeicherten Registrierungs- bzw. Anpassungsparameter von der Überlagerungs- bzw. Ausrichtvorrichtung 105 zur fahrsituationsgerechten Ausrichtung der Abbilder verwendet. So werden insbesondere Schatten- oder Zwillings- bzw. Geisterbilder im fusionierten Bild für die betreffende Fahrsituation weitgehend vermieden.
  • Alternativ oder ergänzend wird die aktuelle Fahrsituation des Fahrzeugs anhand mindestens einer fahrdynamischen Größe ermittelt. Die der oder den fahrdynamischen Größen zugeordneten und im Fahrzeug gespeicherten Registrierungs- bzw. Anpassungsparametern werden erfindungsgemäß von der Überlagerungs- bzw. Ausrichtvorrichtung 105 zur fahrsituationsgerechten Ausrichtung der Abbilder verwendet. Auch durch diese Maßnahme werden insbesondere Schatten- oder Zwillings- bzw. Geisterbilder im fusionierten Bild für die betreffende Fahrsituation weitgehend vermieden. Bei den fahrdynamischen Größen des Fahrzeugs handelt es sich insbesondere um dessen Geschwindigkeit, die Einschaltung des Abblend- oder Fernlichts oder um dessen positive oder negative Beschleunigung.
  • Die oben genannte Ausrichtung der normalisierten Abbilder kann in drei Schritte eingeteilt werden: Verschiebung, Drehung und Skalierung. In der Praxis stellte sich heraus, das die Reihenfolge Drehung, Skalierung und Verschiebung die qualitativ besten Resultate lieferte. Da die Reihenfolge dieser Schritte im Allgemeinen nicht kommutativ bzw. vertauschbar ist, sollte darauf geachtet werden, dass die Reihenfolge dieser Schritte bei der Kalibrierung und bei dem nachfolgenden Betrieb des erfindungsgemäßen Nachtsichtsystems dieselbe ist. Ggf. ist die Kalibrier- und/oder Betriebs-Software des Nachtsichtsystems entsprechend zu gestalten.
  • Die zueinander ausgerichteten Abbilder werden in einer Überlagerungs- bzw. Fusionseinrichtung 106 softwaremäßig durch die Bearbeitung von deren digitalen Daten überlagert bzw. fusioniert. Aus jedem zeit- und ortsgleichen bzw. objektgleichen Bild-Paar aus Visuell-Abbild und infrarot-Abbild wird ein fusioniertes oder überlagertes Bild generiert, das dem Fahrer des Fahrzeugs bevorzugt auf einem Farb-Monitor im Fahrzeug dargestellt wird.
  • Bevorzugt erfolgt eine Fusion der zeit- und ortsgleichen Bildpaare aus Visuell-Abbild und Infrarot-Abbild auf der Basis einzelner, einander zugeordneter Pixel-Paare aus beiden Abbildern oder unter Verwendung von mehreren Pixeln aus den beiden Abbildern. Dies kann sich insbesondere daran orientieren, welche Auflösung gewünscht und/oder welche Rechenleistung für die digitale Bildverarbeitung zur Verfügung steht. Die wie beschrieben vorverarbeiteten Abbilder werden durch digitale Verarbeitung von deren Bild-Daten überlagert und angezeigt. Vom Ergebnis her, kann dieser Vorgang annähernd mit dem Übereinanderlegen von Folien oder Dias derselben Szene oder Fahrumgebung verglichen werden. Rechentechnisch bzw. bei der digitalen Bildverarbeitung wird dies durch Mittelwertbildung der Pixelinformationen, wie insbesondere unter Berücksichtigung von deren Helligkeit in den jeweiligen Abbildern und der im Visuell-Abbild und/oder im Infrarot-Abbild enthaltenen Farbinformation, erreicht. Dies muss nicht notwendigerweise Pixel für Pixel erfolgen, sondern kann auch durch Mittelwertbildung für orts- und zeitgleiche Pixelbereiche in beiden Abbildern geschehen.
  • Ferner kann es sinnvoll sein, die Pixelinformation im Infrarot-Abbild bei der Mittelwertbildung unterschiedlich zur zeit- und ortsgleichen Pixelinformation im Visuell-Abbild zu gewichten. Diese unterschiedliche Gewichtung kann bspw. tageslicht- und/oder witterungsabhängig und/oder in Abhängigkeit vom Scheinwerferlicht des Kraftfahrzeugs und/oder in Abhängigkeit von der Farbe im Visuell-Abbild erfolgen; hierdurch kann bspw. erreicht werden, dass eine rote Ampel im Fusionsbild besonders deutlich erkennbar ist.
  • Durch dieses Vorgehen können einzelne Bildbereiche besonders hervorgehoben werden. So kann beispielsweise der unmittelbare Fahrbereich des Fahrzeugs stärker betont werden, um eine gewisse Führung des Fahrers zu erreichen.
  • Bei zunehmender Dunkelheit könnte die Gewichtung der Infrarot-Information ggü. der visuellen Information bei der Mittelwertbildung zunehmen. Bei eingeschaltetem Abblendlicht könnte die Gewichtung der Infrarot-Information ggü. der visuellen Information im Vergleich zu eingeschaltetem Fernlicht erhöht werden.
  • Ebenso könnte der Informationsgehalt eines Bereichs in dem jeweiligen Abbild die Gewichtung mit bestimmen. Ist der Informationsgehalt in einem zeit- und ortsgleichen Bereich des Visuell-Abbilds bspw. deutlich höher als in dem selben Bereich des Infrarot-Bereichs, so kann es sinnvoll sein, dies bei der Mittelwertbildung durch eine höhere Gewichtung der Visuell-Information zu berücksichtigen.
  • Wie bereits beschrieben, müssen die von den Kameras bzw. Sensoren generierten Abbilder vorverarbeitet werden, um entzerrt und objekttreu ausgerichtet zu sein. Um Speicher, der kostenintensiv ist, einzusparen, greift der Software-Algorithmus bevorzugt pixelweise auf die Sensorinformationen der Kameras 101 und 102 zu.
  • Bei den in 1 dargestellten Vorrichtungen zur digitalen Bildverarbeitung, handelt es sich ganz oder teilweise bevorzugt um ein oder mehrere softwaregesteuerte Digital-Prozessoren, die vorzugsweise zur digitalen Bildverarbeitung in Echtzeit optimiert worden sind. Ebenso ist es aber auch denkbar, einen oder mehrere softwaregesteuerte PC-Prozessoren in kostengünstiger Weise zu verwenden, wenn deren Verarbeitungsgeschwindigkeit eine weitgehende Echtzeitverarbeitung der Abbilder zur Bereitstellung eines Fusions-Bildes mit Visuell- und Infrarot-Informationen gestattet.

Claims (27)

  1. Verfahren zur Sichtbarmachung der Umgebung eines Fahrzeugs mit – einer Bereitstellung der digitalen Daten eines Visuell-Abbilds der Umgebung, wobei das visuelle Abbild die visuell sichtbaren Objekte zeigt, – einer Bereitstellung der digitalen Daten eines Infrarot-Abbilds der Umgebung, wobei das Infrarot-Abbild die von den visuell sichtbaren und/oder weiteren Objekten ausgehende Infrarot-Strahlung zeigt, die digitalen Daten des Visuell-Abbilds durch eine im visuellen Spektralbereich empfindliche Visuell-Kamera, und die digitalen Daten des Infrarot-Abbilds durch eine im infraroten Spektralbereich empfindliche Infrarot-Kamera bereitgestellt werden, wobei – die Visuell-Kamera eine erste optische Achse und die Infrarot-Kamera eine zweite optische Achse aufweist, und die Kameras zumindest teilweise unterschiedliche Ausschnitte der Umgebung des Fahrzeugs, d. h. einen ersten und einen zweiten Ausschnitt, bereitstellen, dadurch gekennzeichnet, – dass der bereitgestellte erste Ausschnitt und der bereitgestellte zweite Ausschnitt ganz oder teilweise durch eine Fusionseinrichtung (106) pixel- und/oder bereichsweise fusioniert werden, und bei der Fusion mindestens ein entfernungsabhängiger Anpassungsparameter berucksichtigt ist und der Anpassungsparameter in einem Datenspeicher im Fahrzeug gespeichert ist
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der mindestens eine entfernungsabhangige Anpassungsparameter durch eine erste Kalibrierung für eine erste Entfernung oder einen ersten Entfernungsbereich und mindestens eine weitere Kalibrierung für mindestens eine weitere Entfernung oder einen weiteren Entfernungsbereich gewonnen wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der erste Entfernungsbereich einer für eine Stadtfahrt typischen Fahrsituation entspricht.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass ein zweite Entfernungsbereich einer für eine Landstraßenfahrt typischen Fahrsituation entspricht.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass ein dritter Entfernungsbereich einer für eine Autobahnfahrt typischen Fahrsituation entspricht.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die aktuelle Fahrsituation des Fahrzeugs automatisch ermittelt wird und/oder der Fahrer einen ihm geeignet erscheinenden Anpassungsparameter aus einer Mehrzahl von Anpassungsparametern auswählt und der der aktuellen Fahrsituation entsprechende oder ausgewählte, durch Kalibrierung gewonnene und im Fahrzeug gespeicherte Anpassungsparameter bei der pixel- und/oder bereichsweisen Fusionierung des Visuell-Abbilds und des Infrarot-Abbilds von der digitalen Fusions-Bildverarbeitung berücksichtigt ist, wodurch ein verzerrungsfreies und/oder geisterbildfreies Fusions-Abbild der Umgebung entsteht.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die aktuelle Position des Fahrzeugs automatisch von einem Fahrzeug-Navigationssystem und die der Position entsprechende Fahrsituation ermittelt wird
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Fahrsituation automatisch anhand mindestens einer fahrdynamischen Größe ermittelt wird.
  9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die von den visuell sichtbaren Objekten und/oder den weiteren Objekten ausgehende und erfasste Infrarot-Strahlung eine Wellenlänge im Bereich von 7 bis 14 μm, aufweist.
  10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die von den visuell sichtbaren Objekten und/oder den weiteren Objekten ausgehende und erfasste Infrarot-Strahlung eine Wellenlänge im Bereich von 3 μm bis 5 µm aufweist.
  11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die von den visuell sichtbaren Objekten und/oder den weiteren Objekten ausgehende und erfasste Infrarot-Strahlung eine Wellenlänge im Bereich von 800 nm bis 2,5 μm, aufweist.
  12. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das in Form von digitalen Daten vorliegende Visuell-Abbild der Umgebung des Fahrzeugs unter Verwendung einer Kalibriervorrichtung normalisiert wird.
  13. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das in Form von digitalen Daten vorliegende Infrarot-Abbild des Ausschnitts der Umgebung unter Verwendung der Kalibriervorrichtung normalisiert wird.
  14. Verfahren nach einem der Ansprüche 12 oder 13, dadurch gekennzeichnet, dass von der Kalibriervorrichtung visuell sichtbare Strahlung und Infrarot-Strahlung ausgesandt wird.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die Kalibriervorrichtung mindestens eine Glühlampe aufweist, die im Fall von mehreren Glühlampen vorzugsweise schachbrettartig angeordnet sind.
  16. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Visuell-Abbild oder das normalisierte Visuell-Abbild ggü. dem Infrarot-Abbild oder dem normalisierten Infrarot-Abbild oder umgekehrt durch die Verarbeitung von digitalen Daten der Abbilder ausgerichtet wird, so dass zeitgleiche und ortsgleiche Bild-Paare beider Spektralbereiche bereitgestellt werden.
  17. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die digitalen Daten des Visuell-Abbilds und/oder des Infrarot-Abbilds in einem Bilddatenspeicher temporär gespeichert werden.
  18. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bildwiederholrate der Visuell-Kamera oder des ersten Sensors und der Infrarot-Kamera oder des zweiten Sensors identisch sind.
  19. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass ortsgleiche Pixel oder Pixelbereiche der zeit- und ortsgleichen Abbilder der unterschiedlichen Spektralbereiche durch Verarbeitung von deren digitalen Daten einander überlagert werden oder dass eine Mittelwertbildung vorgenommen wird.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die Helligkeitswerte und/oder Farbwerte der Pixel oder Pixelbereiche überlagert oder für eine Mittelwertbildung herangezogen werden.
  21. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass eine gewichtete Uberlagerung oder Mittelwertbildung für ein oder mehrere ortsgleiche Pixel aus dem Visuell-Abbild und dem Infrarot-Abbild vorgenommen wird.
  22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass die Gewichtung unter Berücksichtigung der Helligkeit und/oder der Sichtbedingungen in der Umgebung des Fahrzeugs erfolgt.
  23. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass Infrarot-Pixel und Visuell-Pixel oder solche Pixel-Bereiche unterschiedlich gewichtet werden.
  24. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass informationsreiche Gebiete ggü. informationsarmen Gebieten des Visuell-Abbilds und/oder des Infrarot-Abbilds bei der Überlagerung Mittelwertbildung höher gewichtet werden.
  25. Vorrichtung (100) zur Sichtbarmachung der Umgebung eines Fahrzeugs, mit – einer Bereitstellung der digitalen Daten eines Visuell-Abbilds der Umgebung, wobei das visuelle Abbild die visuell sichtbaren Objekte zeigt, – einer Bereitstellung der digitalen Daten eines Infrarot-Abbilds der Umgebung, wobei das Infrarot-Abbild die von den visuell sichtbaren und/oder weiteren Objekten ausgehende Infrarot-Strahlung zeigt, die digitalen Daten des Visuell-Abbilds durch eine im visuellen Spektralbereich empfindliche Visuell-Kamera (101), und die digitalen Daten des Infrarot-Abbilds durch eine im infraroten Spektralbereich empfindliche Infrarot-Kamera (102) bereitgestellt werden, wobei – die Visuell-Kamera (101) eine erste optische Achse und die Infrarot-Kamera (102) eine zweite optische Achse aufweist, und die Kameras zumindest teilweise unterschiedliche Ausschnitte der Umgebung des Fahrzeugs, d. h einen ersten und einen zweiten Ausschnitt, bereitstellen, dadurch gekennzeichnet, – dass der bereitgestellte erste Ausschnitt und der bereitgestellte zweite Ausschnitt ganz oder teilweise durch eine Fusionseinrichtung (106) pixel- und/oder bereichsweise fusioniert werden, und bei der Fusion mindestens ein entfernungsabhängiger Anpassungsparameter (109) berücksichtigt ist und der Anpassungsparameter in einem Datenspeicher im Fahrzeug gespeichert ist.
  26. Vorrichtung nach Anspruch 25, gekennzeichnet durch eine Visuell-Kamera (101), bevorzugt eine farbempfindliche Visuell-Kamera, eine Infrarot-Kamera (102), eine erste Normalisierungsvorichtung (103) zur Normalisierung des von der Visuell-Kamera bereitgestellten, vorzugsweise farbigen visuellen Abbilds des Ausschnitts der Umgebung des Fahrzeugs, eine zweite Normalisierungsvorrichtung (104) zur Normalisierung des von der Infrarot-Kamera (102) bereitgestellten Infrarot-Abbilds des Ausschnitts der Umgebung des Fahrzeugs, eine Ausricht-Vorrichtung (105) zur Erzeugung von zeit- und ortsgleichen Bildpaaren aus Visuell-Abbildern und Infrarot-Abbildern sowie eine Fusionseinrichtung (106), die die zeit- und ortsgleichen Bildpaare pixelweise oder bereichsweise überlagert und/oder Mittelwerte bildet.
  27. Kalibriervorrichtung, dadurch gekennzeichnet, dass sie zur Kalibrierung einer Vorrichtung nach Anspruch 25 oder 26 dient und mindestens eine Strahlungsquelle aufweist, die sowohl visuell sichtbare Strahlung als auch Infrarot-Strahlung abgibt.
DE10218175A 2002-04-24 2002-04-24 Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds Expired - Lifetime DE10218175B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10218175A DE10218175B4 (de) 2002-04-24 2002-04-24 Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10218175A DE10218175B4 (de) 2002-04-24 2002-04-24 Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds

Publications (2)

Publication Number Publication Date
DE10218175A1 DE10218175A1 (de) 2003-11-13
DE10218175B4 true DE10218175B4 (de) 2011-10-27

Family

ID=29224704

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10218175A Expired - Lifetime DE10218175B4 (de) 2002-04-24 2002-04-24 Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds

Country Status (1)

Country Link
DE (1) DE10218175B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990730B2 (en) 2014-03-21 2018-06-05 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7834905B2 (en) 2002-06-18 2010-11-16 Bayerische Motoren Werke Aktiengesellschaft Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image
DE10227171B4 (de) 2002-06-18 2019-09-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE10304789A1 (de) * 2003-02-06 2004-08-26 Dr.Ing.H.C. F. Porsche Ag Anordnung zur Verbesserung der Sicht eines Fahrzeugführers
DE10304703B4 (de) * 2003-02-06 2023-03-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit umgebungsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE102004033625B4 (de) 2004-07-12 2008-12-24 Continental Automotive Gmbh Verfahren zur Darstellung des insbesonderen vorderen Sichtfeldes aus einem Kraftfahrzeug
DE102005041241A1 (de) * 2005-08-31 2007-04-19 Valeo Schalter Und Sensoren Gmbh Verfahren und System zum Betreiben eines Kamerasystems eines Fahrzeugs
US8519837B2 (en) 2005-09-08 2013-08-27 Johnson Controls Gmbh Driver assistance device for a vehicle and a method for visualizing the surroundings of a vehicle
DE102006053109B3 (de) 2006-11-10 2008-06-12 Audi Ag Verfahren zur bildhaften Darstellung einer Fahrzeugumgebung und Bilderfassungssystem
DE102019003061B4 (de) 2018-11-15 2023-11-23 Günter Fendt Vorrichtung zum Prüfen eines optischen Erfassungssystems für ein Kraftfahrzeug, sowie ein Verfahren hierzu

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3342898A1 (de) * 1983-11-26 1985-06-05 Krauss-Maffei AG, 8000 München Nebelsichtgeraet fuer verkehrsmittel
DE4302385A1 (de) * 1992-01-30 1993-08-05 Vaisala Oy
DE19638140A1 (de) * 1996-09-18 1998-03-19 Franz Huber Sichtabbildungsvorrichtung für Kraftfahrzeuge
DE19801884A1 (de) * 1998-01-20 1999-07-22 Mannesmann Vdo Ag Überwachungssystem für Fahrzeuge
DE69132203T2 (de) * 1990-09-18 2001-02-08 Raytheon Co System und Verfahren zur Echtzeit-Mischung von Videobildern aus mehreren Quellen
DE10016184C2 (de) * 2000-03-31 2002-02-07 Audi Ag Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3342898A1 (de) * 1983-11-26 1985-06-05 Krauss-Maffei AG, 8000 München Nebelsichtgeraet fuer verkehrsmittel
DE69132203T2 (de) * 1990-09-18 2001-02-08 Raytheon Co System und Verfahren zur Echtzeit-Mischung von Videobildern aus mehreren Quellen
DE4302385A1 (de) * 1992-01-30 1993-08-05 Vaisala Oy
DE19638140A1 (de) * 1996-09-18 1998-03-19 Franz Huber Sichtabbildungsvorrichtung für Kraftfahrzeuge
DE19801884A1 (de) * 1998-01-20 1999-07-22 Mannesmann Vdo Ag Überwachungssystem für Fahrzeuge
DE10016184C2 (de) * 2000-03-31 2002-02-07 Audi Ag Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990730B2 (en) 2014-03-21 2018-06-05 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
US10366496B2 (en) 2014-03-21 2019-07-30 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
US10726559B2 (en) 2014-03-21 2020-07-28 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras
US10872448B2 (en) 2015-08-27 2020-12-22 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras

Also Published As

Publication number Publication date
DE10218175A1 (de) 2003-11-13

Similar Documents

Publication Publication Date Title
DE10304703B4 (de) Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit umgebungsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE102004043257B4 (de) Kameraeinheit und Vorrichtung zur Überwachung der Fahrzeugumgebung
DE102004043236B4 (de) Kameraeinheit und Vorrichtung zur Überwachung einer Fahrzeugumgebung
EP2431226B1 (de) Rückblickeinrichtung für ein Kraftfahrzeug
EP1846794A1 (de) Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs durch fusion eines infrarot- und eines visuell-abbilds
DE102006007493B4 (de) Vorrichtung zum Sehen der Peripherie eines Fahrzeuges
EP2426543B1 (de) Fahrerassistenzvorrichtung für ein Fahrzeug und Verfahren zur Sichtbarmachung der Umgebung eines Fahrzeuges
DE60122040T2 (de) Überwachungseinrichtung für schwer einsehbare Zonen um Kraftfahrzeuge
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
EP2765031B1 (de) Sichtsystem für Fahrzeuge, insbesondere Nutzfahrzeuge
EP1504960B1 (de) Verfahren und Vorrichtung zur Verbesserung der Sicht in einem Kraftfahrzeug
EP1339228B1 (de) Verfahren und Vorrichtung zur Sichtbarmachung eines Ausschnitts der Umgebung eines Fahrzeugs sowie eine Kalibriereinheit zur Kalibrierung der Vorrichtung
DE19801884A1 (de) Überwachungssystem für Fahrzeuge
DE10348109A1 (de) Verfahren und Vorrichtung zur Sichtbarmachung einer Fahrzeugumgebung
DE10218175B4 (de) Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE10203421C1 (de) Automobiles Infrarot-Nachtsichtgerät und automobiles Display
EP3434523A1 (de) Indirektes sichtsystem für ein fahrzeug
DE10227171B4 (de) Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE102015014263A1 (de) Verfahren und Vorrichtung zur fahrsituationsabhängigen Parametervariation bei einem fahrzeugseitigen Kamera-Monitor-System
DE10016184A1 (de) Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs
DE10321228A1 (de) Optisches Erfassungssystem für Fahrzeuge
DE102013220839B4 (de) Verfahren zum dynamischen Einstellen einer Helligkeit eines Bilds einer Rückansichts-Anzeigevorrichtung sowie entsprechendes Fahrzeugabbildungssystem
DE102012025270A1 (de) Kamerasystem für einen Kraftwagen und Verfahren zum Mischen von zumindest zwei Bildsequenzen
DE102022114245B3 (de) Kamera-Monitor-System für ein Fahrzeug und Verfahren zur Steuerung eines solchen Kamera-Monitor-Systems
DE102022120236B3 (de) Verfahren zum harmonisierten Anzeigen von Kamerabildern in einem Kraftfahrzeug und entsprechend eingerichtetes Kraftfahrzeug

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20120128

R071 Expiry of right