DE102006044864A1 - Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels - Google Patents

Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels Download PDF

Info

Publication number
DE102006044864A1
DE102006044864A1 DE102006044864A DE102006044864A DE102006044864A1 DE 102006044864 A1 DE102006044864 A1 DE 102006044864A1 DE 102006044864 A DE102006044864 A DE 102006044864A DE 102006044864 A DE102006044864 A DE 102006044864A DE 102006044864 A1 DE102006044864 A1 DE 102006044864A1
Authority
DE
Germany
Prior art keywords
image
night vision
transport
vehicle
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006044864A
Other languages
English (en)
Inventor
Georg Von Dr. Wichert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102006044864A priority Critical patent/DE102006044864A1/de
Publication of DE102006044864A1 publication Critical patent/DE102006044864A1/de
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Abstract

Die Erfindung betrifft ein Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels, insbesondere eines Kraftfahrzeugs, bei dem:
- ein Erfassungsmittel (S1) des Nachtsichtsystems ein Nachtsichtbild einer Umgebung des Verkehrsmittels erfasst;
- ein oder mehrere weitere Erfassungsmittel (S2, S3, S4) Parameter der Umgebung des Verkehrsmittels erfassen;
- aus den Parametern der Umgebung Bildbereiche des Nachtsichtbildes ermittelt werden, welche jeweils mit einer Bildinhaltskategorie verknüpft sind, wobei für jede Bildinhaltskategorie ein oder mehrere Bildaufbereitungskriterien definiert sind;
- das Nachtsichtbild zur Anzeige auf einem Anzeigemittel (A) aufbereitet wird, wobei die Aufbereitung des Nachtsichtbildes in Abhängigkeit von den Bildaufbereitungskriterien der Bildinhaltskategorie des jeweiligen Bildbereichs erfolgt;
- das aufbereitete Nachtsichtbild auf dem Anzeigemittel (A) wiedergegeben wird.

Description

  • Die Erfindung betrifft ein Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels, insbesondere eines Kraftfahrzeugs, sowie eine entsprechende Vorrichtung.
  • Im Automobilbereich werden heutzutage vermehrt so genannte Nachtsichtsysteme eingesetzt, mit denen dem Fahrer eines Kraftfahrzeugs ein Bild von der Umgebung während einer Nachtfahrt bereitgestellt wird, wobei auf dem Bild die Objekte der Umgebung besser erkennbar sind als mit dem menschlichen Auge. Solche Nachtsichtsysteme arbeiten beispielsweise mit Nah-Infrarot-Kameras, welche Infrarotlicht aussenden und das reflektierte Infrarotlicht erfassen. Darüber hinaus sind Fern-Infrarot-Kameras bekannt, mit denen die Wärmestrahlung von Objekten erfasst wird. Mit Fern-Infrarot-Kameras können insbesondere ansonsten bei Nacht nicht sichtbare Personen und Tiere aufgrund ihrer Körperwärme erfasst werden.
  • Um die mit Nachtsichtsystemen aufgenommenen Bilder in geeigneter Weise auf einem Display wiederzugeben, werden Bildaufbereitungsverfahren verwendet, welche zur besseren Darstellung z.B. den Kontrast im Bild so verbessern, dass im Fahrumfeld befindliche Gegenstände durch den Fahrer leicht erkannt werden können.
  • Die bekannten Bildaufbereitungsverfahren für Nachtsichtsysteme weisen den Nachteil auf, dass sie die Bilder immer global als Ganzes verarbeiten, das heißt alle Bildbereiche werden unabhängig von den Bildinhalten gleich behandelt. Die Bildinhalte von verschiedenen Regionen des Bildes unterscheiden sich jedoch stark. Beispielsweise kommen bei einer Nachtfahrt Fahrzeuge auf der Gegenfahrbahn mit hellem Frontscheinwerferlicht entgegen, wobei dieses helle Licht das Nachtsichtbild überstrahlt, während vorausfahrende oder am Straßenrand stehende Fahrzeuge oder Fußgänger relativ dunkel sind. Eine globale Bildaufbereitung kann somit eine unterschiedliche Verarbeitung von verschiedenen Objekten im Bild nur sehr eingeschränkt gewährleisten, da a priori nicht bekannt ist, welche Bereiche des Bildes welchen Inhalt betreffen. Eine globale Bildaufbereitung ist deshalb immer ein Kompromiss mit der Folge, dass die Darstellung der einzelnen Bildbereiche nur suboptimal ist.
  • Aufgabe der Erfindung ist es deshalb, ein Verfahren und eine Vorrichtung zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels zu schaffen, bei denen die auf einem Anzeigemittel wiedergegebenen Bilder eine bessere Qualität aufweisen.
  • Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.
  • In dem erfindungsgemäßen Verfahren erfasst ein Erfassungsmittel des Nachtsichtsystems eine Umgebung des Verkehrsmittels und erzeugt hieraus ein Nachtsichtbild. Ein oder mehrere weitere Erfassungsmittel erfassen ferner Parameter der Umgebung des Verkehrsmittels. Unter Parametern der Umgebung sind beliebige aus der Umgebung extrahierbare Größen zu verstehen, insbesondere handelt es sich um Größen, welche die Umgebung näher charakterisieren, beispielsweise die ungefähre Position von vorausfahrenden Fahrzeugen, der Abstand zu einem vorausfahrenden Fahrzeug, die Position der Fahrspur, der Gegenfahrspur bzw. der Gegenfahrbahn.
  • In dem erfindungsgemäßen Verfahren werden aus den Parametern der Umgebung, welche durch die weiteren Erfassungsmittel ermittelt wurden, Bildbereiche des Nachtsichtbildes ermittelt, welche jeweils mit einer Bildinhaltskategorie verknüpft sind, wobei für jede Bildinhaltskategorie ein oder mehrere Bildaufbereitungskriterien definiert sind. Mit dem erfindungsgemäßen Verfahren werden somit die Bildinhalte, welche sich aus den erfassten Parametern ableiten lassen, in Abhängigkeit von Kriterien kategorisiert, welche die Bildaufbereitung betreffen. Mit dem erfindungsgemäßen Verfahren wird somit zum ersten Mal eine Verknüpfung von Bildinhalten mit Bildaufbereitungskriterien geschaffen. Zur Anzeige des Nachtsichtbildes auf einem Anzeigemittel wird das erfasste Nachtsichtbild aufbereitet, wobei die Aufbereitung des Nachtsichtbilds in Abhängigkeit von dem oder den Bildaufbereitungskriterien der Bildinhaltskategorien des jeweiligen Bildbereichs erfolgt. Auf diese Weise kann eine optimale Aufbereitung der Bildbereiche in Abhängigkeit von den Bildinhalten erfolgen, was gemäß dem Stand der Technik nicht möglich ist. Schließlich wird das aufbereitete Nachtsichtbild auf dem Anzeigemittel wiedergegeben.
  • In einer bevorzugten Ausführungsform der Erfindung wird das Nachtsichtbild durch wenigstens einen Infrarotsensor, beispielsweise eine Infrarotkamera und insbesondere eine Nah-Infrarot-Kamera, erfasst.
  • Die weiteren Erfassungsmittel sind vorzugsweise Sensoren eines Fahrerassistenzsystems. Diese Sensoren haben an sich schon die Funktionalität, dass damit Parameter aus der Umgebung extrahiert werden, welche mit Bildinhalten des Nachtsichtbildes verknüpfbar sind. Beispielsweise ermitteln solche Sensoren die Distanz zu einem vorausfahrenden Fahrzeug, um den Abstand zu dem vorausfahrenden Fahrzeug zu regeln. Um den Abstand zu vorausfahrenden Fahrzeugen zu erfassen, werden hierbei vorzugsweise Radar- und/oder Lidar-Sensoren eingesetzt. Lidar steht hierbei für "Light Detection and Ranging". Lidar ist eine Methode zur Entfernungs- und Geschwindigkeitsmessung, welche Laserstrahlen verwendet.
  • Als weitere mögliche Sensoren zur Erfassung der Parameter der Umgebung des Verkehrsmittels können gegebenenfalls auch eine Kamera, ein GPS-Navigationssystem oder ein Gyroskop verwendet werden. Die mit einem GPS-Navigationssystem erfassten Parame ter können beispielsweise Parameter der Fahrbahn sein, auf der sich das Verkehrsmittel gerade befindet, insbesondere die Steigung, der Fahrbahnverlauf bzw. die Anzahl der Spuren auf der Fahrbahn. Mit einem Gyroskop wird insbesondere die Querbeschleunigung erfasst, so dass damit beispielsweise die Fahrerintention in Bezug auf einen Spurwechsel detektiert werden kann.
  • In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird das aufbereitete Nachtsichtbild auf einem Bildschirm im Innenraum des Verkehrsmittels wiedergegeben, so dass es von dem Führer des Verkehrsmittels gut gesehen werden kann.
  • In einer weiteren, besonders bevorzugten Ausführungsform der Erfindung werden die Bildinhaltskategorien in Abhängigkeit von der Verkehrsgefährdung des jeweiligen Bildinhalts für das Verkehrsmittel festgelegt. Beispielsweise kann eine Kategorie festgelegt werden, welche Objekte betrifft, die sich am rechten Straßenrand befinden, wobei solche Objekte besonders deutlich darzustellen sind, da sie eine besondere Gefährdung für das Verkehrsmittel darstellen. Ebenso können beispielsweise Lastkraftwagen in einer separaten Kategorie zusammengefasst werden, da von diesen Fahrzeugen eine größere Gefährdung für andere Verkehrsteilnehmer als von normalen Personenkraftwagen ausgeht.
  • In einer besonders bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens umfassen die Bildinhaltskategorien eine oder mehrere der folgenden Kategorien:
    • – Gegenfahrbahn;
    • – Fahrspur des Verkehrsmittels;
    • – vorausfahrendes Fahrzeug;
    • – entgegenkommendes Fahrzeug;
    • – Fahrzeugart;
    • – Straßenrand;
    • – Fußgänger;
    • – den Fahrweg des Verkehrsmittels querendes Fahrzeug.
  • In einer weiteren Ausgestaltung der Erfindung legen die Bildaufbereitungskriterien eine Kontrastverstärkung oder Kontrastabschwächung und/oder eine Helligkeitsverstärkung und/oder Helligkeitsabschwächung für die jeweiligen Bildbereiche einer Bildinhaltskategorie fest. Beispielsweise kann für einen Bildbereich, der ein entgegenkommendes Fahrzeug wiedergibt, eine Helligkeitsabschwächung im Bereich der Scheinwerfer des entgegenkommenden Fahrzeugs erfolgen. Auf diese Weise wird sichergestellt, dass die Helligkeit eines solchen Fahrzeugs etwas vermindert wird, so dass das erzeugte Nachtsichtbild nicht durch das Scheinwerferlicht derart überstrahlt wird, dass andere Objekte im Bild nicht mehr deutlich genug sichtbar sind. Ferner könnte ein Bildbereich, welcher der Fahrspur des Verkehrsmittels entspricht, einer Kontrast- und/oder Helligkeitsverstärkung unterzogen werden, da dieser Bereich für den Fahrer des Verkehrsmittels besonders relevant ist und deshalb besonders gut hervorgehoben sein sollte. Darüber hinaus kann für einen Bildbereich, der den Straßenrand und/oder ein vorausfahrendes Fahrzeug wiedergibt, eine Kontrast- und/oder Helligkeitsverstärkung erfolgen, wobei insbesondere die Helligkeit der Rückscheinwerfer eines vorausfahrenden Fahrzeugs erhöht wird. Gemäß der Erfindung kann unterschieden werden, ob Scheinwerferlicht von einem vorausfahrenden oder einem entgegenkommenden Fahrzeug stammt. Dabei wird Licht von einem vorausfahrenden Fahrzeug in seiner Helligkeit verstärkt, damit ein Fahrer besonders gut das für die Verkehrssicherheit relevante Verhalten eines vorausfahrenden Fahrzeugs erfassen kann. Demgegenüber wird das eher als störend empfundene Licht von entgegenkommenden Fahrzeugen in der Helligkeit vermindert, wie im Vorangegangenen bereits erwähnt wurde.
  • Neben dem oben beschriebenen Verfahren betrifft die Erfindung ferner eine Vorrichtung zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels, insbesondere eines Kraftfahrzeugs, umfassend:
    • – ein Erfassungsmittel, welches ein Nachtsichtbild einer Umgebung des Verkehrsmittels erfasst;
    • – ein oder mehrere weitere Erfassungsmittel, welche Parameter der Umgebung des Verkehrsmittels erfassen;
    • – eine Auswerteeinheit, welche derart ausgestaltet ist, dass mit der Auswerteeinheit im Betrieb der Vorrichtung: – aus den Parametern der Umgebung Bildbereiche des Nachtsichtbildes ermittelt werden, welche mit einer Bildinhaltskategorie verknüpft sind, wobei für jede Bildinhaltskategorie ein oder mehrere Bildaufbereitungskriterien definiert sind; – das Nachtsichtbild zur Anzeige auf einem Anzeigemittel aufbereitet wird, wobei die Aufbereitung des Nachtsichtbilds in Abhängigkeit von den Bildaufbereitungskriterien der Bildinhaltskategorie des jeweiligen Bildbereichs erfolgt.
    • – ein Anzeigemittel, auf dem das aufbereitete Nachtsichtbild wiedergebbar ist.
  • Die Vorrichtung ist hierbei derart ausgestaltet, dass jede beliebige Variante des oben beschriebenen Verfahrens durchführbar ist. Insbesondere kann die Vorrichtung jede Art der oben erläuterten bevorzugten Varianten von Sensoren enthalten.
  • Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben.
  • Es zeigen:
  • 1 eine schematische Darstellung des Zusammenwirkens der einzelnen Komponenten zur Durchführung einer Ausführungsform des erfindungsgemäßen Verfahrens;
  • 2 eine perspektivische Ansicht, welche eine Verkehrssituation aus dem Blickwinkel des Fahrers eines Kraftfahrzeugs zeigt, wobei anhand der dargestell ten Verkehrssituation eine Ausführungsform des erfindungsgemäßen Verfahrens erläutert wird.
  • Die Erfindung wird nachfolgend am Beispiel einer Bildverarbeitung für ein Nachtsichtsystem in einem Kraftfahrzeug erläutert. Aufgabe des Nachtsichtsystems ist es, dem Fahrer bei Nachtfahrten ein deutlicheres Bild der Umgebung bereitzustellen. Die einzelnen Komponenten im Kraftfahrzeug, welche für die Durchführung des erfindungsgemäßen Verfahrens relevant sind, sind in 1 schematisch durch Blöcke angedeutet. Das Kraftfahrzeug verfügt zum einen über einen Nachtsichtsensor S1, welcher beispielsweise eine Infrarotkamera ist. Die Infrarotkamera kann z.B. eine Nah-Infrarot-Kamera sein, welche Infrarotlicht aussendet und die reflektierten Infrarotstrahlen durch ein entsprechendes Empfangsmittel, insbesondere ein CCD-Pixelfeld, empfängt.
  • Der Sensor S1 ist mit einer zentralen Auswerteeinheit A gekoppelt, welche die durch den Sensor erfassten Bilder zur Anzeige aufbereitet, wobei die aufbereiteten Bilder anschliesend auf einem Display D angezeigt werden. Das Display ist hierbei insbesondere ein Bildschirm im Innenraum des Fahrzeugs. Gegebenenfalls kann das Bild auch mit einer entsprechenden Projektionseinheit in das Blickfeld des Fahrers projiziert werden.
  • Bei herkömmlichen Bildaufbereitungsverfahren wird das Bild insgesamt aufbereitet, um beispielsweise den Kontrast im Bild zu verbessern, so dass im Fahrumfeld befindliche Objekte durch den Fahrer leichter erkannt werden können. Es wird hierbei jedoch nicht erfasst, um welche Art von Objekten es sich handelt, das heißt die Bildinhalte des über den Nachtsichtsensor S1 erfassten Bildes werden nicht analysiert. Im Unterschied hierzu bezieht die Auswerteeinheit A gemäß der Erfindung bei der Aufbereitung der Bilder des Sensors S1 auch noch weitere Erfassungsmittel mit ein. Diese Erfassungsmittel sind an sich aus dem Stand der Technik bekannt, jedoch wurden die erfassten Parameter dieser Erfassungsmittel bis heute noch nicht mit einem Nachtsichtsystem kombiniert.
  • Als weitere Erfassungsmittel sind in 1 die Erfassungsmittel S2, S3 und S4 gezeigt. Die Sensoren S2 bis S4 sind hierbei derart mit dem Nachtsichtsensor S1 abgestimmt, dass mit den Sensoren S2 bis S4 Umgebungsparameter erfasst werden, welche in dem durch den Nachtsichtsensor S1 erfassten Bild liegen. Das Erfassungsmittel S2 ist ein Sensor, der in einem Fahrerassistenzsystem des Fahrzeugs zur Abstandsmessung zu vorausfahrenden Fahrzeugen dient. Als Sensor kann hierbei beispielsweise ein Radar-Sensor oder auch ein Lidar-Sensor verwendet werden. Ein Lidar-Sensor erzeugt Laserstrahlen (z.B. im Infrarotwellenlängenbereich) mit einem entsprechenden Strahler und umfasst eine Photodiode, welche die ausgesendete und reflektierte Laserstrahlung detektiert. Der Sensor S2 wird beispielsweise in Abstandsregel-Tempomaten eingesetzt. Dabei erkennt der Sensor, dass sich ein Fahrzeug vor demjenigen Fahrzeug befindet, in dem der Sensor eingebaut ist (im Folgenden wird das Fahrzeug, in dem das Nachtsichtsystem und die Sensoren eingebaut sind, auch als "betrachtetes Fahrzeug" bezeichnet). Der Sensor misst dabei kontinuierlich den Abstand zwischen beiden Fahrzeugen. Mittels einer Auswerteelektronik wird dann der Abstand zwischen beiden Fahrzeugen möglichst konstant gehalten, wobei gegebenenfalls ein Warnsignal ausgegeben wird, wenn sich der Abstand des vorhergehenden Fahrzeugs, beispielsweise aufgrund eines unerwarteten Bremsmanövers, abrupt verkürzt.
  • Bei dem Sensor S3 handelt es sich um eine Kamera, welche beispielsweise zur Unterstützung der Abstandsmessung des Sensors S2 verwendet werden kann. Beispielsweise kann mit der Kamera erfasst werden, in welchem Bildbereich sich ein vorausfahrendes Fahrzeug vor dem betrachteten Fahrzeug befindet. Die Kamera kann beispielsweise feststellen, dass sich das vorausfahrende Fahrzeug auf der rechten Spur befindet, wohingegen das betrachtete Fahrzeug auf der Überholspur ist. Die Kamera kann jedoch auch beliebige andere Funktionen übernehmen. Ggf. können auch mehrere Kameras vorgesehen sein. Beispielsweise könnte eine Kamera integriert sein, welche den Boden vor dem Fahrzeug erfasst, um hierdurch Spurwechsel zu detektieren, so dass ein Fahrer beispielsweise bei unbeabsichtigten Spurwechseln gewarnt wird.
  • Als weiteres Erfassungsmittel ist in 1 ein Navigationssystem S4 angedeutet. Dieses Navigationssystem beruht auf dem Positions-Erfassungssystem GPS (GPS = Global Positioning System) und umfasst eine entsprechende Antenne zur Erfassung des Satellitensignals dieses GPS-Systems. Das Navigationssystem ist mit einer Straßenkarte gekoppelt, so dass für die erfasste geographische Position des Fahrzeugs ermittelt wird, auf welcher Straße sich das Fahrzeug befindet. Diese Information kann beispielsweise genutzt werden, um festzustellen, in welcher Umgebung sich das Fahrzeug bewegt, das heißt ob das Fahrzeug sich beispielsweise auf einer einspurigen oder zweispurigen Straße befindet oder ob es sich auf einer Straße mit oder ohne Gegenverkehrsspur bewegt. Darüber hinaus kann mit dem Navigationssystem beispielsweise erfasst werden, wie der weitere Straßenverlauf ist, beispielsweise ob Kurven oder Steigungen folgen. Diese Information kann insbesondere in Kombination mit der Abstandsmessung durch den Sensor S2 dann eine Rolle spielen, wenn beurteilt werden soll, ob sich das vorausfahrende Fahrzeug auf der gleichen Spur wie das betrachtete Fahrzeug befindet.
  • Die in 1 dargestellten Sensoren S2 bis S4 sind lediglich beispielhaft und es können gegebenenfalls auch andere und/oder weitere Sensoren vorgesehen sein. Beispielsweise könnte als weiterer Sensor auch ein Gyroskop vorgesehen sein, mit dem die Querbeschleunigung des Fahrzeugs gemessen wird. Hierdurch kann beispielsweise die Fahrerintention in Bezug auf einen Spurwechsel erfasst werden. Alle Sensoren haben jedoch gemeinsam, dass aus ihnen Informationen ermittelbar sind, welche die Art der Objekte betreffen, die sich vor dem Fahrzeug befinden.
  • Erfindungsgemäß werden die erfassten Sensordaten S2 bis S4 in der Auswerteeinheit A mit dem erfassten Bild des Sensors S1 derart kombiniert, dass mit den Informationen der Sensoren S2 bis S4 Bildbereichen des erfassten Bildes entsprechende Bildinhalte zugeordnet werden, wobei die Bildinhalte vorbestimmte Kategorien von Gegenständen betreffen, welche durch die Sensoren S2 bis S4 ermittelt wurden. Die Bildinhaltskategorien sind hierbei insbesondere die Gegenfahrbahn, die eigene Fahrspur, ein vorausfahrendes Fahrzeug, ein entgegenkommendes Fahrzeug, die Fahrzeugart und der Straßenrand. In Abhängigkeit von der Bildkategorie des entsprechenden Bildbereichs wird die Bildaufbereitung dann unterschiedlich durchgeführt. Insbesondere wird die Kontrastanpassung bzw. Helligkeitsanpassung des Bilds unter Berücksichtigung der Bildinhaltskategorie durchgeführt. Beispiele, wie eine derartige Bildaufbereitung in Abhängigkeit von dem Bildinhalt erfolgen kann, werden weiter unten in Bezug auf 2 erläutert.
  • Nachdem das erfasste Bild in der Auswerteeinheit aufbereitet wurde, wird es auf dem Display D angezeigt. Ein derart aufbereitetes Bild stellt die erfasste Umgebung in besserer Qualität dar, da jeder Bildbereich in Abhängigkeit von seinem Bildinhalt optimiert aufbereitet wurde. Im Gegensatz dazu wird im Stand der Technik eine globale Bildaufbereitung des Gesamtbildes durchgeführt, welche in den einzelnen Bildbereichen jedoch nicht optimal ist.
  • 2 zeigt eine perspektivische Darstellung des Sichtbereichs eines Fahrers eines Kraftfahrzeugs, wobei das Kraftfahrzeug auf einer Autobahn fährt. Im perspektivisch vorderen Bereich erkennt man das Lenkrad 1 und den Rückspiegel 3 des Kraftfahrzeugs sowie ein Display 2, welches dem Display D der 1 entspricht. Auf diesem Display kann in der Nacht ein Nachtsichtbild der vor der Frontscheibe des Fahrzeugs liegenden Umgebung wiedergegeben werden. Dieses Nachtsichtbild unterstützt den Fahrer während der Nachtfahrt. Im Bereich des Rückspiegels 3 kann sich insbesondere der in Bezug auf 1 erläuterte Lidar-Sensor befinden, mit dem der Abstand zu einem vorausfahrenden Fahrzeug erfasst wird.
  • Wie bereits erwähnt, zeigt 2 eine Fahrt auf einer Autobahn. Man erkennt insbesondere die Fahrspur 4, auf der sich das betrachtete Fahrzeug befindet. Vor dem Fahrzeug befindet sich ein vorausfahrendes Fahrzeug 5, dessen Abstand zum betrachteten Fahrzeug mit dem Lidar-Sensor hinter dem Rückspiegel 3 erfasst wird. Das betrachtete Fahrzeug verfügt hierbei über ein Abstandsregelsystem, so dass der Abstand zum vorausfahrenden Fahrzeug 5 konstant gehalten wird. Von dem Fahrzeug 5 sind insbesondere die angeschalteten Rücklichter 5a und das Hecknummernschild 5b ersichtlich. Man erkennt in 2 ferner die Überholspur 6, welche von der Fahrspur 4 über den Mittelstreifen 7 getrennt ist. Darüber hinaus ist die Gegenfahrbahn 8 ersichtlich, welche durch eine Leitplanke 9 von der Überholspur 6 getrennt ist. Auf der Gegenfahrbahn befinden sich gerade drei Fahrzeuge 10, 11 und 12.
  • Das in 2 gezeigte Szenario wird durch eine entsprechende Nachtsichtkamera erfasst, welche gegebenenfalls auch im Bereich des Rückspiegels 3 angeordnet sein kann. Das erfasste Bild wird dann erfindungsgemäß durch eine (nicht aus 2 ersichtliche) Auswerteeinheit A aufbereitet, wie in Bezug auf 1 beschrieben wurde. Hierzu werden die weiteren Sensoren S2, S3 und S4 verwendet, welche nicht in 2 gezeigt sind.
  • Das in dem betrachteten Fahrzeug verwendete Navigationssystem S4 kann in dem Szenario der 2 z.B. feststellen, dass sich das Fahrzeug auf einer Autobahn auf der rechten Fahrspur 4 bewegt. Mit dieser Information kann beispielsweise der Bildinhalt links neben dem Mittelstreifen 7 als Überholspur 6 identifiziert werden. Der Mittelstreifen kann hierbei über eine entsprechende Kamera erfasst werden. Darüber hinaus kann mit dem Lidar-Sensor, gegebenenfalls auch in Kombination mit einer weiteren Kamera, festgestellt werden, dass der Bildinhalt mittig vor dem erfassten Bild ein vorausfahrendes Fahrzeug darstellt.
  • Ferner kann, beispielsweise auch mit Hilfe des Navigationssystems und einer entsprechenden Kamera, der Bildabschnitt im linken Bereich des erfassten Bildes als Gegenfahrbahn 8 identifiziert werden. Hieraus kann in der Auswerteeinheit A die Schlussfolgerung gezogen werden, dass die hellen Bildpunkte, welche durch die Nachtsichtkamera im linken Bildbereich erfasst werden, die Schweinwerfer S von entgegenkommenden Fahrzeugen sind.
  • In der hier beschriebenen Variante der Erfindung werden somit in dem durch die Nachtsichtkamera erfassten Bild der Bildbereich der Gegenfahrbahn 8, der Bildbereich der Überholspur 6 und der Bildbereich des vorausfahrenden Fahrzeugs 5 identifiziert. Diese drei Bildbereiche werden nunmehr unterschiedlich verarbeitet. Damit die Scheinwerfer S der Fahrzeuge auf der Gegenfahrbahn 8 auf dem Display 2 nicht zu hell erscheinen, werden die so genannten Lichthöfe im Bereich um den Mittelpunkt des Scheinwerferlichts abgeschwächt. Im Bereich der Überholspur 6 wird der Kontrast des Bildes erhöht, damit deutlicher der Übergang zwischen Überholspur 6 und eigener Fahrspur 5 durch den Mittelstreifen 7 ersichtlich wird. Da in der Auswerteeinheit bekannt ist, dass das Licht der Scheinwerfer 5a von einem Rücklicht eines vorausfahrenden Fahrzeugs 5 stammt, wird die Helligkeit dieses Lichts – im Gegensatz zu dem Scheinwerferlicht S der Fahrzeuge auf der Gegenfahrbahn 8 – entsprechend verstärkt. Ferner wird der Kontrast im Bereich des vorausfahrenden Fahrzeugs insgesamt erhöht, damit dieses Fahrzeug auf dem Display 2 deutlicher erkennbar ist.
  • Neben den soeben genannten Bildbereichskategorien können gegebenenfalls auch noch weitere Bildbereichskategorien berücksichtigt werden. Beispielsweise kann die Größe des vorausfahrenden Fahrzeugs erfasst werden, so dass festgestellt werden kann, ob das vorausfahrende Fahrzeug ein PKW oder ein LKW ist. Sollte das Fahrzeug ein LKW sein, kann dies beispielsweise zu einer besonders starken Kontrastverstärkung im Bildbereich des LKWs auf dem Display 2 führen.
  • Wie sich aus den vorangegangenen Ausführungen ergibt, kann mit dem erfindungsgemäßen Verfahren eine optimierte Darstellung von einzelnen Bildbereichen eines durch ein Nachtsichtsystem erfassten Bildes gewährleistet werden. Dies wird dadurch ermöglicht, dass das erfasste Bild im Hinblick auf seine Bildinhalte ausgewertet wird und in Abhängigkeit von den Bildinhalten eine optimale lokale Aufbereitung der einzelnen Bildbereiche erfolgt. Auf diese Weise wird die Bildqualität des angezeigten Nachtsichtbildes deutlich verbessert.

Claims (17)

  1. Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels, insbesondere eines Kraftfahrzeugs, bei dem: – ein Erfassungsmittel (S1) des Nachtsichtsystems ein Nachtsichtbild von einer Umgebung des Verkehrsmittels erfasst; – ein oder mehrere weitere Erfassungsmittel (S2, S3, S4) Parameter der Umgebung des Verkehrsmittels erfassen; – aus den Parametern der Umgebung Bildbereiche des Nachtsichtbildes ermittelt werden, welche jeweils mit einer Bildinhaltskategorie verknüpft sind, wobei für jede Bildinhaltskategorie ein oder mehrere Bildaufbereitungskriterien definiert sind; – das erfasste Nachtsichtbild zur Anzeige auf einem Anzeigemittel (A) aufbereitet wird, wobei die Aufbereitung des Nachtsichtbildes in Abhängigkeit von des oder den Bildaufbereitungskriterien der Bildinhaltskategorie des jeweiligen Bildbereichs erfolgt; – das aufbereitete Nachtsichtbild auf dem Anzeigemittel (A) wiedergegeben wird.
  2. Verfahren nach Anspruch 1, bei dem das Nachtsichtbild durch wenigstens einen Infrarotsensor (S1) erfasst wird.
  3. Verfahren nach Anspruch 2, bei dem die der Infrarotsensor (S1) eine Infrarotkamera, insbesondere eine Nah-Infrarot-Kamera, ist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Parameter der Umgebung des Verkehrsmittels durch einen oder mehrere Sensoren (S2, S3, S4) eines Fahrerassistenzsystems erfasst werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Parameter der Umgebung des Verkehrsmittels zumindest teilweise durch einen Sensor (S2) zur Abstandsmessung zu an deren Verkehrsmitteln in der Umgebung, insbesondere einen Radar- und/oder Lidar-Sensor, erfasst werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Parameter der Umgebung des Verkehrsmittels zumindest teilweise durch eine Kamera (S3) erfasst werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Parameter der Umgebung des Verkehrsmittels zumindest teilweise durch ein GPS-Navigationssystem (S4) erfasst werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Parameter der Umgebung des Verkehrsmittels zumindest teilweise durch ein Gyroskop erfasst werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das aufbereitete Nachtsichtbild auf einem Bildschirm (2) im Innenraum des Verkehrsmittels wiedergegeben wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Bildinhaltskategorien in Abhängigkeit von der Verkehrsgefährdung des jeweiligen Bildinhalts für das Verkehrsmittel festgelegt werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Bildinhaltskategorien eine oder mehrere der folgenden Kategorien umfassen: – Gegenfahrbahn (8); – Fahrspur (4) des Verkehrsmittels; – vorausfahrendes Fahrzeug (5); – entgegenkommendes Fahrzeug (10, 11, 12); – Fahrzeugart; – Straßenrand; – Fußgänger; – den Fahrweg des Verkehrsmittels querendes Fahrzeug.
  12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Bildaufbereitungskriterien eine Kontrastverstärkung oder Kontrastabschwächung und/oder eine Helligkeitsverstärkung und/oder Helligkeitsabschwächung für die jeweiligen Bildbereiche einer Bildinhaltskategorie festlegen.
  13. Verfahren nach Anspruch 11 und 12, bei dem für einen Bildbereich, der ein entgegenkommendes Fahrzeug (10, 11, 12) wiedergibt, eine Helligkeitsabschwächung im Bereich der Scheinwerfer (S) des entgegenkommenden Fahrzeugs (10, 11, 12) erfolgt.
  14. Verfahren nach Anspruch 11 und 12 oder nach Anspruch 13, bei dem für einen Bildbereich, der die Fahrspur (4) des Verkehrsmittels wiedergibt, eine Kontrast- und/oder Helligkeitsverstärkung erfolgt.
  15. Verfahren nach Anspruch 11 und 12 oder nach Anspruch 13 oder 14, bei dem für einen Bildbereich, der den Straßenrand und/oder ein vorausfahrendes Fahrzeug (5) wiedergibt, eine Kontrast- und/oder Helligkeitsverstärkung erfolgt, wobei insbesondere die Helligkeit der Rückscheinwerfer (5a) eines vorausfahrenden Fahrzeugs (5) erhöht wird.
  16. Vorrichtung zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels, insbesondere eines Kraftfahrzeugs, umfassend: – ein Erfassungsmittel (S1), welches ein Nachtsichtbild einer Umgebung des Verkehrsmittels erfasst; – ein oder mehrere weitere Erfassungsmittel (S2, S3, S4), welche Parameter der Umgebung des Verkehrsmittels erfassen; – eine Auswerteeinheit (A), welche derart ausgestaltet ist, dass mit der Auswerteeinheit (A) im Betrieb der Vorrichtung: – aus den Parametern der Umgebung Bildbereiche des Nachtsichtbildes ermittelt werden, welche jeweils mit einer Bildinhaltskategorie verknüpft sind, wobei für jede Bildinhaltskategorie ein oder mehrere Bildaufbereitungskriterien definiert sind; – das Nachtsichtbild zur Anzeige auf einem Anzeigemittel (D) aufbereitet wird, wobei die Aufbereitung des Nachtsichtbilds in Abhängigkeit von den Bildaufbereitungskriterien der Bildinhaltskategorie des jeweiligen Bildbereichs erfolgt; – ein Anzeigemittel (A), auf dem das aufbereitete Nachtsichtbild wiedergebbar ist.
  17. Vorrichtung nach Anspruch 16, wobei die Vorrichtung derart ausgestaltet ist, dass ein Verfahren nach einem der Ansprüche 1 bis 15 durchführbar ist.
DE102006044864A 2006-09-22 2006-09-22 Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels Ceased DE102006044864A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006044864A DE102006044864A1 (de) 2006-09-22 2006-09-22 Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006044864A DE102006044864A1 (de) 2006-09-22 2006-09-22 Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels

Publications (1)

Publication Number Publication Date
DE102006044864A1 true DE102006044864A1 (de) 2008-04-10

Family

ID=39154444

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006044864A Ceased DE102006044864A1 (de) 2006-09-22 2006-09-22 Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels

Country Status (1)

Country Link
DE (1) DE102006044864A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010006833A1 (de) * 2008-07-16 2010-01-21 Robert Bosch Gmbh Verfahren zur verbesserung der sicht eines fahrzeugführers in einem fahrzeug und anordnung dazu
EP3139340A1 (de) * 2015-09-02 2017-03-08 SMR Patents S.à.r.l. System und verfahren zur verbesserung der sichtbarkeit
WO2020064521A1 (de) 2018-09-28 2020-04-02 Volkswagen Aktiengesellschaft Konzept zum aufbereiten von infrarotbildern
DE102019208928A1 (de) * 2019-06-19 2020-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels
DE102019120214A1 (de) * 2019-07-26 2021-01-28 Valeo Schalter Und Sensoren Gmbh Verfahren und Fahrerassistenzsystem zum Bereitstellen von visuellen Informationen über ein erstes Fahrzeug in einer Umgebung eines zweiten Fahrzeugs, Computerprogramm und computerlesbares Medium
DE102021201247A1 (de) 2021-02-10 2022-08-11 Robert Bosch Gesellschaft mit beschränkter Haftung LIDAR-Vorrichtung
US11648876B2 (en) 2015-09-02 2023-05-16 SMR Patents S.à.r.l. System and method for visibility enhancement

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10247563A1 (de) * 2002-10-11 2004-04-22 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Fahrers
DE102004028324A1 (de) * 2003-06-16 2005-02-17 Volkswagen Ag Wärmebild-Erkennungssystem
DE10348109A1 (de) * 2003-10-16 2005-05-19 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung einer Fahrzeugumgebung
DE102004050181A1 (de) * 2003-10-27 2005-06-09 Ford Global Technologies, LLC, Dearborn Aktives Nachtsichtsystem mit adaptiver Bildgebung
DE10359192A1 (de) * 2003-12-17 2005-07-14 Hella Kgaa Hueck & Co. Nachtsichtsystem für ein Kraftfahrzeug
DE102004036566A1 (de) * 2004-07-28 2006-03-23 Robert Bosch Gmbh Nachtsichtgerät

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10247563A1 (de) * 2002-10-11 2004-04-22 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Fahrers
DE102004028324A1 (de) * 2003-06-16 2005-02-17 Volkswagen Ag Wärmebild-Erkennungssystem
DE10348109A1 (de) * 2003-10-16 2005-05-19 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung einer Fahrzeugumgebung
DE102004050181A1 (de) * 2003-10-27 2005-06-09 Ford Global Technologies, LLC, Dearborn Aktives Nachtsichtsystem mit adaptiver Bildgebung
DE10359192A1 (de) * 2003-12-17 2005-07-14 Hella Kgaa Hueck & Co. Nachtsichtsystem für ein Kraftfahrzeug
DE102004036566A1 (de) * 2004-07-28 2006-03-23 Robert Bosch Gmbh Nachtsichtgerät

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010006833A1 (de) * 2008-07-16 2010-01-21 Robert Bosch Gmbh Verfahren zur verbesserung der sicht eines fahrzeugführers in einem fahrzeug und anordnung dazu
EP3139340A1 (de) * 2015-09-02 2017-03-08 SMR Patents S.à.r.l. System und verfahren zur verbesserung der sichtbarkeit
US10846833B2 (en) 2015-09-02 2020-11-24 SMR Patents S.à.r.l. System and method for visibility enhancement
US11648876B2 (en) 2015-09-02 2023-05-16 SMR Patents S.à.r.l. System and method for visibility enhancement
WO2020064521A1 (de) 2018-09-28 2020-04-02 Volkswagen Aktiengesellschaft Konzept zum aufbereiten von infrarotbildern
DE102019208928A1 (de) * 2019-06-19 2020-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen einer visuellen Repräsentation eines Umfeldes eines Fortbewegungsmittels
DE102019120214A1 (de) * 2019-07-26 2021-01-28 Valeo Schalter Und Sensoren Gmbh Verfahren und Fahrerassistenzsystem zum Bereitstellen von visuellen Informationen über ein erstes Fahrzeug in einer Umgebung eines zweiten Fahrzeugs, Computerprogramm und computerlesbares Medium
DE102021201247A1 (de) 2021-02-10 2022-08-11 Robert Bosch Gesellschaft mit beschränkter Haftung LIDAR-Vorrichtung

Similar Documents

Publication Publication Date Title
EP3401166B1 (de) Spiegelersatzsystem als kamera-monitor-system (kms) eines kraftfahrzeugs, insbesondere eines nutzfahrzeugs
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
EP3109096B1 (de) Anzeigeeinrichtung für fahrzeuge, insbesondere nutzfahrzeuge
EP3024700B1 (de) Verfahren und vorrichtung zur wiedergabe eines seitlichen und/oder rückwärtigen umgebungsbereichs eines fahrzeugs
EP2998937B1 (de) Anzeigeeinrichtung für fahrzeuge, insbesondere nutzfahrzeuge
DE102017100004A1 (de) Verfahren zum Bereitstellen von zumindest einer Information aus einem Umgebungsbereich eines Kraftfahrzeugs, Anzeigesystem für ein Kraftfahrzeug, Fahrerassistenzsystem für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102015210645A1 (de) Sicherheitsbestätigungsunterstützungssystem für Fahrzeugführer und zugehöriges Verfahen
DE102008028303A1 (de) Anzeigesystem und Programm
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
DE102011080928A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102016003233A1 (de) Sichtsystem für ein Fahrzeug, insbesondere Nutzfahrzeug
EP3437929A1 (de) Sichtsystem mit fahrsituationsbedingter sichtfeld-/sichtbereicheinblendung
WO2018206213A1 (de) Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE102006044864A1 (de) Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels
DE102019216348A1 (de) Fahrzeugunterstützungssystem
DE102014224762B4 (de) Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs
DE102005041535A1 (de) Night-Vision-System, bei dem die Umgebung mittels einer Aufnahmevorrichtung aufgenommen und mittels einer Anzeige zumindest teilweise dargestellt wird
DE102017223439B4 (de) Warnvorrichtung vor Gefahrensituationen für ein Kraftfahrzeug
DE102010043829B4 (de) Optisches Abtastsystem und optisches Abtastverfahren
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102016122301A1 (de) Überwachen eines Totwinkelbereichs eines Gespanns
DE102012018556A1 (de) Assistenzsystem zur Ermöglichung einer erweiterten Vorausschau für nachfolgende Verkehrsteilnehmer
EP2555178A1 (de) Verfahren zum Erfassen von Objekten seitlich eines Nutzfahrzeugs und Nutzfahrzeug mit einem Erfassungssystem zum Ausführen des Verfahrens
DE102011080720A1 (de) Visualisierung einer Rampenabfahrt
DE102019103627A1 (de) Fahrerassistenzsystem und Kraftfahrzeug mit einem solchen Fahrerassistenzsystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection