-
Die Erfindung betrifft ein Verfahren zur Bestimmung einer Sichtweite für ein Fahrzeug, wobei mittels zumindest einer Kamera eine Umgebung des Fahrzeugs erfasst wird und in mittels der Kamera erfassten Bildern Kontrastmaße für zumindest einem auf den Bildern dargestellten Objekt ermittelt werden, wobei aus den Kontrastmaßen die Sichtweite ermittelt wird.
-
Die Erfindung betrifft weiterhin eine Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug, umfassend zumindest eine Kamera zur Erfassung einer Umgebung des Fahrzeugs und eine mit der Kamera gekoppelte Verarbeitungseinheit zur Ermittlung von Kontrastmaßen von zumindest einem in mittels der Kamera erfassten Bildern dargestellten Objekt und zur Ermittlung der Sichtweite aus den Kontrastmaßen.
-
Es ist allgemein bekannt, dass das Fahrverhalten des Fahrers eines Fahrzeugs und die Leistungsfähigkeit von Fahrerassistenzsystemen, welche auf Sensoren zur Umgebungserfassung basieren, maßgeblich von der Sichtweite abhängig sind. Dies gilt insbesondere für optische Sensoren, die in einem trüben Medium eine nur eingeschränkte Funktionsfähigkeit besitzen. Einschränkungen können hervorgerufen werden durch Nebel, Regen, Schneefall, Rauch, Lichtverhältnisse oder eine Verknüpfung dieser Faktoren.
-
Prinzipiell werden zwei Typen der Sichtweite unterschieden. Zum einen eine objektive Sichtweite, welche auch als Normsichtweite bezeichnet wird, die über eine Dämpfung eines optischen Signals bei Transmission einer gewissen Strecke des Mediums, in dem die Sichtweite zu messen ist, gegeben ist. Zum anderen eine subjektive Sichtweite des Fahrers, die aufgrund individueller Parameter wie das Sehvermögen nur schwer zu messen ist.
-
Zur Bestimmung der Sichtweite sind üblicherweise sowohl aktive als auch passive Verfahren vorgesehen. Aktive Verfahren basieren auf der Aussendung eines optischen Signals in ein vor dem optischen Sensor befindliches Medium, dessen Transmissionseigenschaften ermittelt werden sollen. Anhand des Pegels eines rückgestreuten optischen Signals wird eine optische Durchlässigkeit des Mediums ermittelt. Somit ist diese Messung eine Reflexionsmessung.
-
Entlang von Bundesstraßen und Bundesautobahnen kommen üblicherweise Absorptionsmesssysteme zum Einsatz, bei denen eine optische Sendeeinheit einer optischen Empfangseinheit gegenüber steht und aus den Pegeln eines Sende- und Empfangssignals bei bekannter Transmissionsstrecke die optische Durchlässigkeit des Übertragungsmediums bestimmt wird. Hierfür werden üblicherweise Signale mit Wellenlängen im für Menschen nicht sichtbaren Infrarot-Bereich verwendet.
-
Passive Verfahren basieren auf der Berechnung eines Kontrastmaßes in mittels einer Kamera aufgenommenen Bildern, wobei das Kontrastmaß für ein zu messendes Objekt abgeleitet wird und anhand eines modellierten physikalischen Zusammenhangs zwischen einer Durchdringungstiefe und Absorptionseigenschaft des Mediums einer Sichtweite zugeordnet wird.
-
Mithilfe bekannter Verfahren der Bildverarbeitung, wie sie zur Ermittlung von Gradienten anhand von Differentialoperationen oder einer zweidimensionalen Fouriertransformation verwendet werden, werden im Bereich eines im Kamerabild sichtbaren Objekts Kontrastmaße abgeleitet, welche von den Sichtverhältnissen und dem Abstand zum Objekt abhängig sind.
-
Ein Verfahren zur Sichtweitenbestimmung mit einer Kamera beschreibt die
DE 10 2005 035 810 A1 , wobei die Kamera zur Umgebungserfassung in einem Kraftfahrzeug vorgesehen ist. Es wird ein Objekt erfasst, für welches eine Relativgeschwindigkeit zwischen der Kamera und dem aufgenommenen Objekt ungleich Null ist. Weiterhin wird für zumindest dieses Objekt eine Trajektorie prädiziert und entlang der Trajektorie wird eine Anzahl von Messfenstern gesetzt. Ein Abstand von in den Messfenstern abgebildeten Objekten zur Kamera wird bestimmt und die Sichtweite wird aus einem Bildkontrast eines Messfensters oder Teilen eines Messfensters und dem zugehörigen Abstand bestimmt, wobei wenigstens zwei Kontrastmessungen bei verschiedenen Abständen zur Auswertung herangezogen werden.
-
Aus der
EP 1 303 768 B1 ist ein Verfahren zur Sichtweitenbestimmung mit einem in einem fahrenden Kraftfahrzeug angeordneten Messgerät bekannt. Dabei wird ein Kontrast an einem Objekt von wenigstens zwei unterschiedlich weit von dem Objekt entfernten Messpositionen des Messgeräts aus gemessen. Bei dieser Messung wird in einem ersten Schritt das Objekt in einem von einem Bildsensor des Messgeräts gelieferten Bild ausgewählt und der Kontrast des Objekts im gelieferten Bild wird gemessen. Anschließend wird das Objekt in von dem Bildsensor gelieferten Bildern verfolgt, während sich das Kraftfahrzeug weiter bewegt, wobei der während einer Annäherung des Kraftfahrzeugs an das vermessene Objekt zurückgelegte Weg unter Verwendung einer Fahrzeuggeschwindigkeit oder von Raddrehzahlen aufintegriert wird. In einem darauffolgenden Schritt erfolgt eine erneute Messung des Kontrastes des Objekts. Ferner wird eine Änderung der gemessenen Kontrastwerte in eine Sichtweite umgerechnet, wobei die Umrechnung anhand eines Verhältnisses der gemessenen Kontrastwerte und der Differenz von Entfernungen der Messpositionen vom Objekt erfolgt. Dabei wird ein mit der Entfernung exponentiell abklingender Verlauf einer Kontrastfunktion angenommen. Weiterhin wird ein Messgerät eines Kraftfahrzeugs beschrieben, wobei das Messgerät eine Kamera und eine Recheneinheit aufweist. Die Kamera umfasst einen CCD- oder CMOS-Bildsensor.
-
Ferner offenbart die
EP 0 785 883 B1 einen Sensor zur Sichtweiten- und Regenbelagsermittlung in einem Kraftfahrzeug mit einer Lichtquelle, deren Licht in eine Scheibe derart eingekoppelt wird, dass ein Teil innerhalb der Scheibe reflektiert wird und zur Messung des Regenbelags ausgewertet wird. Der Sensor umfasst weiterhin einen Lichtempfänger, dem über ein Auskoppelmedium Licht aus der Scheibe zugeführt wird, wobei ein Teil des Lichtes, der auch bei regenbelagsfreier Scheibe aus dieser ausgekoppelt wird, zur Ermittlung der Sichtweite ausgewertet wird. Gestreutes Licht, welches zur Scheibe zurückgelangt, wird über das Auskoppelmedium zum Lichtempfänger geführt.
-
Auch die
EP 0 691 534 A1 offenbart ein Verfahren zur Ermittlung einer Sichtweite für eine Bewegung eines Kraftfahrzeugs, bei dem die von einer optoelektronischen Aufnahmeeinrichtung aufgenommenen Originalbilder in Bildmerkmale transformiert werden, die Orte von definierten Helligkeitsänderungen in den Originalbildern kennzeichnen. Über eine Entfernungsbestimmung der Bildmerkmale relativ zu der optoelektronischen Aufnahmeeinrichtung und einer anschließenden Filterung der Entfernungswerte wird die aktuelle Sichtweite eines Fahrzeugführers oder eines auf Bildverarbeitung basierenden Sensorsystems ermittelt.
-
-
Der Erfindung liegt die Aufgabe zugrunde, ein gegen gegenüber dem Stand der Technik verbessertes Verfahren zur Bestimmung einer Sichtweite für ein Fahrzeug und eine verbesserte Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug anzugeben.
-
Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale und hinsichtlich der Vorrichtung durch die im Anspruch 7 angegebenen Merkmale gelöst.
-
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
-
In einem Verfahren zur Bestimmung einer Sichtweite für ein Fahrzeug wird mittels zumindest einer Kamera eine Umgebung des Fahrzeugs erfasst und in mittels der Kamera erfassten Bildern werden Kontrastmaße für zumindest ein auf den Bildern dargestelltes Objekt ermittelt, wobei aus den Kontrastmaßen die Sichtweite ermittelt wird.
-
Erfindungsgemäß wird aus mittels zumindest eines Radarsensors erfassten Daten ein Abstand zwischen dem Fahrzeug und dem Objekt ermittelt, wobei der ermittelte Abstand als Referenzwert für die ermittelte Sichtweite verwendet wird und bei einer Abweichung der ermittelten Sichtweite von dem Abstand der Wert der Sichtweite berichtigt wird.
-
Anhand des erfindungsgemäßen Verfahrens wird in besonders vorteilhafter Weise eine Robustheit, Genauigkeit und Zuverlässigkeit der Bestimmung der Sichtweite verbessert. Insbesondere wird aufgrund der zusätzlichen Verwendung des Radarsensors zur Kamera gegenüber rein kamerabasierten Verfahren zur Bestimmung der Sichtweite ein Fehler der ermittelten Sichtweite eliminiert.
-
Weiterhin ist die Sichtweite aufgrund der zusätzlichen Verwendung des Radarsensors in besonders vorteilhafter Weise auch dann bestimmbar, wenn das Objekt aufgrund begrenzter Sichtverhältnisse, wie beispielsweise Nebel, Regen, oder Schnee, mittels der Kamera allein nicht erfasst werden kann.
-
Bei der Verwendung der ermittelten Sichtweite zum Betrieb von Fahrerassistenzsystemen des Fahrzeugs, beispielsweise zur Geschwindigkeitsregelung oder zur Parametrierung von Fahrerassistenzsystemen mit Warn- und/oder Bremsfunktionen, ist aufgrund der robusteren, genaueren und zuverlässigeren Bestimmung der Sichtweite auch ein robusterer, genauerer und zuverlässigerer Betrieb des jeweiligen Fahrerassistenzsystems erzielbar, so dass zum einen eine optimale Unterstützung des Fahrers beim Führen des Fahrzeugs und zum andern eine Erhöhung der Sicherheit für alle Fahrzeuginsassen und andere Verkehrsteilnehmer realisierbar ist.
-
Da moderne Fahrzeuge häufig bereits über zumindest eine Kamera und zumindest einen Radarsensor zur Erfassung und Vermessung der Umgebung des Fahrzeugs verfügen, ist ein besonderer Vorteil des erfindungsgemäßen Verfahrens, dass keine zusätzliche sensorische Ausstattung des Fahrzeugs zur Realisierung des Verfahrens erforderlich ist. Daraus folgend ist das Verfahren besonders kastengünstig realisierbar.
-
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
-
Dabei zeigen:
-
1 schematisch ein Fahrzeug mit einer erfindungsgemäßen Vorrichtung zur Bestimmung einer Sichtweite, und
-
2 schematisch einen Zusammenhang zwischen einer Detektionsreichweite einer Kamera und einer zu ermittelnden Sichtweite.
-
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
-
In 1 ist ein Fahrzeug 1 mit einer erfindungsgemäßen Vorrichtung 2 zur Bestimmung einer Sichtweite S dargestellt.
-
Die Vorrichtung 2 umfasst eine Kamera 3 zur Erfassung einer Umgebung des Fahrzeugs 1. Die Kamera 3 ist insbesondere Bestandteil eines bereits im Fahrzeug 1 vorhandenen, nicht näher dargestellten Fahrerassistenzsystems. Das Fahrerassistenzsystem ist beispielsweise eine bildgestützte Einparkhilfe oder eine Verkehrszeichenerkennung.
-
Mit der Kamera 3 ist eine Verarbeitungseinheit 4 gekoppelt, mittels welcher Kontrastmaße C von einem in mittels der Kamera 3 erfassten Bildern B dargestellten Objekt O ermittelt werden. Bei dem Objekt O handelt es sich im dargestellten Ausführungsbeispiel um ein vor dem Fahrzeug 1 in gleicher Richtung fahrendes weiteres Fahrzeug. Aus den Kontrastmaßen C wird mittels der Verarbeitungseinheit 4 eine Sichtweite S ermittelt, wobei unter der Sichtweite S eine größte horizontale Entfernung verstanden wird, bei welcher das Objekt O gerade noch von der Kamera 3 erkannt werden kann.
-
Die Sichtweite S ist dabei abhängig von Eigenschaften der Umgebung, beispielsweise von Helligkeitswerten sowie Farbkontrasten, welche insbesondere aufgrund unterschiedlicher Witterungsverhältnisse und Tageszeiten stark differieren. Die Ermittlung der Sichtweite S aus den Kontrastmaßen C erfolgt dabei mittels allgemein bekannter Verfahren, wie sie beispielsweise in „Nicolas Hautière, Raphaël Labayrade und Didier Hubert: Real-Time Disparity Contrast Combination for Onboard Estimation of the Visibility Distance; In: IEEE Transactions On Intelligent Transportation Systems, Vol. 7, No. 2, Juni 2006”, in „Dean Pomerleau: Visibility estimation from a moving vehicle using the Ralph Vision System; In: 0-7803-4269.0/97/$10.00 © 1998 IEEE” und in „W. Middleton: Vision through the Atmosphere; In: University of Toronto Press, 1952” beschrieben sind.
-
In nicht näher dargestellter Weise ist die Verarbeitungseinheit 4 mit einem oder mehreren Fahrerassistenzsystem gekoppelt, deren Betrieb in Abhängigkeit der ermittelten Sichtweite S erfolgt. Es erfolgt insbesondere eine automatische Steuerung eines Antriebsstrangs des Fahrzeugs 1, eine Einstellung einer Fahrzeugbeleuchtung oder eine Aktivierung von Sichthilfen, wie beispielsweise einem Nachtsichtassistenzsystem, in Abhängigkeit der ermittelten Sichtweite S.
-
Da eine allein bildbasiert ermittelte Sichtweite S Fehler aufweisen kann, erfolgt eine Fusion der Kamera 3 mit einem Radarsensors 5 zur Verknüpfung einer Abstandsmessung des Radarsensors 5 mit der Kontrastmaßermittlung der Kamera 3, so dass die Funktion der Fahrerassistenzsysteme optimiert wird.
-
Der Radarsensor 5 ist zu dieser Fusion ebenfalls mit der Verarbeitungseinheit 4 gekoppelt und vorzugsweise Bestandteil eines bereits im Fahrzeug 1 vorhandenen Fahrerassistenzsystems, beispielsweise eines sogenannten Abstandsregeltempomaten.
-
Mittels des Radarsensors 5 wird eine vor dem Fahrzeug 1 befindliche Umgebung erfasst, wobei aus mittels des Radarsensors 5 erfassten Daten D ein Abstand A des Fahrzeugs 1 zu dem Objekt O ermittelt wird. Der Abstand A des Fahrzeugs 1 zu dem Objekt O entspricht im vorliegenden Ausführungsbeispiel einem Abstand der Kamera 3 von dem Objekt O.
-
Die Fusion der Kamera 3 mit dem Radarsensor 5 erfolgt mittels der Verarbeitungseinheit 4, wobei der mittels des Radarsensors 5 ermittelte Abstand A als Referenzwert für die ermittelte Sichtweite S verwendet wird und bei einer Abweichung der ermittelten Sichtweite S von dem Abstand A eine Berichtigung eines Wertes der Sichtweite S durchgeführt wird. Dabei sind die Kamera 3 und der Radarsensor 5 exakt zueinander ausgerichtet, kalibriert und justiert. Weiterhin ist die Kamera 3 auf den Radarsensor 5 registriert, so dass ein möglichst großer gemeinsamer Erfassungsbereich sichergestellt wird. Ein funktionaler Zusammenhang zwischen den Kontrastmaßen C und dem Abstand A ergibt sich wie folgt: C = C0·exp(–K·x). [1] mit:
- x
- = Abstandswert zwischen Kamera 3 und Objekt O,
- C, C0
- = Kontrastmaße auf dem Objekt O,
- K
- = gesuchte Dämpfungskonstante.
-
Dabei werden zur Ermittlung der Kontrastmaße C und des Abstands A ausschließlich Objekte O gewählt, welche gleichzeitig von der Kamera 3 und dem Radarssensor 5 erfasst werden. Weiterhin werden zur Ermittlung der Kontrastmaße C und des Abstands A ausschließlich Objekte O mit einer Eigenbewegung gewählt, wobei sich hierzu insbesondere Fahrzeuge eignen. Die Fahrzeuge sind Pkw, Vans, Lkw, Busse und Motorräder. Das Kontrastmaß C0 ist ebenfalls unbekannt und wird anhand von Messdaten insbesondere in einem Regressionsverfahren bestimmt.
-
Dabei spielt keine Rolle, ob es sich bei dem Objekt O um ein entgegenkommendes oder vorausfahrendes Fahrzeug handelt. Innerhalb eines um das detektierte Objekt O definierten Rechtecks, welches eine sogenannte ”Region of Interest” darstellt, werden die für die Schätzung der optischen Sichtweite S erforderlichen Kontrastmaße C ermittelt.
-
Die Verknüpfung des anhand des Radarsensors 5 ermittelten Abstands A zu dem vorausfahrenden Fahrzeug erfolgt mit den sichtweitenabhängigen Kontrastmaßen C, welche anhand eines auf eine Detektion von Fahrzeugfronten adaptierten Algorithmus aus entsprechenden Bildausschnitten von gleichzeitig aufgenommenen Bildern B der Kamera 3 abgeleitet werden. Die Bildausschnitte werden dabei von den Rechtecken, welche die ”Region of Interest” darstellen, gebildet. Mit anderen Worten: Die Ermittlung der Kontrastmaße C erfolgt in einem Bildausschnitt eines jeweiligen Bildes B, wobei in einem Bildverarbeitungsalgorithmus eine Fahrzeugrückseite oder eine Fahrzeugvorderseite des als Fahrzeug gewählten Objekts O erkannt wird und als Bildausschnitt aus dem jeweiligen Bild B extrahiert wird.
-
Somit erfolgt die Sichtweitenschätzung nur anhand von Objekten O, die von einem auf den Bildern B der Kamera 3 operierenden Fahrzeugfronten-Erkenner erkannt werden und für die eine gleichzeitige Abstandsmessung des Radarsensors 5 verfügbar ist. Der Fahrzeugfronten-Erkenner wird mittels allgemein bekannten Bildverarbeitungsverfahren realisiert, bei welchen ein Klassifikator auf eine Detektion und Erkennung von Fahrzeugfronten, d. h. Fahrzeugvorderseiten und Fahrzeugrückseiten, adaptiert wurde. Damit ist eine hohe Robustheit der Sichtweitenbestimmung erzielbar.
-
Die bei Ermittlung des Abstands A erhaltenen Radar-Abstandsmessungen des Fahrzeugs 1 zum Objekt-Fahrzeug werden bei Annäherung des Fahrzeugs 1 an das vorausfahrende oder entgegenkommende Objekt-Fahrzeug durch zeitliche Verfolgung, sogenanntes Tracking, der Fahrzeugrückseite oder Fahrzeugvorderseite zeitlich gefiltert und somit stabilisiert. Daraus resultiert die Möglichkeit einer graduellen Abstufung der Schätzung der Sichtweite S.
-
In besonders vorteilhafter Weise wird die Sichtweite S auch dann bestimmt, wenn das Objekt O, beispielsweise aufgrund von Nebel, nur mittels des Radarsensors 5 allein detektierbar ist, nicht aber mittels der Kamera 3. In diesem Fall ist eine, in 2 näher dargestellte visuelle Sichtweite SV der Kamera 3 kleiner als die des Radarsensors 5. Ferner ergibt sich eine Schätzung der Sichtweite S im Annäherungsfall genau zu einem Zeitpunkt, zu dem die Detektion des Objekts O durch die Kamera 3 bestätigt wird. Hierfür erfolgt eine eindeutige Zuordnung des detektierten Radarziels zu dem als Fahrzeugrückseite oder Fahrzeugvorderseite erkannten Objekts O im jeweiligen Bild B der Kamera 3.
-
Bei dem Radarsensor 5 handelt es sich um einen sogenannten Long-Range-Radarsensor mit einer Reichweite von bis zu 180 m. Aufgrund dieser großen Reichweite ist anhand von im Erfassungsbereich des Radarsensors 5 detektierten Radarobjekten eine Initialisierung der Position der Fahrzeugfronten im Bild B der Kamera 3 in Entfernungen durchführbar, in welchen eine robuste, rein bildbasierte Detektion von Fahrzeugfronten aufgrund einer zu geringen Bildauflösung nicht möglich ist. Damit besteht die Möglichkeit, einen Entfernungsbereich, innerhalb dessen eine robuste Schätzung der optischen Sichtweite S möglich ist, deutlich zu erweitern.
-
Als Kamera 3 wird eine Monokamera oder eine Stereokamera verwendet. Bei Verwendung der Stereokamera ist es möglich, mittels allgemein bekannter stereoskopischer Bildverarbeitungsverfahren eine weitere Abstandmessung zwischen dem Fahrzeug 1 und dem Objekt O durchzuführen, so dass eine weitere Steigerung der Genauigkeit der Sichtweitenbestimmung möglich ist. Die Erkennung der Fahrzeugfronten erfolgt dabei auf einem der beiden gleichzeitig mittels der Stereokamera erfassten Bilder B.
-
2 zeigt einen Zusammenhang zwischen einer Detektionsreichweite X der Kamera 3 und der zu ermittelnden Sichtweite S.
-
Eine gestrichelte Linie bezeichnet eine maximale Detektionsreichweite Xmax der Kamera 3, welche beispielsweise Bestandteil eines Fahrerassistenzsystems zur Verkehrszeichenerkennung ist. Eine visuelle Sichtweite SV, ist hier größer als die der Kamera 3.
-
Im schraffiert markierten Bereich Y zwischen der visuellen Sichtweite S und der maximalen Detektionsreichweite X
max ist eine Schätzung der Sichtweite S anhand von bildbasierten Kontrastmerkmalen, d. h. anhand der Kontrastmaße C möglich. In diesem Fall werden anhand einer physikalischen Modellfunktion ein Kontrastmaß C und ein Abstandswert der Kamera
3 zu dem Objekt O mit einer Sichtweite S in Relation gesetzt. Der Abstandswert ist dabei der mittels des Radarsensors
5 ermittelte Abstand A. Die hierfür verwendeten Bilder B werden in Abständen, welcher unter der maximalen Detektionsreichweite X
max legen, gewonnen. Der Abstandswert wird aus der Integration der Geschwindigkeit bei Annäherung des Fahrzeugs
1 an das Objekt O ermittelt. Dies erfolgt beispielsweise nach dem aus
EP 1 303 768 B1 bekannten Verfahren.
-
Eine mögliche Modellfunktion ist gegeben durch die Funktion gemäß Gleichung [1]: C = C0·exp(–K·x) [2] mit:
- x
- = Abstandswert zwischen Kamera 3 und Objekt O,
- C
- = zugehöriges Kontrastmaß,
- C0, K
- = Konstanten.
-
Liegt die abzuschätzende Sichtweite S unterhalb der maximalen Detektionsreichweite Xmax oder ist die maximale Detektionsreichweite Xmax größer als die maximal zu bestimmende Sichtweite S, existiert der schraffierte Bereich Y nicht, so dass keine Fallunterscheidung erforderlich ist In diesen Fällen ist eine Schätzung der Sichtweite S nach Gleichung [2] nur anhand von bildbasierten Kontrastmerkmalen mittels der physikalischen Modellfunktion nicht erforderlich.
-
Auf diese Art und Weise kann die dem Fahrer zugängliche maximale Sichtweite S ermittelt werden. Auf Basis dieser Information werden zum einen kamerabasierte Fahrerassistenzsysteme des Fahrzeugs 1 parametrisiert. Dies erfolgt insbesondere dann, wenn ermittelt wird, dass die Sichtweite S des Fahrers eingeschränkt ist. Zum anderen wird der Fahrer des Fahrzeugs 1 bei nicht angepasstem Fahrverhalten, beispielsweise bei zu hoher Geschwindigkeit trotz schlechter Sicht, optisch, haptisch und/oder akustisch gewarnt.
-
Bezugszeichenliste
-
- 1
- Fahrzeug
- 2
- Vorrichtung
- 3
- Kamera
- 4
- Verarbeitungseinheit
- 5
- Radarsensor
- A
- Abstand
- B
- Bild
- C
- Kontrastmaß
- D
- Daten
- O
- Objekt
- S
- Sichtweite
- SV
- visuelle Sichtweite
- X
- Detektionsreichweite
- Xmax
- maximale Detektionsreichweite
- Y
- Bereich
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102005035810 A1 [0009]
- EP 1303768 B1 [0010, 0047]
- EP 0785883 B1 [0011]
- EP 0691534 A1 [0012]
- US 6498647 B1 [0013]
- US 6437854 B2 [0013]
-
Zitierte Nicht-Patentliteratur
-
- Nicolas Hautière, Raphaël Labayrade und Didier Hubert: Real-Time Disparity Contrast Combination for Onboard Estimation of the Visibility Distance; In: IEEE Transactions On Intelligent Transportation Systems, Vol. 7, No. 2, Juni 2006 [0031]
- Dean Pomerleau: Visibility estimation from a moving vehicle using the Ralph Vision System; In: 0-7803-4269.0/97/$10.00 © 1998 IEEE [0031]
- W. Middleton: Vision through the Atmosphere; In: University of Toronto Press, 1952 [0031]