DE10308168A1 - Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes - Google Patents
Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes Download PDFInfo
- Publication number
- DE10308168A1 DE10308168A1 DE10308168A DE10308168A DE10308168A1 DE 10308168 A1 DE10308168 A1 DE 10308168A1 DE 10308168 A DE10308168 A DE 10308168A DE 10308168 A DE10308168 A DE 10308168A DE 10308168 A1 DE10308168 A1 DE 10308168A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- data
- determined
- evaluation unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/003—Transmission of data between radar, sonar or lidar systems and remote stations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Ermittlung des Fahrzeugumfeldes, umfassend mindestens einen externen Sensor (10, 20, 30), wobei durch den externen Sensor (10, 20, 30) das Fahrzeugumfeld abgetastet wird und dem Sensor (10, 20, 30) mindestens eine Sensoreinheit (11, 21, 31) zugeordnet ist, und eine Auswerteeinheit (2), wobei durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von Objektdaten ermittelt wird, der externe Sensor (10, 20, 30) Messdaten an die Sensoreinheit (11, 21, 31) überträgt, die Sensoreinheit (11, 21, 31) ein assoziiertes Umfeld-Merkmal ermittelt, wobei die Messdaten mit Erwartungsdaten der Messdaten assoziiert werden und dabei mindestens die physikalischen Eigenschaften des zugeordneten externen Sensors (10, 20, 30) berücksichtigt werden, erste Objektdaten mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmt werden und in der Auswerteeinheit (2) zur Auswertung der Objektdaten ein sensorunabhängiges Situationsmodell verwendet wird.
Description
- Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur Ermittlung des Fahrzeugumfeldes.
- Im Rahmen der Weiterentwicklung des Automobils genießt das Thema Sicherheit ein herausragende Bedeutung. Nachdem die passive Sicherheit das Verletzungsrisiko der Insassen bei einem Unfall dramatisch gesenkt hat, rückt nun zunehmend die aktive Sicherheit ins Blickfeld. Aktive Sicherheit verspricht einen weiter verbesserten Schutz der Insassen als auch der anderen am Unfall beteiligten Verkehrsteilnehmer, indem bereits im Vorfeld des Unfalls geeignete Schutzmaßnahmen ausgeführt werden. Diese reichen von der Vorspannung entsprechende Systeme für eine schnellere Reaktion im Crash-Fall bis hin zur automatischen Unfallvermeidung. Allen Maßnahmen ist gemeinsam, dass sie für eine Auslösung eine Kenntnis des Fahrzeugumfeldes benötigen, die je nach Komplexität der auszulösenden Reaktion eine hinreichende Informationsdichte und -güte besitzen muss.
- Aus der
DE 198 45 568 A1 ist eine Vorrichtung und ein Verfahren zur Erfassung und Verfolgung von Objekten im Fahrzeugumfeld bekannt. Dabei wird zunächst ein Fahrzustand eines Fahrzeugs anhand interner Sensoren, beispielsweise Gierratensensoren oder Tachometer, ermittelt. Auf Basis dieser Daten werden die externen Sensoren (Radar, Laser, etc.) entsprechend des ermittelten Fahrzustands eingestellt. Dafür werden beispielsweise die Reichweite und/oder eine gewünschte Abtastrate geeignet gewählt. Das Fahrzeugumfeld wird mit den derart eingestellten und justierten externen Sensoren abgetastet und die von den externen Sensoren ermittelten Daten werden an eine zentrale Auswerteeinheit übermittelt. In der Auswerteeinheit wird anhand der Daten eine Bewertung der Fahrsituation unter Berücksichtung des internen Fahrzustands und des Fahrzeugumfelds durchgeführt, wobei Objekte und deren Bewegung im Fahrzeugumfeld detektiert werden. So ermittelte Informationen werden verwendet, um gezielt externe Sensoren zur Bewertung auszuwählen und zu justieren, so dass eine Bewertung der Fahrsituation sukzessive verbessert werden kann. - Informationen über die Fahrsituation, d.h. das Fahrzeugumfeld, das Fahrzeug und den Fahrer, werden beispielsweise in Fahrerassistenz-Applikationen verwendet. Dabei ist es bekannt, durch Sensoren eine Fahrsituation zu Erfassen, die Fahrsituation durch Fahrschlauchprädiktion oder Zielauswahl zu analysieren und anschließende Aktionen beispielsweise durch eine Fahrzeugregelung entsprechend durchzuführen. Zukünftige Fahrerassistenzsysteme werden beispielsweise eine Längsregelung, z.B. eine Abstandregelung oder „Stop & Go"-Regelung, eine Querregelung, z.B. Heading Control, kombinierte Längs- und Querreglungen, z.B. Stauassistenten, oder Sicherheitsfunktionen, z.B. automatische Notbremsungen, umfassen. Um diese Aufgaben nutzergerecht zu erfüllen, ist eine hohe Zuverlässigkeit und eine hohe Informationsgüte notwendig. Um die Anforderungen an die Zuverlässigkeit zu erfüllen, ist es bekannt eine Vielzahl an Sensoren im Fahrzeug einzusetzen, ein sogenanntes Multi-Sensor-System. Werden für die Erfassung von Daten mehrere Sensoren eingesetzt, so arbeiten diese redundant, kooperativ, komplementär und/oder mit unterschiedlicher Verarbeitungstiefe.
- Eine Zusammenfassung oder Verknüpfung von Messdaten mehrerer Datenquellen zu einer gemeinsamen Beschreibung wird allgemein als Sensorfusion bezeichnet. Im Bereich der Automobiltechnik ist eine Sensorfusion beispielsweise aus J. Langheim: „CARSENSE – New Environment Sensing for Advanced Driver Assistance Systems; In: Proc. of the IEEE Intelligent Vehicle Symposium 2001 bekannt. Dabei ist ein System zu Erfassung des Fahrzeugumfeldes durch Laser, Radar und Video beschrieben, wobei die unterschiedlichen Sensoren mit einer zentralen Fusionseinheit kommunizieren. Die physikalischen Eigenschaften der unterschiedlichen Sensorkonzepte bleiben jedoch in der Fusion unberücksichtigt.
- Bekannte Berücksichtigungen der physikalischen Eigenschaften führen zu einer starken Abhängigkeit der eingesetzten Sensorik und daher zu einer Inflexibilität des Systems.
- Der Erfindung liegt daher das technische Problem zugrunde, ein echtzeitfähiges Verfahren und eine echtzeitfähige Vorrichtung zur Ermittlung eines Fahrzeugumfeldes durch Sensoren zu schaffen, welche eine hohe Informationsgüte und eine hohe Flexibilität aufweisen.
- Die Lösung des Problems ergibt sich durch die Gegenstände mit den Merkmalen der Patentansprüche 1 und 10. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
- In einem Fahrzeugumfeld befindliche Objekte werden durch ein Situationsmodell in einer Auswerteeinheit anhand von Objektdaten ermittelt. Hierfür wird das Fahrzeugumfeld durch externe Sensoren abgetastet, die Messdaten der externen Sensoren werden an Sensoreinheiten übertragen und mit Erwartungsdaten der Messdaten assoziiert, wobei mindestens ein assoziiertes Umfeld-Merkmal unter Berücksichtigung der physikalischen Eigenschaften des zugeordneten externen Sensors ermittelt wird. Objektdaten werden mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmt. Externe Sensoren zum Abtasten des Fahrzeugumfeldes, wie Radar, Laser oder Bildverarbeitungssysteme, befinden sich dezentral im Fahrzeug und erfassen jeweils Ausschnitte aus der Umgebung, wie z.B. Reflexionspunkte von Fahrzeugen (Radar) oder Objektkonturen (Laser). Die Sensoreinheiten bilden eine Schnittstelle zwischen den Sensoren und der Auswerteeinheit. In den Sensoreinheiten liegen Sensormodelle vor, welche die physikalischen Eigenschaften des jeweiligen Sensors nachbilden. Die strikte Trennung des sensorunabhängigen Situationsmodells in der Auswerteeinheit und der Sensoren durch die Zwischenschaltung der Sensoreinheiten bewirkt eine große Flexibilität hinsichtlich der verwendbaren Sensorik. Ein neuer Sensor kann mittels einer Sensoreinheit mit passendem Sensormodell in die bestehende Struktur eingepasst werden. Dieses gilt ebenso für unterschiedliche Verarbeitungsebenen in den Sensoren. Da die Sensoreigenschaften durch die Sensoreinheiten abstrahiert werden, können sowohl Sensoren mit einer hohen Vorverarbeitungstiefe als auch Rohdaten eingebracht werden. Je nach Verarbeitungstiefe und Rechenkapazität der einzelnen Sensoren, können die Sensoreinheiten beliebig dezentral in den Sensoren vorliegen als auch zentral als gemeinsame Recheneinheit. Die Zwischenschaltung der Sensoreinheiten ist weiter für eine Synchronisation der Datenaufnahme nutzbar. Daher ist auch eine Verwendung asynchroner Sensoren möglich. Die Verarbeitung der Sensordaten in den Sensoreinheiten kann parallel erfolgen.
- In einer weiteren Ausführungsform werden die ersten Objektdaten durch Verknüpfung von mindestens zwei assoziierten Umfeld-Merkmalen ermittelt. Die assoziierten Umfeld-Merkmale werden unter Berücksichtigung der jeweiligen Sensoreigenschaften ermittelt. Vorzugsweise liefern die Sensoreinheiten normierte assoziierte Umfeld-Merkmale. Verschiedene assoziierte Umfeld-Merkmale sind dann durch bekannte Verfahren verknüpfbar ohne dass die Herkunft der Daten zu berücksichtigen ist.
- In einer weiteren Ausführungsform wird durch die Auswerteeinheit mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von zweiten Objektdaten ermittelt, wobei durch mindestens eine Sensoreinheit aus nicht assoziierten Umfeld-Merkmalen Objekthypothesen generiert werden und zweite Objektdaten aus Objekthypothesen ermittelt werden. Erwartungsdaten der Sensordaten sind beispielsweise im Falle eines Radarsensors bestimmte Reflexionspunkte an einem Objekt. Dabei sind die Eigenschaften des Sensors bezüglich Messgenauigkeit, Detektionswahrscheinlichkeit usw. berücksichtigbar. Auch Umwelteinflüsse beispielsweise bezüglich einer Lasersensorik können in den entsprechenden Sensoreinheiten berücksichtigt werden. Ist keine Zuordnung der erfassten Sensordaten zu den Erwartungsdaten möglich, so werden aus den erfassten Sensordaten Objekthypothesen gebildet. Diese können wiederum mit Objekthypothesen anderer Sensoren oder mit weiteren Informationen des Situationsmodells verglichen werden und dadurch neue Objekte im Fahrzeugumfeld detektiert werden.
- In einer weiteren Ausführungsform werden die Erwartungsdaten von mindestens einem im Fahrzeugumfeld befindlichen Objekt durch die Auswerteeinheit ermittelt und den Sensoreinheiten übermittelt, wobei durch die Auswerteeinheit eine Klassifizierung in und/oder eine Verwertung von Objektmodellen durchgeführt wird. Anhand von Objektmodellen werden an die Auswerteeinheit übermittelte Messdaten als im Fahrzeugumfeld befindliche Objekte klassifiziert. Anhand der Klassifizierung der Objekte werden Erwartungsdaten und deren Zuordnung zu tatsächlichen Messdaten generiert und an die Sensoreinheiten übermittelt. Auf diese Weise können sensorspezifische Eigenschaften in vollem Umfang für die Verknüpfung genutzt werden. Im Gegensatz zu anderen Verfahren, bei denen die Zuordnung in dem in der Auswerteeinheit verwendeten Situationsmodell erfolgt. Können Erwartungsdaten nicht mit den Messdaten assoziiert werden, so wird durch die Auswerteeinheit eine Verwerfung bereits erstellter Objektmodelle und/oder eine Klassifizierung neuer Objektmodelle geprüft und gegebenenfalls durchgeführt. Für die Klassifizierung bestimmter Objekte können im Vorfeld geeignete Kriterien gefunden werden.
- In einer weiteren Ausführungsform werden die Erwartungsdaten durch eine Vorausschau ermittelt. Durch ein dynamisches Situationsmodell ist eine Voraussage der Erwartungswerte möglich. Die Objekte werden dabei durch eine Verteilungsfunktion der Zustände und dem dynamischen Situationsmodell beschrieben. Sobald neue Messdaten eintreffen, werden anhand der Messzeit die Objekte auf den Messzeitpunkt vorhergesagt.
- In einer weiteren Ausführungsform wird durch die Auswerteeinheit mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von dritten Objektdaten ermittelt, wobei dritte Objektdaten direkt von der Sensoreinheit unter Berücksichtigung der physikalischen Eigenschaften des zugehörigen Sensors und/oder eines Erwartungswertes bestimmt werden. Nicht alle Objekte verlangen für eine Erkennung eine Verknüpfung verschiedener Sensoren. Die Objektdaten derartiger Objekte werden direkt von den Sensoreinheiten erkannt und an das Situationsmodell in der Auswerteeinheit übertragen.
- In einer weiteren Ausführungsform werden die Objektdaten in der Auswerteeinheit durch ein Filter verknüpft, wobei mindestens ein Abstand und/oder eine Relativgeschwindigkeit eine Objektes zu dem Fahrzeug erfasst wird. Die Verknüpfung arbeitet bevorzugt auf Basis einer erweiterten Kalmanfilterung, bei der das Simulationsmodell aus einer Anzahl klassifizierter Objekte gebildet wird. Es sind jedoch auch andere Verfahren der Sensorfusion als Verknüpfungsmethode denkbar, beispielsweise die Bayes-Methode oder das Verfahren der kleinsten Fehlerquadrate.
- In einer weiteren Ausführungsform wird ein Fahrzustand des Fahrzeugs durch mindestens einen internen Sensor erfasst, wobei dem internen Sensor ein Sensoreinheit zugeordnet ist, der interne Sensor Messdaten an die Sensoreinheit überträgt und durch die Sensoreinheit mindestens ein Umfeld-Merkmal ermittelt wird. Interne Sensoren sind beispielsweise Fahrzeugssensoren (Gierratensensor, Tachometer,...) oder Mensch-Maschine-Schnittstellen-Sensoren (Blinker, Gaspedalstellung,...). Das Situationsmodell der Auswerteeinheit erhält die zugeordneten Umfeld-Merkmale und aktualisiert die Objekte, z.B. die Fahrzeuge im Fahrzeugumfeld, mit Hilfe geeigneter Algorithmen wie beispielsweise einer Kalman-Filterung für eine Verfolgung von Objekten. Durch externe Sensoren erhält die Auswerteeinheit allgemein Informationen über die Infrastruktur, wie Fahrbahn, Leitplanken, Schilder, Ampeln usw., die Verkehrsteilnehmer, wie Fahrzeuge, Radfahrer, Fußgänger usw.. und Hindernisse, wie Bäume, Häuser usw. Interne Sensoren liefern Informationen über das eigene Fahrzeug inklusive dem Fahrer und ggf. dessen Absichten. Darüber hinaus ist es auch denkbar, Informationen von anderen Verkehrsteilnehmern, der Infrastruktur oder aus Navigationssystemen zu verwenden.
- In einer weiteren Ausführungsform werden durch die Auswerteinheit Daten an ein Fahrerassistenz-Programm übermittelt.
- In einer weiteren Ausführungsform erfolgt durch die Sensoren eine Vorverarbeitung der Messdaten. Dabei ist es denkbar, dass die Sensoren sich selbsttätig an Entfernungen etc. anpassen.
- Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Figuren zeigen:
-
1 ein schematisches Blockschaltbild einer Vorrichtung zur Ermittlung des Fahrzeugumfelds und -
2 ein schematisches Blockschaltbild einer Sensoreinheit und einer Auswerteeinheit zur Ermittlung des Fahrzeugumfelds. -
1 zeigt schematisch eine Vorrichtung zur Ermittlung eines Fahrzeugumfeldes umfassend drei Sensoren10 ,20 ,30 , welchen jeweils eine Sensoreinheit11 ,21 ,31 zugeordnet ist, und eine Auswertungseinheit2 , durch welche Daten für eine Applikation3 ermittelt werden. Als Sensoren10 ,20 ,30 sind beispielsweise ein Radarsensor, ein Lasersensor und/oder eine Videokamera denkbar. Die Sensoren10 ,20 ,30 sowie verwendete Aktuatoren und/oder Steuergeräte sind in einem Fahrzeug verteilt angeordnet und durch einen Datenbus, beispielsweise einen CAN-Bus, verbunden. Die Datenerfassung der Sensoren10 ,20 ,30 erfolgt vorzugsweise durch die jeweilige Sensoreinheit11 ,21 ,31 , wobei die Systemzeit zentral von der Auswerteeinheit2 an die Sensoreinheiten11 ,21 ,31 verteilt wird. Dadurch lassen sich auch Sensordaten asynchroner Sensoren10 ,20 ,30 miteinander verknüpfen. Die durch Sensoren erfassten Messdaten werden über den Datenbus an Sensoreinheiten11 ,21 ,31 übermittelt. Die Sensoreinheiten11 ,21 ,31 sind zusammen mit der Auswerteeinheit2 auf einem gemeinsamen Rechenmittel4 integriert. Daneben ist es auch denkbar, die Sensoreinheiten11 ,21 ,31 räumlich an den Sensoren10 ,20 ,30 anzuordnen und/oder in diese zu integrieren. -
2 zeigt schematisch die Sensoreinheit11 , umfassend eine Prädiktion111 , eine Assoziation112 und eine Instanziierung113 , und die Auswerteeinheit2 , umfassend einen Filter201 , eine Bewertung202 , ein Situationsmodell203 und eine Zeit-Prädiktion204 . In der Sensoreinheit11 sind durch ein Sensormodell die physikalischen Eigenschaften des in1 dargestellten Sensors10 beschrieben. Das Sensormodell umfasst mindestens die Signalverarbeitungseigenschaften des Sensors10 und dessen Tracking-Eigenschaften hinsichtlich des in der Auswerteeinheit2 verwendeten Situationsmodells203 . In der Prädiktion111 werden die von der Auswerteeinheit2 an die Sensoreinheit11 übermittelten Erwartungsdaten für ein im Fahrzeugumfeld befindliches Objekt entsprechend der Eigenschaften des zugehörigen Sensors2 aufbereitet. Dabei werden Mehrfachprädiktionen oder Unsicherheiten berücksichtigt. Die aufbereiteten Erwartungsdaten werden an die Assoziation112 übertragen und mit tatsächlichen Messdaten assoziiert und ggf. priorisiert. Erfolgreiche Zuordnungen liefern sogenannte assoziierte Umfeld-Merkmale. Diese werden an die Auswerteeinheit2 übermittelt und in dem Filter201 mit assoziierten Umfeld-Merkmalen anderer Sensoreinheiten und/oder mit vorhergesagten Umfeld-Merkmalen verknüpft. Wenn Messdaten nicht assoziiert werden können, so werden die nicht assoziierten Merkmale der Instanzüerung113 zugeführt. Durch die Instanzüerung113 werden neue Objekthypothesen erzeugt. Sind die Daten eines Sensors ausreichend, um ein Objekt zu erkennen und zu bewerten, so werden diese Objekte ebenfalls in der Sensoreinheit11 ermittelt. Die derart ermittelten Objekte, die von der Instanzüerung113 ermittelten Objekthypothesen und die durch Verknüpfung mittels Filter201 erhaltenen Objekte werden der Bewertung202 der Auswerteeinheit2 zugeführt. Durch die Bewertung202 werden aus ausreichend gestützten Objekthypothesen neue Objekte erkannt und/oder nicht ausreichend gestützte Objekthypothesen verworfen. Alle erkannten Objekte werden an das Situationsmodell203 übertragen. Das Ergebnis ist eine konsistente Wiedergabe des Fahrzeugumfeldes soweit sie über Sensorik erfassbar ist. Darin enthalten sind z.B. die Positionen anderer Fahrzeuge und deren Dynamik, der eigene Fahrzustand aber auch Informationen über den Fahrer. Ein nicht dargestelltes, mit dem Situationsmodell203 verbundenes Fahrerassistenzsystem kann anhand dieser Daten eine Situationsanalyse und ggf. eine Situationsextrapolation durchführen, um eine Basis für Aktionsplanung und -durchführung zu gewinnen. Über Anforderungen der Fahrerassistenzsysteme, wie beispielsweise eine Aufmerksamkeitssteuerung, wird die Sensorfusion gesteuert. Informationen über die Objekte werden außerdem der sensorunabhängigen Zeit-Prädiktion204 zugeführt. In der Zeit-Prädikation204 wird eine Voraussage über die Position und/oder die Bewegung der im Fahrzeugumfeld befindlichen Objekte ermittelt. Diese Voraussage wird an die Prädiktion111 der Sensoreinheiten11 übertragen. In der Prädiktion111 der Sensoreinheit11 werden anhand des Sensormodells aus den sensorunabhängigen Objekt-Voraussagen sensorabhängige Erwartungswerte der Messdaten ermittelt. - Als externe Sensoren sind ein Radarsensor, ein Lasersensor und eine Videokamera denkbar. Durch den Radarsensor mit einer typischen Frequenz von ca. 77 GHz lassen sich beispielsweise Reflexionspunkte von Objekten in einem Abstand von bis zu 150m erkennen. Mit dem Lasersensor sind Konturen von Objekten erfassbar. Als Videokamera ist entweder ein Mono-Video System denkbar, durch welches eine Spur erkennbar ist, oder ein Stereo-Video-System zur Erkennung dreidimensionaler Gebilde. Wird ein Signal durch den Radarsensor, den Lasersensor und/oder die Videokamera aufgenommen, so erstellt die zugehörige Sensoreinheit in der Instanzüerung mindestens eine Objekthypothese, d.h. eine Hypothese über ein im Fahrzeugumfeld befindliches Objekt, welches ein derartiges Signal liefern könnte. Liefert ein Radarsensor ein Signal für einen Reflexionspunkt so ist daraus keine eindeutige Aussage über das zugehörige Objekt machbar. Der Reflexionspunkt kann beispielsweise zu einem Lastwagen, einem PKW oder einem Fahrradfahrer gehören. Außerdem ist seine Position an dem Objekt mehrdeutig, er kann beispielsweise auf einem Nummernschild, einem Außenspiegel etc. liegen. Durch die Instanzüerung werden daher verschiedene Objekthypothesen gebildet. Diese Objekthypothesen werden an die zentrale Auswerteeinheit übermittelt. Die Auswerteeinheit bewertet die verschiedenen konkurrierenden Objekthypothesen für eine Ermittlung möglicher, zugehöriger Objekte.
- Positiv auf die Entscheidung für ein mögliches Objekt wirken sich beispielsweise übereinstimmende Objekthypothesen unterschiedlicher Sensoren aus.
- Informationen bezüglich der ermittelten möglichen Objekte werden wieder an die Sensoreinheiten übertragen. In den Sensoreinheiten werden aus den Informationen über mögliche Objekte im Fahrzeugumfeld Erwartungsdaten ermittelt. Die Erwartungsdaten sind die Messdaten, welche der zugehörige Sensor erfassen würde, falls sich ein vermeintliches Objekt tatsächlich in einer vorhergesagten Position befindet. Zur Bestimmung der Erwartungsdaten werden Sensormodelle verwendet. Ein Radar-Sensormodell, welches in einer einem Radar-Sensor zugeordneten Sensoreinheit eingesetzt ist, berücksichtigt beispielsweise eine Vorhersage von Reflexionspunkten eines Fahrzeugs an Ecken, Nummernschild, Außenspiegel, inneren Reflexionspunkten etc., eine örtliche Messgenauigkeit der Reflexionspunkte, Entfernung, Winkel, eine Längsgeschwindigkeit und eine Quergeschwindigkeit. Werden die Objekthypothesen von den anderen Sensoren und/oder den nachfolgenden Messungen unterstützt, so können die entsprechenden Messdaten eindeutig diesem Objekt zugeordnet werden, d.h. es werden sogenannte assoziierte Umfeld-Merkmale erhalten. Mit einem gemeinsamen Objekt assoziierte Umfeld-Merkmale verschiedener Sensoren können dann verknüpft werden. Durch die Assoziierung wird verhindert, das nicht zusammenhängende Messsignale und/oder Daten miteinander verknüpft werden.
- Die Auswertung der einzelnen Sensoren bedingt sich teilweise durch die Objektvoraussagen, es bestehen jedoch keine Abhängigkeiten unter den Sensoren. So können beispielsweise durch einen Lasersensor gewonnen Messpunkte zur Stützung einer Disparitätsberechnung eines Stereo-Video-Sensors eingesetzt werden. Die Signalverarbeitung des Stereo-Video-Sensors baut aber nicht unmittelbar auf den Informationen des Lasersensors auf.
Claims (20)
- Verfahren zur Ermittlung des Fahrzeugumfeldes eines Fahrzeugs, umfassend mindestens einen externen Sensor (
10 ,20 ,30 ), wobei durch den externen Sensor (10 ,20 ,30 ) das Fahrzeugumfeld abgetastet wird und dem Sensor (10 ,20 ,30 ) mindestens eine Sensoreinheit (11 ,21 ,31 ) zugeordnet ist, und eine Auswerteeinheit (2 ), wobei durch die Auswerteeinheit (2 ) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von Objektdaten ermittelt wird, dadurch gekennzeichnet, dass der externe Sensor (10 ,20 ,30 ) Messdaten an die Sensoreinheit (11 ,21 ,31 ) überträgt, die Sensoreinheit (11 ,21 ,31 ) mindestens ein assoziiertes Umfeld-Merkmal ermittelt, wobei die Messdaten mit Erwartungsdaten der Messdaten assoziiert werden und dabei mindestens die physikalischen Eigenschaften des zugeordneten externen Sensors (10 ,20 ,30 ) berücksichtigt werden, erste Objektdaten mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmt werden und in der Auswerteeinheit (2 ) zur Auswertung der Objektdaten ein sensorunabhängiges Situationsmodell verwendet wird. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die ersten Objektdaten durch Verknüpfung von mindestens zwei assoziierten Umfeld-Merkmalen bestimmt erden.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass durch die Auswerteeinheit (
2 ) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von zweiten Objektdaten ermittelt wird, wobei durch mindestens eine Sensoreinheit (11 ,21 ,31 ) aus nicht assoziierten Umfeld-Merkmalen mindestens eine Objekthypothese generiert wird und zweiten Objektdaten aus der Objekthypothese ermittelt werden. - Verfahren nach einem der Ansprüche 1, 2 oder 3, dadurch gekennzeichnet, dass Erwartungsdaten von mindestens einem im Fahrzeugumfeld befindlichen Objekt durch die Auswerteeinheit (
2 ) ermittelt werden und den Sensoreinheiten (11 ,21 ,31 ) übermittelt werden, wobei durch die Auswerteeinheit (2 ) eine Klassifizierung in und/oder eine Verwerfung von Objektmodellen durchgeführt wird. - Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Erwartungsdaten durch eine Vorausschau ermittelt werden.
- Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass durch die Auswerteeinheit (
2 ) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von dritten Objektdaten ermittelt wird, wobei dritte Objektdaten direkt von der Sensoreinheit (11 ,21 ,31 ) unter Berücksichtigung der physikalischen Eigenschaften des zugehörigen Sensors (10 ,20 ,30 ) und/oder eines Erwartungswertes bestimmt werden. - Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass die Objektdaten in der Auswerteeinheit (
2 ) durch ein Filter (201 ) verknüpft werden, wobei mindestens ein Abstand und/oder eine Relativgeschwindigkeit eines Objektes zu dem Fahrzeug erfasst wird. - Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass ein Fahrzustand des Fahrzeugs durch mindestens einen internen Sensor erfasst wird, wobei dem internen Sensor ein Sensoreinheit zugeordnet ist, der interne Sensor Messdaten an die Sensoreinheit überträgt und durch die Sensoreinheit mindestens ein assoziiertes Umfeld-Merkmal und/oder eine Objekthypothese ermittelt wird.
- Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass durch die Auswerteinheit (
2 ) Daten an ein Fahrerassistenz-Programm übermittelt werden. - Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass durch die Sensoren (
10 ,20 ,30 ) eine Vorverarbeitung der Messdaten erfolgt. - Vorrichtung zur Ermittlung des Fahrzeugumfeldes eines Fahrzeugs, umfassend mindestens einen externen Sensor (
10 ,20 ,30 ), wobei durch den externen Sensor (10 ,20 ,30 ) das Fahrzeugumfeld abtastbar ist und dem Sensor (10 ,20 ,30 ) mindestens eine Sensoreinheit (11 ,21 ,31 ) zuordenbar ist, und eine Auswerteeinheit (2 ), wobei durch die Auswerteeinheit (2 ) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von ersten Objektdaten ermittelbar ist, dadurch gekennzeichnet, dass Messdaten von dem externen Sensor (10 ,20 ,30 ) an die Sensoreinheit (11 ,21 ,31 ) übertragbar sind, durch die Sensoreinheit (11 ,21 ,31 ) mindestens ein assoziiertes Umfeld-Merkmal ermittelbar ist, wobei die Messdaten mit Erwartungsdaten der Messdaten assoziierbar sind und dabei mindestens die physikalischen Eigenschaften des zugeordneten externen Sensors (10 ,20 ,30 ) berücksichtigbar sind, erste Objektdaten mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmbar sind und in der Auswerteeinheit (2 ) zur Auswertung der Objektdaten ein sensorunabhängiges Situationsmodell verwendbar ist. - Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass erste Objektdaten durch eine Verknüpfung von mindestens zwei assoziierten Umfeld-Merkmalen bestimmbar sind.
- Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass durch die Auswerteeinheit (
2 ) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von zweiten Objektdaten ermittelbar ist, wobei durch die Sensoreinheit (11 ,21 ,31 ) aus nicht assoziierten Umfeld-Merkmalen Objekthypothesen generierbar sind und zweiten Objektdaten aus Objekthypothesen ermittelbar sind. - Vorrichtung nach Anspruch 10, 11 oder 12, dadurch gekennzeichnet, dass Erwartungsdaten von mindestens einem im Fahrzeugumfeld befindlichen Objekt durch die Auswerteeinheit (
2 ) ermittelbar und an die Sensoreinheiten (11 ,21 ,31 ) übermittelbar sind, wobei durch die Auswerteeinheit (2 ) eine Klassifizierung in und/oder eine Verwerfung von Objektmodellen durchgeführt wird. - Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Erwartungsdaten durch eine Vorausschau ermittelbar sind.
- Vorrichtung nach einem Ansprüche 10 bis 15, dadurch gekennzeichnet, dass durch die Auswerteeinheit (
2 ) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von dritten Objektdaten ermittelbar ist, wobei dritte Objektdaten direkt von der Sensoreinheit (11 ,21 ,31 ) unter Berücksichtigung der physikalischen Eigenschaften des zugehörigen Sensors (10 ,20 ,30 ) und/oder eines Erwartungswertes bestimmbar sind. - Vorrichtung nach einem Ansprüche 10 bis 16, dadurch gekennzeichnet, dass die Objektdaten in der Auswerteeinheit (
2 ) durch ein Filter (202 ) verknüpfbar sind, wobei mindestens ein Abstand und/oder eine Relativgeschwindigkeit eines Objektes zu dem Fahrzeug bewertbar sind. - Vorrichtung nach einem Ansprüche 10 bis 17, dadurch gekennzeichnet, dass ein Fahrzustand des Fahrzeugs durch mindestens einen internen Sensor erfassbar ist, wobei dem internen Sensor ein Sensoreinheit zugeordnet ist, durch den internen Sensor Messdaten an die Sensoreinheit übertragbar sind durch die Sensoreinheit mindestens ein assoziiertes Umfeld-Merkmal und/oder eine Objekthypothese ermittelbar ist.
- Vorrichtung nach einem Ansprüche 10 bis 18, dadurch gekennzeichnet, dass durch die Auswerteinheit (
2 ) Daten an ein Fahrerassistenz-Programm übermittelbar sind. - Vorrichtung nach einem Ansprüche 10 bis 19, dadurch gekennzeichnet, dass durch die Sensoren (
10 ,20 ,30 ) eine Vorverarbeitung der Messdaten durchführbar ist.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10308168A DE10308168A1 (de) | 2002-09-27 | 2003-02-20 | Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes |
EP03747965A EP1546829B1 (de) | 2002-09-27 | 2003-09-04 | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
DE50313297T DE50313297D1 (de) | 2002-09-27 | 2003-09-04 | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
PCT/EP2003/009840 WO2004031877A1 (de) | 2002-09-27 | 2003-09-04 | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
AT03747965T ATE490497T1 (de) | 2002-09-27 | 2003-09-04 | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10245428 | 2002-09-27 | ||
DE10245428.0 | 2002-09-27 | ||
DE10308168A DE10308168A1 (de) | 2002-09-27 | 2003-02-20 | Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10308168A1 true DE10308168A1 (de) | 2004-04-08 |
Family
ID=31984232
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10308168A Withdrawn DE10308168A1 (de) | 2002-09-27 | 2003-02-20 | Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes |
DE50313297T Expired - Lifetime DE50313297D1 (de) | 2002-09-27 | 2003-09-04 | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE50313297T Expired - Lifetime DE50313297D1 (de) | 2002-09-27 | 2003-09-04 | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
Country Status (2)
Country | Link |
---|---|
AT (1) | ATE490497T1 (de) |
DE (2) | DE10308168A1 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004029985A1 (de) * | 2004-06-21 | 2006-01-19 | Harman Becker Automotive Systems Gmbh | Verfahren und Vorrichtung zum Ausgeben eines Anfahrsignals |
DE102007002197A1 (de) * | 2007-01-16 | 2008-07-17 | Siemens Ag | Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme |
DE102008013366A1 (de) * | 2008-03-10 | 2009-09-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme |
WO2010006833A1 (de) * | 2008-07-16 | 2010-01-21 | Robert Bosch Gmbh | Verfahren zur verbesserung der sicht eines fahrzeugführers in einem fahrzeug und anordnung dazu |
DE102011001248A1 (de) * | 2011-03-14 | 2012-09-20 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur Unterstützung eines Fahrers |
DE102013016089A1 (de) * | 2013-09-27 | 2015-04-02 | Audi Ag | Kraftfahrzeug mit Fahrerassistenzsystemen und Verfahren zum Betrieb von Fahrerassistenzsystemen |
CN108216249A (zh) * | 2016-12-21 | 2018-06-29 | 罗伯特·博世有限公司 | 用于车辆的周围环境检测的系统和方法 |
DE102018118666A1 (de) * | 2018-08-01 | 2020-02-06 | Carl Zeiss Ag | Sensorfusion mit wechselseitiger Korrespondenzanalyse von Sensordaten |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19935123A1 (de) * | 1998-08-27 | 2000-03-09 | Toyota Motor Co Ltd | Fahrzeug-DBF-Radarvorrichtung |
-
2003
- 2003-02-20 DE DE10308168A patent/DE10308168A1/de not_active Withdrawn
- 2003-09-04 DE DE50313297T patent/DE50313297D1/de not_active Expired - Lifetime
- 2003-09-04 AT AT03747965T patent/ATE490497T1/de active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19935123A1 (de) * | 1998-08-27 | 2000-03-09 | Toyota Motor Co Ltd | Fahrzeug-DBF-Radarvorrichtung |
Non-Patent Citations (4)
Title |
---|
COUE,C., et.al.: Multi-Sensor Data Fusion Using Bayesian Programming: an Automotive Application. In: Intelligent Transportation Systems, 2001, IEEE, S.451-453 * |
COUE,C., et.al.: Multi-Sensor Data Fusion Using Bayesian Programming: an Automotive Application. In: Intelligent Transportation Systems, 2001, IEEE, S.451-453; |
FUERSTENBERG,Kay Ch.,et.al.: Object Tracking and Classification using Laserscanners - Pedestrian Recognition in Urban Environment. In: Intelligent Transportation Systems, 2001, IEEE, S.451-453 * |
FUERSTENBERG,Kay Ch.,et.al.: Object Tracking and Classification using Laserscanners - Pedestrian Recognition in Urban Environment. In: Intelligent Transportation Systems, 2001, IEEE, S.451-453; |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004029985B4 (de) * | 2004-06-21 | 2017-08-31 | Harman Becker Automotive Systems Gmbh | Verfahren und Vorrichtung zum Ausgeben eines Anfahrsignals |
DE102004029985A1 (de) * | 2004-06-21 | 2006-01-19 | Harman Becker Automotive Systems Gmbh | Verfahren und Vorrichtung zum Ausgeben eines Anfahrsignals |
DE102007002197A1 (de) * | 2007-01-16 | 2008-07-17 | Siemens Ag | Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme |
DE102008013366B4 (de) * | 2008-03-10 | 2021-06-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme |
DE102008013366A1 (de) * | 2008-03-10 | 2009-09-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme |
WO2010006833A1 (de) * | 2008-07-16 | 2010-01-21 | Robert Bosch Gmbh | Verfahren zur verbesserung der sicht eines fahrzeugführers in einem fahrzeug und anordnung dazu |
DE102011001248A1 (de) * | 2011-03-14 | 2012-09-20 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur Unterstützung eines Fahrers |
DE102013016089A1 (de) * | 2013-09-27 | 2015-04-02 | Audi Ag | Kraftfahrzeug mit Fahrerassistenzsystemen und Verfahren zum Betrieb von Fahrerassistenzsystemen |
DE102013016089B4 (de) | 2013-09-27 | 2023-09-07 | Audi Ag | Kraftfahrzeug mit Fahrerassistenzsystemen und Verfahren zum Betrieb von Fahrerassistenzsystemen |
CN108216249A (zh) * | 2016-12-21 | 2018-06-29 | 罗伯特·博世有限公司 | 用于车辆的周围环境检测的系统和方法 |
CN108216249B (zh) * | 2016-12-21 | 2022-10-28 | 罗伯特·博世有限公司 | 用于车辆的周围环境检测的系统和方法 |
DE102018118666A1 (de) * | 2018-08-01 | 2020-02-06 | Carl Zeiss Ag | Sensorfusion mit wechselseitiger Korrespondenzanalyse von Sensordaten |
US12000923B2 (en) | 2018-08-01 | 2024-06-04 | Carl Zeiss Ag | Sensor fusion with alternating correspondence analysis of sensor data |
Also Published As
Publication number | Publication date |
---|---|
ATE490497T1 (de) | 2010-12-15 |
DE50313297D1 (de) | 2011-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2149132B1 (de) | Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen | |
WO2019063416A1 (de) | Verfahren und einrichtung zum betreiben eines fahrerassistenzsystems sowie fahrerassistenzsystem und kraftfahrzeug | |
DE102017114495A1 (de) | Autonomes fahrsystem | |
DE102018203591B3 (de) | Verfahren und System zur Klassifikation von Verkehrsteilnehmern | |
DE10133945A1 (de) | Verfahren und Vorrichtung zum Austausch und zur Verarbeitung von Daten | |
DE102017217444A1 (de) | Verfahren und System zum Aktualisieren eines Steuerungsmodells für eine automatische Steuerung zumindest einer mobilen Einheit | |
DE102006046843A1 (de) | Verfahren zur Erkennung eines Umfelds | |
EP1546829B1 (de) | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes | |
DE102020211970A1 (de) | Verfahren zum Steuern eines Fahrzeugs | |
DE102008063033B4 (de) | Vorrichtung und Verfahren zur Erkennung von Kollisionen mit erhöhter funktionaler Sicherheit | |
DE102010003375B4 (de) | Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges | |
DE10308168A1 (de) | Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes | |
WO2018188846A1 (de) | Fahrerassistenzsystem für ein fahrzeug | |
DE102016220450A1 (de) | Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt | |
DE102007007283A1 (de) | Verfahren und Vorrichtung zur Bestimmung von in der Fahrzeugumgebung befindlichen Fahrzeugen | |
DE102022002710A1 (de) | Verfahren und Vorrichtung zur Verkehrszeichenerkennung | |
DE102020200876B4 (de) | Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs | |
DE102021120043A1 (de) | Verfahren und Steuerschaltung zum Überwachen einer Zulässigkeitsbedingung für einen automatisierten Fahrmodus eines Kraftfahrzeugs sowie Kraftfahrzeug mit der Steuerschaltung | |
DE102018218137B4 (de) | System, Verfahren und Computerprogrammprodukt zur Erzeugung eines Kontext abhängigen Hinweises auf ein Einsatzfahrzeug für einen Fahrzeugführer eines Egofahrzeuges | |
DE102019215359A1 (de) | Verfahren zum Ausgeben eines Signals zum Auffahren eines Fahrzeugs auf eine Vorfahrtsstraße | |
DE102022207617B3 (de) | Verfahren und Überwachungseinrichtung zur Steuerung wenigstens einer Fahrzeugfunktion eines Fahrzeugs | |
DE102019209064B4 (de) | Vorrichtung zum Reagieren auf abgeschattete Objekte in einer Umgebung eines Fahrzeugs | |
DE102022119711A1 (de) | Verfahren, System und Computerprogrammprodukt zur Überprüfung von Datensätzen für das Testen und Trainieren eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) | |
DE102022119950A1 (de) | Verbesserte objekterkennung | |
DE102021118457A1 (de) | Verfahren zum Überwachen eines Umgebungsbereichs eines Fahrzeugs, Assistenzsystem für ein Fahrzeug, Datenaustauschvorrichtung sowie System zum Durchführen eines Verfahrens zum Überwachen eines Umgebungsbereichs eines Fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8110 | Request for examination paragraph 44 | ||
R120 | Application withdrawn or ip right abandoned | ||
R120 | Application withdrawn or ip right abandoned |
Effective date: 20120116 |