DE102014214505A1 - Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs - Google Patents

Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs Download PDF

Info

Publication number
DE102014214505A1
DE102014214505A1 DE102014214505.8A DE102014214505A DE102014214505A1 DE 102014214505 A1 DE102014214505 A1 DE 102014214505A1 DE 102014214505 A DE102014214505 A DE 102014214505A DE 102014214505 A1 DE102014214505 A1 DE 102014214505A1
Authority
DE
Germany
Prior art keywords
vehicle
environment model
viewer
creating
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014214505.8A
Other languages
English (en)
Inventor
Philipp Kerschbaum
Lutz Lorenz
Wolfgang Spießl
Felix Lauber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014214505.8A priority Critical patent/DE102014214505A1/de
Publication of DE102014214505A1 publication Critical patent/DE102014214505A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/28
    • B60K35/29
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • B60K2360/177
    • B60K2360/191
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges, wobei Sensordaten eines Sensorsystems empfangen werden, wobei basierend auf den Sensordaten mindestens ein Objekt bestimmt wird, wobei das Objekt einem Betrachter, insbesondere einem Fahrzeugführer angezeigt wird, und wobei dem Objekt vom Betrachter eine Objektklasse aus einer vorgegebenen Liste von Objektklassen zugeordnet wird. Weiter betrifft die Erfindung eine Umfeldmodelleinheit welche eine Empfangseinrichtung zum Empfang von Sensordaten mindestens eines Sensorsystems aufweist und welche dazu eingerichtet ist, das voranstehende beschriebene Verfahren durchzuführen. Ferner betrifft die vorliegende Erfindung ein Fahrerassistenzsystem, welches dazu eingerichtet ist, ein Objekt mit der ihm zugeordneten Objektklasse von einer Umfeldmodelleinheit zu empfangen und mindestens einen Betriebsparameter eines Fahrzeugs, insbesondere dessen Geschwindigkeit und/oder dessen Abstand zu einem vorausfahrenden Verkehrsteilnehmer, unter Berücksichtigung des Objektes und der dem Objekt zugeordneten Objektklasse zu regeln.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs, eine Umfeldmodelleinheit, ein Fahrerassistenzsystem und ein Fahrzeug.
  • Zunehmend wünschen Fahrer, beim Führen von Fahrzeugen durch Fahrerassistenzsysteme entlastet zu werden. Dabei werden folgende Automatisierungsgrade unterschieden, mit denen unterschiedliche Anforderungen an die Fahrerassistenzsysteme einhergehen.
  • "Driver Only" bezeichnet einen Automatisierungsgrad, bei dem der Fahrer dauerhaft, d.h. während der gesamten Fahrt, die Längsführung, d.h. das Beschleunigen bzw. das Verzögern, und die Querführung, d.h. das Lenken, übernimmt. Sofern das Fahrzeug ein Fahrerassistenzsystem aufweist, greift dieses nicht in die Längs- oder Querführung des Fahrzeuges ein. Beispiele für Fahrerassistenzsysteme, die nicht in die Längs- oder Querführung des Fahrzeuges eingreifen sind unter anderen Lichtassistenzsysteme, mit welchen Scheinwerfer situations-, witterungs- und/oder helligkeitsabhängig gesteuert werden können, Abstandswarner, welche, insbesondere beim Einparken, vor nicht sichtbaren Hindernissen warnen, Regenassistenzsysteme, welche in Abhängigkeit der Wasserbenetzung oder Verschmutzung der Windschutzscheibe die Scheibenwischer aktivieren, ein Aufmerksamkeitsassistenz, welcher beispielsweise in Abhängigkeit der Pupillenbewegungen des Fahrers das Einlegen einer Pause empfiehlt, ein Spurwechselassistent, welcher den Fahrer vor einem Spurwechsel ohne vorherige Aktivierung der Richtungswechselanzeiger (Blinker) warnt, wie er beispielsweise in der EP 1 557 784 A1 beschrieben ist, eine Verkehrszeichenassistent, der den Fahrer auf Verkehrszeichen, insbesondere Geschwindigkeitsbegrenzungen, hinweist, ein Totwinkel-Assistent, der den Fahrer auf Verkehrsteilnehmer im toten Winkel des Fahrzeuges aufmerksam macht oder ein Rückfahrkamerasystem, welches dem Fahrer Informationen über den hinter dem Fahrzeug liegenden Bereich liefert und welches beispielsweise in der EP 1 400 409 A2 beschrieben ist. Weitere Assistenzsysteme sind unter anderem in der WO 2007/104625 A1 beschrieben.
  • "Assistiert" bezeichnet einen Automatisierungsgrad, bei dem der Fahrer dauerhaft entweder die Quer- oder die Längsführung des Fahrzeuges übernimmt. Die jeweils andere Fahraufgabe wird in gewissen Grenzen von einem Fahrerassistenzsystem übernommen. Dabei muss der Fahrer das Fahrerassistenzsystem dauerhaft überwachen und muss jederzeit zur vollständigen Übernahme der Fahrzeugführung bereit sein. Beispiele für solche Fahrerassistenzsysteme sind unter der Bezeichnung "Adaptive Cruise Control" und "Parkassistent" bekannt. Die Adaptive Cruise Control kann in Grenzen die Längsführung des Fahrzeugs übernehmen und die Geschwindigkeit des Fahrzeugs unter Berücksichtigung des Abstands zu einem vorausfahrenden Verkehrsteilnehmer regeln. Ein entsprechendes Radarsystem ist z.B. aus der WO 2008/040341 A1 bekannt. Der Parkassistent unterstützt das Einparken in Parklücken, indem er das Lenken übernimmt, wobei die Vor- und Rückwärtsbewegung des Fahrzeugs jedoch weiter vom Fahrer übernommen wird. Ein entsprechender Parkassistent ist zum Beispiel in der EP 2 043 044 B1 beschrieben.
  • "Teilautomatisiert" bezeichnet einen Automatisierungsgrad, bei welchem ein Fahrerassistenzsystem sowohl die Quer- als auch die Längsführung des Fahrzeugs für einen gewissen Zeitraum und/oder in spezifischen Situationen übernimmt. Wie bei einer assistierten Fahrzeugführung muss der Fahrer das Fahrerassistenzsystem dauerhaft überwachen und zu jedem Zeitpunkt in der Lage sein, die Fahrzeugführung komplett zu übernehmen. Ein Beispiel für ein Fahrerassistenzsystem, mit dem eine teilautomatisierte Fahrzeugführung ermöglicht wird, ist unter dem Namen Autobahnassistent bekannt. Der Autobahnassistent kann die Längs- und Querführung des Fahrzeugs in der spezifischen Situation einer Autobahnfahrt bis zu einer bestimmten Geschwindigkeit übernehmen. Der Fahrer muss allerdings jederzeit prüfen, ob der Autobahnassistent zuverlässig arbeitet, und zur sofortigen Übernahme, z.B. aufgrund einer Übernahmeaufforderung durch das Fahrerassistenzsystem, der Fahrzeugführung bereit sein.
  • Auch bei einem als "hochautomatisiert" bezeichneten Automatisierungsgrad übernimmt ein Fahrerassistenzsystem sowohl die Quer- als auch die Längsführung des Fahrzeugs für einen gewissen Zeitraum und/oder in spezifischen Situationen. Im Unterschied zur teilautomatisierten Fahrzeugführung muss der Fahrer das Fahrerassistenzsystem nicht mehr dauerhaft überwachen. Sofern das Fahrerassistenzsystem selbstständig eine Systemgrenze erkennt und demgemäß eine sichere Fahrzeugführung durch das Fahrerassistenzsystem nicht mehr gewährleistet ist, fordert das Fahrerassistenzsystem den Fahrer auf, die Fahrzeugführung zu übernehmen. Als Beispiel für ein Fahrerassistenzsystem zur hochautomatisierten Fahrzeugführung ist ein Autobahn-Chauffeur denkbar. Ein Autobahn-Chauffeur könnte auf Autobahnen die automatische Längs- und Querführung des Fahrzeugs bis zu einer gewissen Geschwindigkeitsgrenze übernehmen, wobei der Fahrer den Autobahn-Chauffeur nicht zu jeder Zeit überwachen müsste. Sobald der Autobahn-Chauffeur eine Systemgrenze erkennen würde, z.B. eine nicht beherrschte Mautstelle oder unvorhergesehene Baustelle, würde er den Fahrer auffordern, innerhalb einer gewissen Zeitspanne die Fahrzeugführung zu übernehmen. Ein Verfahren zum hochautomatisierten Fahren ist beispielsweise in der DE 10 2012 101 686 beschrieben.
  • Auch bei einem als "vollautomatisiert" bezeichnet einen Automatisierungsgrad übernimmt das Fahrerassistenzsystem die Quer- und Längsführung des Fahrzeuges, dies allerdings vollständig in einem definierten Anwendungsfall. Der Fahrer muss das Fahrerassistenzsystem nicht überwachen. Vor dem Verlassen des Anwendungsfalles fordert das Fahrerassistenzsystem den Fahrer mit einer ausreichenden Zeitreserve zur Übernahme der Fahraufgabe auf. Leistet der Fahrer dieser Aufforderung nicht folge, wird das Fahrzeug in einen risikominimalen Systemzustand versetzt. Sämtliche Systemgrenzen werden vom Fahrerassistenzsystem erkannt und das Fahrerassistenzsystem ist in allen Situationen in der Lage, einen risikominimalen Systemzustand einzunehmen. Ein Beispiel für ein Fahrerassistenzsystem, welches ein "vollautomatisiertes" Fahren ermöglicht, könnte ein Autobahnpilot sein. Dieser könnte bis zu einer oberen Geschwindigkeitsgrenze auf Autobahnen sowohl die Längs- als auch die Querführung des Fahrzeuges übernehmen. Der Fahrer müsste den Autobahnpiloten dabei nicht überwachen und könnte sich anderen Tätigkeiten, beispielsweise der Vorbereitung einer Besprechung, widmen und die Reisezeit somit bestmöglich nutzen. Sobald die Autobahn verlassen werden muss, würde der Autobahnpilot den Fahrer zur Übernahme auffordern. Reagiert der Fahrer auf diese Aufforderung nicht, so würde der Autobahnpilot das Fahrzeug herunterbremsen und es bevorzugt auf einen Parkplatz oder Seitenstreifen lenken, wo es bis zum Stillstand abgebremst und angehalten werden würde. Ein Verfahren zum vollautomatisierten Verfahren ist beispielsweise in der US 8457827 B1 vorgeschlagen worden.
  • Sobald eine ständige Überwachung des Fahrerassistenzsystems nicht mehr vorgesehen ist, d.h. beim teil- oder hochautomatisierten Fahren, müssen relevante Objekte, z.B. andere Verkehrsteilnehmer oder Verkehrszeichen, mit hoher Zuverlässigkeit erkannt werden, die mit bisherigen, beispielsweise aus der WO 2013/087067 A1 bekannten Verfahren, und von bisherigen Fahrerassistenzsystemen nicht immer gewährleistet werden kann.
  • Die Fahrerassistenzsysteme greifen zur Regelung typischerweise auf ein Umfeldmodell zurück, welches ihnen die benötigten Angaben über Objekte, Infrastruktur, Fahrbahnverlauf, etc. zur Verfügung stellt.
  • Die erkannten Objekte können dabei unterschiedlicher Art sein und jeweils eine andere Regelung bedingen. So kann an Infrastruktur, z.B. einer Mauer, sehr dicht vorbeigefahren werden. Hingegen erfordert das Überholen eines Radfahrers einen Sicherheitsabstand von wenigstens 1,5m einzuhalten ist.
  • Hiervon ausgehend lag der vorliegenden Erfindung die Aufgabe zugrunde, ein Verfahren zur Erstellung eines Umfeldmodells anzugeben, welches einem Fahrerassistenzsystem die im Umfeld des Fahrzeugs befindlichen Objekte präziser angeben kann.
  • Erfindungsgemäß wurde dieses Problem durch ein Verfahren zur Erstellung eines Umfeldmodells gemäß Patentanspruch 1, eine Umfeldmodelleinheit gemäß Patentanspruch 8, ein Fahrerassistenzsystem gemäß Patentanspruch 9 und ein Fahrzeug gemäß Patentanspruch 10 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sind in den auf Patentanspruch 1 rückbezogenen Patentansprüchen 1 bis 7 beschrieben.
  • Das Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges, wobei Sensordaten eines Sensorsystems empfangen werden, basierend auf den Sensordaten mindestens ein Objekt bestimmt wird, das Objekt einem Betrachter, insbesondere dem Fahrzeugführer, angezeigt wird, basierend auf den Sensordaten dem Objekt eine vorläufige Objektklasse zugeordnet wird und die vorläufige Objektklasse dem Betrachter angezeigt wird, kann eine präzisere Beschreibung des Umfelds des Fahrzeuges ermöglichen. Die Objektklasse kann von einem Fahrerassistenzsystem, welches auf das Umfeldmodell zurückgreift, beispielsweise dazu genutzt werden, um das Risiko zu ermitteln, dass ein Objekt plötzlich auf den zur Zeit befahrenen Fahrstreifen wechselt. Die Objektklasse kann ferner Einfluss auf die Entscheidung haben, ob ein riskantes Ausweichmanöver um ein Hindernis herum durchgeführt wird oder besser kontrolliert in das Hindernis gefahren wird. Sofern das Objekt beispielsweise der Objektklasse "Personenkraftwagen" zugeordnet ist, kann es sinnvoller sein, die materiellen Schäden eines Zusammenstoßes in Kauf zu nehmen und den Fahrer des Fahrzeuges nicht dem Risiko eines Ausweichmanövers mit ungewissem Ausgang auszusetzen. Andererseits kann das Risiko eines Ausweichmanövers in Kauf genommen werden, wenn dem Objekt die Objektklasse "Fußgänger" zugeordnet ist, dessen Gesundheit bei einem Zusammenstoß substantiell in Gefahr gebracht würde. Die Liste der Objektklassen kann insbesondere die Objektklassen "Lastkraftwagen", "Motorrad", "Infrastruktur", "Radfahrer", "Fußgänger", "Personenkraftwagen", "Tram" und "Bus" umfassen.
  • Die Sensordaten können mit unterschiedlichen Sensorsystemen gewonnen werden. Als Sensorsysteme kommen beispielsweise Radarsysteme, Lasersysteme, Ultraschallsysteme oder Kamerasysteme in Betracht. Mit Hilfe von Radarsystemen können z.B. auch bei Niederschlägen oder im Nebel Objekte erkannt werden. Ein Lasersystem ist beispielsweise in der WO 2012/139796 A1 beschrieben. Lasersysteme können sich durch eine besonders hohe Reichweite des Erfassungsbereichs auszeichnen. Die Erfassungsgenauigkeit von Ultraschallsensoren, wie sie beispielsweise in der WO 2013/072167 A1 beschrieben sind, kann im Nahbereich besonders hoch sein. Kamerasysteme können eine gegenüber anderen Sensorsystemen höhere Auflösung aufweisen. Infrarotkamerasysteme können es ermöglichen lebende Objekte von unbelebten Objekten zu unterscheiden. Weiter können Kamerasysteme zu Stereo-Kamerasystemen kombiniert werden, um eine Abstandsinformation zu erhalten.
  • Im Rahmen des Verfahrens kann in erster Linie auf Sensordaten von Sensorsystemen des Fahrzeugs zurückgegriffen werden, dessen Umgebung modelliert werden soll. Ebenso können allerdings auch Sensordaten anderer Fahrzeuge verwendet werden. Weiter ist es denkbar, auf Sensordaten infrastruktureller Sensorsysteme, z.B. Ampeln, Verkehrsüberwachungskameras, Nebelsensoren oder Fahrbahnkontaktschleifen, zurückzugreifen. Die Daten können dabei drahtlos von Fahrzeug zu Fahrzeug oder zunächst en ein Hintergrundsystem, d.h. ein Back-End, übertragen werden.
  • Das beschriebene Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges kann die Zuverlässigkeit der Zuordnung von Objekten zu bestimmten Objektklassen, d.h. die Klassifikationsgüte der Sensorik, verbessern. Letztlich kann eine Verbesserte Zuordnung von Objekten zu Objektklassen dabei helfen, die Anzahl unnötiger Übernahmen der Fahrzeugführung durch den Fahrer zu reduzieren, womit ein verbesserter Fahrkomfort und ein geringeres Stresslevel einhergehen können.
  • In einer ersten Ausgestaltung des Verfahrens zur Erstellung eines Umfeldmodells eines Fahrzeuges wird dem Objekt vom Betrachter eine Objektklasse aus einer vorgegebenen Liste von Objektklassen zugeordnet. Die menschliche Interaktion kann die Zuordnungsgenauigkeit verbessern.
  • Ferner kann gemäß eines Ausführungsbeispiels des Verfahrens zur Erstellung eines Umfeldmodells eines Fahrzeuges die vorgegebene Liste der Objektklassen basierend auf den Sensordaten bestimmt werden. Die Sensordaten können es insbesondere ermöglichen, die Liste der Objektklassen zu kürzen. Beispielsweise kann mit einem Radarsystem festgestellt werden, ob ein Objekt im Wesentlichen aus Metall besteht. Ist dies nicht der Fall, können beispielsweise Objektklassen wie Personenkraftwagen, Lastkraftwagen und/oder Motorräder aus der vorgegebenen Liste der Objektklassen entfernt werden. Durch die kürzere vorgegebene Liste der Objektklassen kann dem Betrachter die Zuordnung des Objekts erleichtert werden.
  • Nach einer anderen Weiterbildung des Verfahrens zur Erstellung eines Umfeldmodells eines Fahrzeuges wird basierend auf den Sensordaten dem Objekt eine vorläufige Objektklasse zugeordnet und dem Betrachter die vorläufige Objektklasse angezeigt.
  • Regelmäßig kann auf der Grundlage der Sensordaten bereits eine Annahme über die Objektklasse getroffen werden. Wenn das erkannte Objekt beispielsweise über 10 Meter lang ist, dürfte es sich mit großer Wahrscheinlichkeit um einen Lastkraftwagen handeln. Mithin kann dem Objekt die vorläufige Objektklasse "Lastkraftwagen" zugeordnet werden. Der Betrachter braucht anschließend dann nur zu bestätigen, dass dem Objekt die Objektklasse "Lastkraftwagen" zugeordnet werden soll. Es ist aber auch denkbar, dass dem Objekt fälschlich die vorläufige Objektklasse "Lastkraftwagen" zugeordnet worden ist. Beispielsweise können sich die Sensordaten für einen am Straßenrand befindlichen ISO-Container nur geringfügig von denen eines Lastkraftwagens unterscheiden. Ein menschlicher Betrachter vermag demgegenüber zu erkennen, dass es sich bei dem ISO-Container um ein immobiles Hindernis handelt. Der Betrachter kann somit die unzutreffende Zuordnung zur vorläufigen Objektklasse "Lastkraftwagen" korrigieren und das Objekt richtig der Objektklasse "Infrastruktur" zuordnen.
  • Ferner ist eine Weiterbildung des Verfahrens zur Erstellung eines Umfeldmodells eines Fahrzeuges dadurch gekennzeichnet, dass eine Klassifizierungssicherheit angegeben wird, mit der das Objekt der vorläufigen Objektklasse zugeordnet wird.
  • Die Anzeige einer Klassifizierungssicherheit kann beim Betrachter das Vertrauen in die automatische Zuordnung eines Objektes zu einer vorläufigen Objektklasse stärken.
  • Darüber hinaus sieht eine Ausführungsform des Verfahrens zur Erstellung eines Umfeldmodells eines Fahrzeugesvor, dass das Objekt einem Betrachter während der Fahrt des Fahrzeuges angezeigt wird.
  • Der Betrachter kann somit das Objekt unmittelbar einer Objektklasse zuordnen. Die Zuordnung von Objekt zu Objektklasse kann dabei zum Beispiel mittels eines Hintergrundsystems oder direkt einem weiteren Fahrzeug zur Verfügung gestellt werden.
  • Weiter wird nach einem Ausführungsbeispiel des Verfahrens zur Erstellung eines Umfeldmodells eines Fahrzeuges das Objekt einem Betrachter nach der Fahrt des Fahrzeuges angezeigt.
  • Durch die Anzeige des Objektes nach der Fahrt des Fahrzeuges kann eine zusätzliche Belastung des Betrachters während der Fahrt des Fahrzeuges vermieden werden. Der Betrachter kann sich beispielsweise voll auf die Führung des Fahrzeuges konzentrieren. Anhand der nachträglichen Klassifizierung der Objekte, d.h. der Zuordnung einer Objektklasse zu dem jeweiligen Objekt, kann gleichwohl das Umfeldmodell weiter verbessert werden.
  • Ein Verfahren zur kontaktanalogen Anzeige ist beispielsweise in der DE 10 2012 215 216 144 A1 beschreiben. Mit der kontaktanalogen Anzeige können dem Betrachter die Objekte direkt an der Stelle angezeigt werden, an der er sie auch normalerweise sieht. Bei einer kontaktanalogen Anzeige muss der Fahrer nicht zwischen Anzeigen in kleiner Entfernung im Head-Up-Display, Kombiinstrument oder zentralem Informationsdisplay und der eigentlichen Fahrsituation in größerer Entfernung umfokussieren. Die Verschmelzung der angezeigten Objekte mit der unmittelbar wahrgenommenen Umwelt kann einem Betrachter eine deutliche einfachere Zuordnung eines Objektes zu einer Objektklasse ermöglichen. Wenn auf eine beispielsweise in der DE 19625435 A1 beschriebene Datenbrille zurückgegriffen wird, kann das Sichtfeld des Betrachters weniger eingeschränkt sein. Mit der Datenbrille können beispielsweise auch Objekte, die sich seitlich vom Fahrzeug befinden, angezeigt werden, sobald der Betrachter aus dem Seitenfenster des Fahrzeuges schaut. Eine weitere Anwendung einer Datenbrille, insbesondere einer Augmented-Reality-Brille ist in der DE 10 2013 005 342 A1 beschrieben.
  • Im Hinblick auf die Umfeldmodelleinheit wurde die oben beschriebene Aufgabe durch eine Umfeldmodelleinheit gelöst, wobei die Umfeldeinheit eine Empfangseinrichtung zum Empfang von Sensordaten mindestens eines Sensorsystems aufweist, und wobei die Umfeldmodelleinheit dazu eingerichtet ist, eines der oben beschriebenen Verfahren durchzuführen.
  • Bezüglich des Fahrerassistenzsystems besteht die Lösung der oben hergeleiteten Aufgabe in einem Fahrerassistenzsystem, welches dazu eingerichtet ist, ein Umfeldmodell von einer, insbesondere voranstehend beschriebenen, Umfeldmodelleinheit zu empfangen, und welches dazu eingerichtet ist, mindestens einen Betriebsparameter eines Fahrzeugs, insbesondere dessen Geschwindigkeit und/oder dessen Abstand zu einem vorausfahrenden Verkehrsteilnehmer, basierend auf dem Umfeldmodell zu regeln.
  • Schließlich besteht eine Lösung der oben angegebenen Aufgabe in einem Fahrzeug, welches ein Sensorsystem zur Erfassung des Umfelds des Fahrzeugs sowie eine voranstehend beschriebene Umfeldmodelleinheit und/oder ein voranstehend beschriebenes Fahrerassistenzsystem aufweist.
  • Bei dem Fahrzeug kann es sich insbesondere um ein motorisiertes Individualverkehrsmittel handeln. In erster Linie kommen dabei Personenkraftwagen in Betracht. Es ist aber auch denkbar, dass es sich bei dem Fahrzeug um ein Motorrad handelt.
  • Nachfolgend werden Ausführungsbeispiele anhand der Figuren näher erläutert. Dabei zeigt
  • 1 eine beispielhafte Veranschaulichung des Verfahrens zur Erstellung eines Umfeldmodells eines Fahrzeuges; und
  • 2 einen beispielhaften Blick aus dem Cockpit eines Fahrzeuges vor der Klassifizierung eines Objektes
  • 3 einen beispielhaften Blick aus dem Cockpit des Fahrzeuges nach der Klassifizierung des Objektes.
  • Gemäß dem in der 1 dargestellten Ablaufdiagramm gemäß einem Ausführungsbeispiel werden in einem ersten Schritt 101 werden Sensordaten eines Sensorsystems empfangen. Bei dem Sensorsystem kann es sich beispielsweise um ein Radarsystem, ein Lasersystem, ein Ultraschallsystem oder ein Kamerasystem handeln.
  • In einem zweiten Schritt 102 wird basierend auf den Sensordaten ein Objekt bestimmt. Das Objekt kann beispielsweise als ein Quader dargestellt werden, der sich relativ zum Fahrzeug und relativ zur Straße bewegt.
  • Das erkannte Objekt, der Quader wird anschließend in einem dritten Schritt 103 einem Betrachter angezeigt. Im vorliegenden Beispiel wird der Quader dem Betrachter mittels einer Datenbrille angezeigt. Alternativ kann dem Betrachter das Objekt auch in einem kontaktanalogen Head-Up-Display angezeigt werden.
  • Der Betrachter kann das Objekt im Anschluss in Schritt 104 einer Objektklasse, z.B. Personenkraftfahrzeug, Lastkraftwagen, Infrastruktur oder kritisch, unkritisch, zuordnen. Sofern sich das Fahrzeug in einem hochautomatisierten Fahrmodus befindet, der Fahrer des Fahrzeugs der Betrachter ist und erkennt, dass ein kritisches Objekt basierend auf den Sensordaten nicht erkannt worden ist, kann er der Betrachter, d.h. der Fahrer, die Führung des Fahrzeugs auch übernehmen.
  • In einem weiteren Schritt 105 wird die vom Betrachter vorgenommene Zuordnung zur Objektklasse, d.h. das Feedback des Betrachters, gespeichert, um beim nächsten Mal eine automatisierte Zuordnung eines vergleichbaren Objektes zur gleichen Objektklasse zu ermöglichen. Im Sinne eines maschinellen Lernens kann auf diese Weise das Umfeldmodell des Fahrzeuges immer weiter verfeinert und verbessert werden.
  • In der 2 ist ein Blick aus dem Cockpit eines Fahrzeugs dargestellt. Das Fahrzeug fährt dabei auf dem mittleren Fahrstreifen 202 von den drei Fahrstreifen 201, 202, 203. Auf dem rechten Fahrstreifen 203 befindet sich in beispielsweise in einem Abstand von mehr als 200m Entfernung ein Lastkraftwagen 204. Der Lastkraftwagen 204 wird mittels eines Sensorsystems des Fahrzeugs als sich gegenüber dem Fahrzeug und der Fahrbahn bewegendes Objekt erkannt und mittels eines kontaktanalogen Head-Up-Displays mit einem Rahmen 205 versehen. Innerhalb des Rahmens 205 ist ein Fragezeichen 206 dargestellt, welches angibt, dass das durch den Rahmen 205 markierte Objekt noch nicht einer Objektklasse zugeordnet worden ist.
  • Mittels einer am Lenkrad 306 des Fahrzeugs befindlichen Eingabevorrichtung 307 kann der Betrachter und Fahrer des Fahrzeugs, wie in der 3 erkennbar, dem Objekt eine Objektklasse zuordnen. Die Zuordnung des Objektes zur Objektklasse wird dem Betrachter durch ein im Rahmen 305 dargestelltes "OK" bestätigt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1557784 A1 [0003]
    • EP 1400409 A2 [0003]
    • WO 2007/104625 A1 [0003]
    • WO 2008/040341 A1 [0004]
    • EP 2043044 B1 [0004]
    • DE 102012101686 [0006]
    • US 8457827 B1 [0007]
    • WO 2013/087067 A1 [0008]
    • WO 2012/139796 A1 [0014]
    • WO 2013/072167 A1 [0014]
    • DE 102012215216144 A1 [0027]
    • DE 19625435 A1 [0027]
    • DE 102013005342 A1 [0027]

Claims (10)

  1. Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges, dadurch gekennzeichnet, dass Sensordaten eines Sensorsystems empfangen werden, basierend auf den Sensordaten mindestens ein Objekt bestimmt wird, das Objekt einem Betrachter, insbesondere dem Fahrzeugführer, angezeigt wird und basierend auf den Sensordaten dem Objekt eine vorläufige Objektklasse zugeordnet wird, und dass die vorläufige Objektklasse dem Betrachter angezeigt wird.
  2. Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges nach Patentanspruch 1, dadurch gekennzeichnet, dass dem Objekt vom Betrachter eine Objektklasse aus einer vorgegebenen Liste von Objektklassen zugeordnet wird.
  3. Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges nach einem der Patentansprüche 1 oder 2, dadurch gekennzeichnet, dass die vorgegebene Liste der Objektklassen basierend auf den Sensordaten bestimmt wird.
  4. Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges nach Patentanspruch 3, dadurch gekennzeichnet, dass eine Klassifizierungssicherheit angegeben wird, mit der das Objekt der vorläufigen Objektklasse zugeordnet wird.
  5. Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges nach einem der voranstehenden Patentansprüche 1 bis 4, dadurch gekennzeichnet, dass das Objekt einem Betrachter während der Fahrt des Fahrzeuges angezeigt wird.
  6. Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges nach einem der voranstehenden Patentansprüche 1 bis 5, dadurch gekennzeichnet, dass das Objekt einem Betrachter nach der Fahrt des Fahrzeuges angezeigt wird.
  7. Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeuges nach einem der voranstehenden Patentansprüche 1 bis 6, dadurch gekennzeichnet, dass das Objekt dem Betrachter mittels eines kontaktanalogen Head-Up-Displays oder einer Datenbrille angezeigt wird.
  8. Umfeldmodelleinheit, dadurch gekennzeichnet, dass die Umfeldmodelleinheit eine Empfangseinrichtung zum Empfang von Sensordaten mindestens eines Sensorsystems aufweist, und dass die Umfeldmodelleinheit dazu eingerichtet ist, ein Verfahren nach einem der voranstehenden Patentansprüche 1 bis 7 auszuführen.
  9. Fahrerassistenzsystem, dadurch gekennzeichnet, dass das Fahrerassistenzsystem dazu eingerichtet ist, ein Objekt mit der ihm zugeordneten Objektklasse von einer Umfeldmodelleinheit nach dem voranstehenden Patentanspruch 8 zu empfangen, und dass das Fahrerassistenzsystem dazu eingerichtet ist, mindestens einen Betriebsparameter eines Fahrzeugs, insbesondere dessen Geschwindigkeit und/oder dessen Abstand zu einem vorausfahrenden Verkehrsteilnehmer, unter Berücksichtigung des Objektes und der dem Objekt zugeordneten Objektklasse zu regeln.
  10. Fahrzeug mit mindestens einem Sensorsystem zur Erfassung des Umfelds des Fahrzeugs sowie einer Umfeldmodelleinheit nach Patentanspruch 8 und/oder einem Fahrerassistenzsystem nach Patentanspruch 9.
DE102014214505.8A 2014-07-24 2014-07-24 Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs Pending DE102014214505A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014214505.8A DE102014214505A1 (de) 2014-07-24 2014-07-24 Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014214505.8A DE102014214505A1 (de) 2014-07-24 2014-07-24 Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102014214505A1 true DE102014214505A1 (de) 2016-01-28

Family

ID=55065450

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014214505.8A Pending DE102014214505A1 (de) 2014-07-24 2014-07-24 Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102014214505A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016224510A1 (de) 2016-12-08 2018-06-14 Audi Ag Verfahren zur Bereitstellung von Ergebnisdaten, die von einem Kraftfahrzeugumfeld abhängen
DE102017200733A1 (de) 2017-01-18 2018-07-19 Audi Ag Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems
DE102020109667A1 (de) 2020-04-07 2021-10-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Objekterkennung für ein automatisiert fahrendes Fahrzeug
DE102020205825A1 (de) 2020-05-08 2021-11-11 Zf Friedrichshafen Ag System zur Täuschungserkennung, -vermeidung und -schutz von ADAS Funktionen

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19625435A1 (de) 1996-06-25 1998-01-02 Klaus Dr Ing Schlueter Brille mit Dateneinblendung (Datenbrille)
EP1400409A2 (de) 2002-09-19 2004-03-24 Valeo Schalter und Sensoren GmbH Verfahren zur Bildverarbeitung der von einem System zur Umfelderfassung eines Fahrzeuges erfassten optischen Signale und System zur Umfelderfassung eines Fahrzeuges
EP1557784A1 (de) 2004-01-23 2005-07-27 Audi Ag Verfahren und Vorrichtung zum Assistieren beim Führen eines Kraftfahrzeuges
WO2007104625A1 (de) 2006-03-13 2007-09-20 Robert Bosch Gmbh Verfahren und vorrichtung zum unterstützen eines führens eines fahrzeugs
WO2008040341A1 (de) 2006-10-06 2008-04-10 Adc Automotive Distance Control Systems Gmbh Radarsystem zur umfelderfassung mit kompensation von störsignalen
DE602004011164T2 (de) * 2003-10-17 2008-12-24 Fuji Jukogyo K.K. Vorrichtung und Methode zur Anzeige von Informationen
EP2043044B1 (de) 2007-09-25 2010-05-26 Renault S.A.S. Verfahren und Vorrichtung zur Einparkhilfe eines Kraftfahrzeugs
WO2012139796A1 (de) 2011-04-13 2012-10-18 Robert Bosch Gmbh Optisches system für die umfelderfassung
DE102012215216A1 (de) 2011-09-07 2013-03-07 International Business Machines Corporation Verbesserte Erfassung von Speicherauszugsdaten von Hardwareausfallmodi
WO2013072167A1 (de) 2011-11-15 2013-05-23 Valeo Schalter Und Sensoren Gmbh Ultraschallwandler und korrespondierende vorrichtung zur umfelderfassung in einem fahrzeug
US8457827B1 (en) 2012-03-15 2013-06-04 Google Inc. Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
WO2013087067A1 (de) 2011-12-14 2013-06-20 Continental Teves Ag & Co. Ohg Freirauminformationen in einem belegungsgitter als grundlage für die bestimmung eines manöverraums für ein fahrzeug
DE102012101686A1 (de) 2012-03-01 2013-09-05 Continental Teves Ag & Co. Ohg Verfahren für ein Fahrerassistenzsystem zur autonomen Längs- und/oder Querregelung eines Fahrzeugs
DE102013005342A1 (de) 2013-03-26 2013-09-19 Daimler Ag Kraftfahrzeug, -bedienvorrichtung, und Bedienverfahren hierfür
DE102013102087A1 (de) * 2013-03-04 2014-09-04 Conti Temic Microelectronic Gmbh Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19625435A1 (de) 1996-06-25 1998-01-02 Klaus Dr Ing Schlueter Brille mit Dateneinblendung (Datenbrille)
EP1400409A2 (de) 2002-09-19 2004-03-24 Valeo Schalter und Sensoren GmbH Verfahren zur Bildverarbeitung der von einem System zur Umfelderfassung eines Fahrzeuges erfassten optischen Signale und System zur Umfelderfassung eines Fahrzeuges
DE602004011164T2 (de) * 2003-10-17 2008-12-24 Fuji Jukogyo K.K. Vorrichtung und Methode zur Anzeige von Informationen
EP1557784A1 (de) 2004-01-23 2005-07-27 Audi Ag Verfahren und Vorrichtung zum Assistieren beim Führen eines Kraftfahrzeuges
WO2007104625A1 (de) 2006-03-13 2007-09-20 Robert Bosch Gmbh Verfahren und vorrichtung zum unterstützen eines führens eines fahrzeugs
WO2008040341A1 (de) 2006-10-06 2008-04-10 Adc Automotive Distance Control Systems Gmbh Radarsystem zur umfelderfassung mit kompensation von störsignalen
EP2043044B1 (de) 2007-09-25 2010-05-26 Renault S.A.S. Verfahren und Vorrichtung zur Einparkhilfe eines Kraftfahrzeugs
WO2012139796A1 (de) 2011-04-13 2012-10-18 Robert Bosch Gmbh Optisches system für die umfelderfassung
DE102012215216A1 (de) 2011-09-07 2013-03-07 International Business Machines Corporation Verbesserte Erfassung von Speicherauszugsdaten von Hardwareausfallmodi
WO2013072167A1 (de) 2011-11-15 2013-05-23 Valeo Schalter Und Sensoren Gmbh Ultraschallwandler und korrespondierende vorrichtung zur umfelderfassung in einem fahrzeug
WO2013087067A1 (de) 2011-12-14 2013-06-20 Continental Teves Ag & Co. Ohg Freirauminformationen in einem belegungsgitter als grundlage für die bestimmung eines manöverraums für ein fahrzeug
DE102012101686A1 (de) 2012-03-01 2013-09-05 Continental Teves Ag & Co. Ohg Verfahren für ein Fahrerassistenzsystem zur autonomen Längs- und/oder Querregelung eines Fahrzeugs
US8457827B1 (en) 2012-03-15 2013-06-04 Google Inc. Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
DE102013102087A1 (de) * 2013-03-04 2014-09-04 Conti Temic Microelectronic Gmbh Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs
DE102013005342A1 (de) 2013-03-26 2013-09-19 Daimler Ag Kraftfahrzeug, -bedienvorrichtung, und Bedienverfahren hierfür

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016224510A1 (de) 2016-12-08 2018-06-14 Audi Ag Verfahren zur Bereitstellung von Ergebnisdaten, die von einem Kraftfahrzeugumfeld abhängen
WO2018104239A1 (de) 2016-12-08 2018-06-14 Audi Ag Verfahren zur bereitstellung von ergebnisdaten, die von einem kraftfahrzeugumfeld abhängen
US10417905B2 (en) 2016-12-08 2019-09-17 Audi Ag Method for providing result data that depend on a motor vehicle environment
DE102017200733A1 (de) 2017-01-18 2018-07-19 Audi Ag Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems
DE102020109667A1 (de) 2020-04-07 2021-10-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Objekterkennung für ein automatisiert fahrendes Fahrzeug
DE102020205825A1 (de) 2020-05-08 2021-11-11 Zf Friedrichshafen Ag System zur Täuschungserkennung, -vermeidung und -schutz von ADAS Funktionen

Similar Documents

Publication Publication Date Title
EP3160813B1 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
EP2583263B1 (de) Verfahren zur fusion eines verkehrszeichenerkennungssystems und eines spurerkennungssystems eines kraftfahrzeugs
DE102014002116B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems für Überholvorgänge und Kraftfahrzeug
DE102011055495B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs
DE102015205142B4 (de) Verfahren zur Fahrerassistenz und Fahrerassistenzsystem
WO2006037445A1 (de) Verfahren und vorrichtung zur fahrerwarnung oder zum aktiven eingreifen in die fahrdynamik, falls ein verlassen der fahrspur droht
DE102013210941A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102013200862A1 (de) Optimaler Blickort an Anzeige für gesamte Frontscheibe
DE10244205A1 (de) Verfahren und Einrichtung zur Verhinderung der Kollision von Fahrzeugen
DE102012005272A1 (de) Verfahren zur Ermittlung einer Gefahrenwahrscheinlichkeit und Verwendung des Verfahrens
DE102010014499B4 (de) Verfahren zum Betrieb eines Spurhalteassistenzsystems für mehrspuriges Abbiegen in einem Kraftfahrzeug
WO2015000882A1 (de) Assistenzsystem und assistenzverfahren zur unterstützung bei der steuerung eines kraftfahrzeugs
DE102014012781B4 (de) Spurwechselassistent, zugehöriges Betriebsverfahren und Kraftfahrzeug
DE102012108563A1 (de) Verfahren und Vorrichtungen zur Kollisionswarnung bei Fahrstreifenwechseln
DE102009019702A1 (de) Verfahren und Vorrichtung zur Übergabeaufforderung an den Fahrzeugführer
DE202014003224U1 (de) Fahrerassistenzsystem zur Warnung eines Fahrers vor eineKollision mit einem anderen Verkehrsteilnehmer
DE102012023498A1 (de) Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung
DE102013219023A1 (de) Verfahren und Vorrichtung zur Unterstützung eines Fahrers eines Fahrzeugs beim Spurwechsel
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
WO2018054523A1 (de) Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug
DE102014105374B4 (de) Fahrerassistenzsystem
DE102014214505A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102014214507A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
EP3609755A1 (de) Fahrerassistenzsystem für ein fahrzeug
DE102013003219A1 (de) Unterstützung eines Fahrers eines Kraftfahrzeugs beim Fahren auf einer Überholspur einer zumindest zweispurigen Straße

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)
R163 Identified publications notified
R012 Request for examination validly filed