DE102017211387A1 - System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs - Google Patents

System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs Download PDF

Info

Publication number
DE102017211387A1
DE102017211387A1 DE102017211387.1A DE102017211387A DE102017211387A1 DE 102017211387 A1 DE102017211387 A1 DE 102017211387A1 DE 102017211387 A DE102017211387 A DE 102017211387A DE 102017211387 A1 DE102017211387 A1 DE 102017211387A1
Authority
DE
Germany
Prior art keywords
vehicle
ego vehicle
behavioral
classified
object classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102017211387.1A
Other languages
English (en)
Inventor
Michael Ehrmann
Robert Richter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102017211387.1A priority Critical patent/DE102017211387A1/de
Priority to CN201880029984.2A priority patent/CN110603179A/zh
Priority to PCT/EP2018/066847 priority patent/WO2019007718A1/de
Publication of DE102017211387A1 publication Critical patent/DE102017211387A1/de
Priority to US16/733,432 priority patent/US20200148230A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/408Traffic behavior, e.g. swarm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Abstract

Gemäß einem Aspekt der Erfindung weist ein System zum automatisierten Manövrieren eines Ego-Fahrzeugs auf: eine Erkennungsvorrichtung, die dazu eingerichtet ist, ein bewegliches Objekt im Umfeld des Ego-Fahrzeugs zu erkennen und einer bestimmten Objektklassifikation zuzuordnen; eine mit der Erkennungsvorrichtung gekoppelte Steuervorrichtung, die dazu eingerichtet ist, Verhaltensparameter der erkannten Objektklassifikation aus einer Verhaltensdatenbank abzurufen, wobei die Verhaltensparameter durch ein Verfahren ermittelt worden sind, bei dem mittels maschinellem Lernens bewegliche Objekte klassifiziert und auf Basis von spezifischen Verhaltensmustern attribuiert werden; und eine mit der Steuervorrichtung gekoppelte Manöverplanungseinheit, die dazu eingerichtet ist, ein Fahrmanöver des Ego-Fahrzeugs auf Grundlage der abgerufenen Verhaltensparameter zu planen und durchzuführen.

Description

  • Die Erfindung betrifft ein System und ein Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs.
  • Aus dem Stand der Technik (z.B. DE 10 2014 211 507 ) sind Fahrassistenzsysteme bekannt, welche durch Informationen, wie beispielsweise Fahrzeugtyp (PKW/LKW) oder Geschwindigkeit (langsam/schnell), über andere Verkehrsteilnehmer verbesserte Fahrmanöver planen und durchführen können. Dabei werden die Informationen von den Verkehrsteilnehmern untereinander zur Verfügung gestellt.
  • Bei diesem aus dem Stand der Technik bekannten Fahrassistenzsystemen können die Vorteile, wie beispielsweise verbesserter Verkehrsfluss und erhöhte Sicherheit des Fahrmanövers, jedoch nur dann zur Geltung kommen, wenn die anderen Verkehrsteilnehmer die zur Fahrmanöverplanung benötigten Informationen zur Verfügung stellen.
  • Es wäre jedoch wünschenswert, eine situationsspezifische Fahrmanöverplanung auch ohne die Informationen anderer Verkehrsteilnehmer durchzuführen.
  • Es ist daher Aufgabe der Erfindung, ein System zum automatisierten Manövrieren eines Ego-Fahrzeugs bereitzustellen, welches zumindest teilweise die Nachteile der im Stand der Technik bekannten Fahrassistenzsysteme überwindet.
  • Die Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.
  • Ein erster Aspekt der Erfindung betrifft ein System zum automatisierten Manövrieren eines Ego-Fahrzeugs, wobei das System aufweist:
    • - eine Erkennungsvorrichtung, die dazu eingerichtet ist, ein bewegliches Objekt im Umfeld des Ego-Fahrzeugs zu erkennen und einer bestimmten Objektklassifikation zuzuordnen;
    • - eine mit der Erkennungsvorrichtung gekoppelte Steuervorrichtung, die dazu eingerichtet ist, Verhaltensparameter der erkannten Objektklassifikation aus einer Verhaltensdatenbank abzurufen, wobei die Verhaltensparameter durch ein Verfahren ermittelt worden sind, bei dem mittels maschinellem Lernens bewegliche Objekte klassifiziert und auf Basis von spezifischen Verhaltensmustern attribuiert werden; und
    • - eine mit der Steuervorrichtung gekoppelte Manöverplanungseinheit, die dazu eingerichtet ist, ein Fahrmanöver des Ego-Fahrzeugs auf Grundlage der abgerufenen Verhaltensparameter zu planen und durchzuführen.
  • Ein zweiter Aspekt der Erfindung betrifft ein Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs, wobei das Verfahren umfasst:
    • - Erkennen eines beweglichen Objekts im Umfeld des Ego-Fahrzeugs und Zuordnen des beweglichen Objekts zu einer bestimmten Objektklassifikation;
    • - Abrufen von Verhaltensparametern der erkannten Objektklassifikation aus einer Verhaltensdatenbank, wobei die Verhaltensparameter durch ein Verfahren ermittelt worden sind, bei dem mittels maschinellem Lernens bewegliche Objekte klassifiziert und auf Basis von spezifischen Verhaltensmustern attribuiert werden; und
    • - Planen und Durchführen eines Fahrmanövers des Ego-Fahrzeugs auf Grundlage der abgerufenen Verhaltensparameter.
  • Unter einem Ego-Fahrzeug bzw. einem Fahrzeug im Sinne des vorliegenden Dokuments ist jegliche Fahrzeugart zu verstehen, mit der Personen und/oder Güter transportiert werden können. Mögliche Beispiele dafür sind: Kraftfahrzeug, Lastkraftwagen, Motorrad, Bus, Boot, Flugzeug, Helikopter, Straßenbahn, Golfcart, Zug, etc.
  • Unter dem Begriff „automatisiertes Manövrieren“ ist im Rahmen des Dokuments ein Fahren mit automatisierter Längs- oder Querführung oder ein autonomes Fahren mit automatisierter Längs- und Querführung zu verstehen. Der Begriff „automatisiertes Manövrieren“ umfasst ein automatisiertes Manövrieren (Fahren) mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012). Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich. Die vorstehend genannten vier Automatisierungsgrade gemäß der Definition der BASt entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) gemäß der BASt dem Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.
  • Mit der Kopplung, z.B. die Kopplung der Erkennungsvorrichtung bzw. der Manöverplanungseinheit mit der Steuereinheit, ist im Rahmen des vorliegenden Dokuments eine kommunikative Verbindung gemeint. Die kommunikative Verbindung kann kabellos (z.B. Bluetooth, WLAN, Mobilfunk) oder kabelgebunden (z.B. mittels einer USB-Schnittstelle, Datenkabel, etc.) sein.
  • Ein bewegliches Objekt im Sinne des vorliegenden Dokuments ist beispielsweise ein Fahrzeug (siehe Definition oben), ein Fahrrad, Rollstuhl, ein Mensch oder ein Tier.
  • Mithilfe der Erkennungsvorrichtung kann ein sich im Umfeld des Ego-Fahrzeugs befindliches bewegliches Objekt erkannt und in eine Objektklassifikation eingeordnet werden. Die Erkennung eines beweglichen Objekts kann mithilfe bekannter Vorrichtungen, wie beispielsweise einer Sensorvorrichtung, erfolgen. Dabei kann die Erkennungsvorrichtung zwischen beweglichen und unbeweglichen Objekten unterscheiden.
  • Die Objektklassifikation kann verschiedene Merkmale umfassen, die unterschiedliche Detaillierungsgrade aufweisen, wie beispielsweise die Objektart (Fahrzeug, Fahrrad, Mensch,...), die Fahrzeugart (Lkw, PKW, Motorrad,...), die Fahrzeugklasse (Kleinwagen, Mittelklassewagen, Tanklaster, Umzugswagen, Elektrofahrzeug, Hybridfahrzeug, ...), den Hersteller (BMW, VW, Mercedes-Benz, ...), die Fahrzeugeigenschaften (Kennzeichen, Motorisierung, Farbe, Aufkleber,...). Jedenfalls dient die Objektklassifikation dazu, das bewegliche Objekt anhand von bestimmten Merkmalen zu beschreiben. Eine Objektklassifikation beschreibt dann eine bestimmte Merkmalskombination, in die das bewegliche Objekt eingeordnet werden kann. Wurde durch die Erkennungsvorrichtung erkannt, dass es sich um ein bewegliches Objekt handelt, wird dieses bewegliche Objekt in eine Objektklassifikation eingeordnet. Dafür werden mithilfe der Erkennungsvorrichtung Messdaten gesammelt, ausgewertet und/oder gespeichert. Solche Messdaten sind beispielsweise Umfelddaten, die von einer Sensorvorrichtung des Ego-Fahrzeugs aufgezeichnet werden. Zusätzlich oder alternativ können auch Messdaten aus im bzw. am Auto verbauten Speichern oder fahrzeugexternen Speichern (zum Beispiel Server, Cloud) verwendet werden, um das erkannte bewegliche Objekt in eine Objektklassifikation einzuordnen. Die Messdaten entsprechen dabei den oben erwähnten Merkmalen des beweglichen Objekts. Beispiele für solche Messdaten sind: die Geschwindigkeit des beweglichen Objekts, die Entfernung des beweglichen Objekts zu dem Ego-Fahrzeug, die Orientierung des beweglichen Objekts in Relation zu dem Ego-Fahrzeug und/oder die Dimension des beweglichen Objekts.
  • Die Erkennungsvorrichtung kann in bzw. am Ego-Fahrzeug angeordnet sein. Alternativ kann ein Teil der Erkennungsvorrichtung, beispielsweise eine Sensorvorrichtung, in bzw. am Ego-Fahrzeug angeordnet sein und ein anderer Teil der Erkennungsvorrichtung, zum Beispiel ein entsprechendes Steuergerät bzw. eine Recheneinheit, außerhalb des Ego-Fahrzeugs, beispielsweise auf einem Server, angeordnet sein.
  • Gemäß einer Ausführungsform ist die Erkennungsvorrichtung dazu eingerichtet, das bewegliche Objekt durch Auswertung von Umfelddaten, die durch eine Sensorvorrichtung des Ego-Fahrzeugs ermittelt worden sind, eine Objektklassifikation zuzuordnen. Die Sensorvorrichtung umfasst einen oder mehrere Sensoren, die dazu ausgebildet sind, das Fahrzeugumfeld zu erkennen. Die Sensorvorrichtung stellt entsprechende Umfelddaten zur Verfügung und/oder verarbeitet und/oder speichert diese.
  • Im Rahmen des vorliegenden Dokuments wird unter einer Sensorvorrichtung eine Vorrichtung verstanden, die mindestens eine der folgenden Einrichtungen umfasst: Ultraschallsensor, Radarsensor, Lidarsensor und/oder Kamera, vorzugsweise hochauflösende Kamera, Wärmebildkamera, Wifi-Antenne, Thermometer.
  • Die oben beschriebenen Umfelddaten können von einer der vorgenannten Einrichtungen oder von einer Kombination mehrerer der vorgenannten Einrichtungen (Sensordatenfusion) stammen.
  • Wenn ein bewegliches Objekt im Umfeld des Ego-Fahrzeugs erkannt und einer bestimmten Objektklassifikation zugeordnet worden ist, werden für die Manöverplanung Verhaltensparameter in Bezug auf die erkannte Objektklassifikation aus einer Verhaltensdatenbank abgerufen.
  • Damit wird die Planung und Durchführung des Fahrmanövers des Ego-Fahrzeugs angereichert um ein spezifisches Verhalten, welches in Abhängigkeit der Objektklassifikation (zum Beispiel PKW oder Gefahrenguttransporter oder BMW i3) variiert. Damit kann die Manöverplanung und Manöverdurchführung je nach erkanntem und zugeordnetem Objekt zielgerichtet erfolgen, wobei der Verkehrsfluss verbessert und die Sicherheit der Insassen gesteigert wird.
  • Eine mit der Erkennungsvorrichtung gekoppelte Steuervorrichtung ruft Verhaltensparameter der erkannten Objektklassifikation aus einer Verhaltensdatenbank ab.
  • Unter dem Begriff „Verhaltensdatenbank“ ist eine Einheit zu verstehen, die Verhaltensdaten empfängt und/oder verarbeitet und/oder speichert und/oder aussendet. Die Verhaltensdatenbank umfasst vorzugsweise eine Übertragungsschnittstelle, über die Verhaltensdaten empfangen und/oder gesendet werden können. Die Verhaltensdatenbank kann im Ego-Fahrzeug, in einem anderen Fahrzeug oder außerhalb von Fahrzeugen, beispielsweise auf einem Server oder in der Cloud, angeordnet sein.
  • Die Verhaltensdatenbank enthält für jede Objektklassifikation eigene Verhaltensparameter. Mit Verhaltensparametern sind dabei Parameter gemeint, die ein bestimmtes Verhalten des beweglichen Objekts beschreiben, wie beispielsweise das Verhalten, dass ein VW Lupo nicht schneller als eine bestimmte Maximalgeschwindigkeit fährt oder dass ein Gefahrentransport (Gefahrenstoff-LKW) regelmäßig vor einem Bahnübergang anhält oder dass ein Fahrrad Einbahnstraßen in entgegengesetzter Richtung befährt oder dass ein Rollstuhl bei Behinderung des Gehsteigs die Fahrbahn befährt.
  • Die Verhaltensparameter, die in der Verhaltensdatenbank abgelegt sind, sind durch ein Verfahren ermittelt worden, bei dem mithilfe von Maschinelles-Lernen (machine laerning)-Methoden bewegliche Objekte zunächst klassifiziert und dann auf Basis von spezifischen Verhaltensmustern attribuiert werden.
  • Unter dem Begriff „spezifisches Verhaltensmuster“ ist ein wiederkehrendes Verhalten gemeint, welches in Bezug auf eine spezifische Situation auftritt. Die spezifische Situation kann beispielsweise einen bestimmten Ort und/oder eine bestimmte Zeit umfassen. Die spezifischen Verhaltensmuster müssen daher aus dem üblichen Verhalten von beweglichen Objekten herausgefiltert werden. Beispiele für solche spezifischen Verhaltensmuster des beweglichen Objekts sind: „Stoppen an Bahnübergang“, „aktiver Blinker wären eines Überholvorgangs“, „maximal erreichbare Geschwindigkeit/Beschleunigung“, „verlängerter Bremsweg“, „Träge Beschleunigung“, „häufige Spurwechsel“, „verringerter Abstand zu einem vorderen beweglichen Objekt (zum Beispiel vorrausfahrendes Fahrzeug)“, „Einsatz von Lichthupe“, „Geschwindigkeitsübertretungen“, „abrupter Bremsvorgang“, „Verlassen der Fahrbahn“, „Befahren eines bestimmten Bereichs der Fahrbahn“ etc.
  • Für die Ermittlung der Verhaltensparameter werden die spezifischen Verhaltensmuster für das jeweilige klassifizierte bewegliche Objekt ausgewertet. Aus der Auswertung werden dann Attribute für das jeweilige klassifizierte bewegliche Objekt bestimmt. Eine gewisse Anzahl an Attributen wird dann der jeweiligen Objektklassifikation zugeordnet, und optionalerweise gespeichert und/oder zur Verfügung gestellt.
  • Für die Klassifizierung der Objekte, also die Einteilung der beweglichen Objekte in bestimmte Objektklassifikationen, können Systeme mit einer Erkennungsvorrichtung (vorzugsweise Erkennungsvorrichtung, die eine Sensorvorrichtung umfasst) und einer Steuervorrichtung, wie oben beschrieben, von verschiedenen Fahrzeugen verwendet werden. D.h. also, dass die in der Verhaltensdatenbank hinterlegten Verhaltensparameter nicht ausschließlich von dem Ego-Fahrzeug stammen, sondern von den entsprechenden Systemen vieler verschiedener Fahrzeuge stammen können.
  • Um spezifische Verhaltensmuster zu bestimmen und das klassifizierte bewegliche Objekt entsprechend zu attribuieren werden gemäß einer Ausführungsform Messdaten in Bezug auf das klassifizierte bewegliche Objekt ausgewertet. Die Auswertung geschieht mittels Maschinelles-Lernen-Methoden (machine learning Methoden).
  • Alternativ können Messdaten in Bezug auf das klassifizierte bewegliche Objekt gemessen und ausgewertet werden, um spezifische Verhaltensmuster zu bestimmen und das klassifizierte bewegliche Objekt entsprechend zu attribuieren. Vorzugsweise wird dafür bei einem definierten Messverhalten eine bestimmte Messgröße in Bezug auf das klassifizierte bewegliche Objekt gemessen und/oder ausgewertet und/oder gespeichert.
  • Die Messdaten, deren Auswertung schließlich zu den Verhaltensparametern führen, können dabei von einer Messvorrichtung eines Fahrzeugs, z.B. des Ego-Fahrzeugs selbst, oder von Messvorrichtungen mehrerer verschiedener Fahrzeuge oder von einer externen Datenquelle stammen. Eine solche Messvorrichtung ist eine Vorrichtung, die Daten in Bezug auf bewegliche Objekte, ermittelt und/oder speichert und/oder ausgibt. Dafür kann die Messvorrichtung eine (wie oben beschriebene) Sensorvorrichtung umfassen. Beispiele für eine externe Datenquelle sind: Unfallstatistik, Pannenstatistik, Wetterdaten, Navigationsdaten, Fahrzeugspezifikationen, etc.
  • Gemäß einer Ausführungsform werden die Messdaten durch eine Messvorrichtung eines Fahrzeugs ermittelt und/ oder durch eine fahrzeugexterne Datenquelle bereitgestellt.
  • Die Messdaten und/oder die ausgewerteten Messdaten können in einem Datenspeicher gespeichert werden. Dieser Datenspeicher kann sich im Ego-Fahrzeug, in einem anderen Fahrzeug oder außerhalb eines Fahrzeuges, z.B. auf einem Server oder in der Cloud, befinden. Auf den Datenspeicher kann beispielsweise von mehreren Fahrzeugen zugegriffen werden, sodass ein Abgleich der Messdaten bzw. der ausgewerteten Messdaten stattfinden kann.
  • Beispiele für Messdaten umfassen Geschwindigkeitsverlauf, Beschleunigung bzw. Beschleunigungsverlauf, Verhältnis von Bewegung-zu Standzeiten, Maximalgeschwindigkeit, Spurwechselhäufigkeit, Bremsintensität, Pannenhäufigkeit, Pannengrund, Routenverlauf, Bremsentyp, Getriebeart, Wetterdaten etc.
  • Zum Auswerten der Messdaten kann die Steuervorrichtung eine Recheneinheit umfassen. Die Recheneinheit kann sich dabei im Ego-Fahrzeug, in einem anderen Fahrzeug oder außerhalb eines Fahrzeugs, zum Beispiel beim Server oder in der klaut, befinden. Die Recheneinheit kann mit dem Datenspeicher, auf dem die Messdaten und/oder die ausgewerteten Messdaten gespeichert sind, gekoppelt sein und auf diesen zugreifen.
  • Durch Verwendung von maschinelles-Lernen(machine learning)-Algorithmen, die beispielsweise auf der Recheneinheit berechnet werden, wird aus den Messdaten ein bestimmtes Verhalten des klassifizierten beweglichen Objekts herausgefiltert. Aus diesem bestimmten Verhalten werden dann die Attribute für das klassifizierte bewegliche Objekt entwickelt.
  • Im Folgenden soll dies anhand eines Beispiels erläutert werden, bei dem durch ein Testfahrzeug ein bewegliches Objekt als Gefahrengut-LKW klassifiziert worden ist. Durch die Aufzeichnung und Verarbeitung der Messdaten der Ultraschallsensoren und/oder der hochauflösenden Kamera des Testfahrzeugs wird eine Beschilderung, die einen Bahnübergang auf einem vorausliegenden Streckenabschnitt des Testfahrzeugs anzeigt, erkannt. Durch den Abgleich mit Kartendaten (zum Beispiel einer hochgenauen Karte) kann das Vorliegen eines vorausliegenden Bahnübergangs verifiziert werden. Wie sich der Gefahrengut-LKW am Bahnübergang verhält, wird durch die Sensorvorrichtung des Testfahrzeugs aufgezeichnet. Dieses Verhalten wird unter Anwendung von machine-learning-Algorithmen mit dem Verhalten anderer LKWs verglichen, woraus ein spezifisches Verhalten im Hinblick auf den Bahnübergang für den Gefahrengut-LKW abgeleitet wird. Der Objektklassifikation „Gefahrengut-LKW“ wird dann beispielsweise das Attribut „Stoppen vor Bahnübergang“ zugeordnet.
  • Ein weiteres Beispiel für Messdaten, aus denen spezifische Verhaltensmuster abgeleitet werden können, ist das Kennzeichen eines Fahrzeugs (zum Beispiel PKW, LKW, Motorrad). So können einem aus Frankreich stammenden PKW andere Attribute zugeordnet werden als einem aus Deutschland stammenden PKW. Ein mögliches Attribut eines aus Frankreich stammenden PKWs ist beispielsweise „aktiver Blinker während des Überholvorgangs“.
  • Das spezifische Verhaltensmuster eines aggressiven Fahrverhaltens kann durch Messdaten, die den Abstand der Fahrzeuge untereinander, die Veränderungen der Abstände zwischen den Fahrzeugen, die Anzahl der Spurwechsel, die Verwendung der Lichthupe, das Beschleunigungs- und Bremsverhalten sowie Geschwindigkeitsübertretungen angeben, bestimmt werden. Ist das bewegliche Objekt als „roter Ferrari“ klassifiziert worden, so werden der Objektklassifikation „roter Ferrari“ Attribute wie „geringer Abstand zwischen Fahrzeugen“, „häufige Geschwindigkeitsübertretungen“, usw. zugeordnet.
  • Die Verknüpfung der spezifischen Verhaltensmuster mit der jeweiligen Objektklassifikation ergeben dann die Verhaltensparameter, die in der Verhaltensdatenbank abgelegt werden.
  • Die Manöverplanungseinheit des Systems zum automatisierten Manövrieren des Ego-Fahrzeugs erhält über die Steuervorrichtung die Verhaltensparameter in Abhängigkeit der erkannten Objektklassifikation und steuert diese in die Fahrmanöverplanung und Fahrmanöverdurchführung ein.
  • Erkennt die Erkennungsvorrichtung beispielsweise ein Fahrzeug vor dem Ego-Fahrzeug und ordnet dieses der Objektklassifikation „Gefahrengut-LKW“ zu, so wird aufgrund des Verhaltensparameters „Stoppen vor Bahnübergang“ das Fahrmanöver des Ego-Fahrzeugs so geändert, dass ein erhöhter Sicherheitsabstand zu dem vorausfahrenden LKW eingehalten wird.
  • Erkennt die Erkennungsvorrichtung beispielsweise ein Fahrzeug vor dem Ego-Fahrzeug und ordnet dieses die Objektklassifikation „40t LKW“ zu, so werden aufgrund des Verhaltensparameters „verlängerter Bremsweg“ die Fahrzeugkomponenten des Ego-Fahrzeugs so voreingestellt, dass ein Notausweichmanöver oder ein Nothaltemanöver zügig eingeleitet werden kann. Dafür werden beispielsweise die Bremskraftverstärker „vorgespannt“. Weiterhin kann das dem Ego-Fahrzeug nachfolgende Fahrzeug über die Erkennungsvorrichtung ebenfalls einer Objektklassifikation zugeordnet werden und aufgrund der Verhaltensparameter, die zu dieser Objektklassifikation gehören, die Entscheidung zwischen Notausweichmanöver und Nothaltemanöver gefällt werden.
  • Wurde ein dem Ego-Fahrzeug vorausfahrendes Fahrzeug als „roter Ferrari“ erkannt und zugeordnet, so kann die Manöverplanungseinheit vorsehen, den Abstand zu diesem Fahrzeug zu erhöhen und gegebenenfalls die Spur zu wechseln.
  • Mit den oben beschriebenen Ausführungsformen des Systems bzw. Verfahrens zum automatisierten Manövrieren eines Ego-Fahrzeugs wird eine bessere Adaption von Verkehrsteilnehmern untereinander, insbesondere in einem mischklassigen Verkehrsszenario (manuelle, Teil autonome und autonome Fahrzeuge) erreicht. Weiterhin ist eine Kennzeichnung von Verkehrsteilnehmern als „Störer“ oder als Gefahrenquelle für möglich autonom fahrende Fahrzeuge. Daher ist eine präzise Manöverplanung, basierend auf dem spezifischen Verhalten von gewissen Fahrzeugtypen, möglich. Eine einzelne Fahrassistenzfunktion, wie beispielsweise die Abstandsregelung, di kann je nach Objektklassifikation variiert werden. Weiterhin kann durch die oben beschriebenen Ausführungsformen des Systems bzw. des Verfahrens zum automatisierten Manövrieren eines Ego-Fahrzeugs das Fahrverhalten eines autonom fahrenden Fahrzeugs eines bestimmten Herstellers analysiert und eingeschätzt werden. Dies lässt wiederum eine individuelle Reaktion des Fahrmanövers des Ego-Fahrzeugs zu.
  • Gemäß einer Ausführungsform umfasst ein Fahrzeug ein System zum automatisierten Manövrieren eines Ego-Fahrzeugs gemäß einer der oben beschriebenen Ausführungsformen.
  • Die vorstehenden Ausführungen zum erfindungsgemäßen System zum automatisierten Manövrieren eines Ego-Fahrzeugs nach dem ersten Aspekt der Erfindung gelten in entsprechender Weise auch für das Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs nach dem zweiten Aspekt der Erfindung und andersherum; vorteilhafte Ausführungsbeispiele des erfindungsgemäßen Verfahrens entsprechen den beschriebenen vorteilhaften Ausführungsbeispielen des erfindungsgemäßen Systems. An dieser Stelle nicht explizit beschriebene vorteilhafte Ausführungsbeispiele des erfindungsgemäßen Verfahrens entsprechen den beschriebenen vorteilhaften Ausführungsbeispielen des erfindungsgemäßen Systems.
  • Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen unter Zuhilfenahme der beigefügten Zeichnungen beschrieben.
    • 1 zeigt schematisch ein System zum automatisierten Manövrieren eines Ego-Fahrzeugs gemäß einer Ausführungsform.
    • 2 zeigt schematisch ein System zum automatisierten Manövrieren eines Ego-Fahrzeugs gemäß einer Ausführungsform.
  • In 1 ist ein Ego-Fahrzeug 1 abgebildet, welches mit einer Sensorvorrichtung 2 und einem mit der Sensorvorrichtung 2 verbundenen Steuergerät 3 ausgestattet ist. Mit der Sensorvorrichtung 2 können bewegliche Objekte im Umfeld des Ego-Fahrzeugs 1 erkannt und einer bestimmten Objektklassifikation zugeordnet werden. In 1 ist ein dem Ego-Fahrzeug vorrausfahrendes Fahrzeug 5 abgebildet. Mithilfe der Sensorvorrichtung 2, die zumindest einen Ultraschallsensor, einen Radarsensor und eine hochauflösende Kamera umfasst, ist das Ego-Fahrzeug 1 zunächst in der Lage, zu erkennen, dass sich ein Fahrzeug 5 im vorderen Umfeld des Ego-Fahrzeugs 1 befindet. Weiterhin ist die Sensorvorrichtung 2 in der Lage, bestimmte Merkmale des Fahrzeugs 5, wie beispielsweise Typenbezeichnung, Hubraumgröße, Fahrzeuggröße bzw. Fahrzeugdimension, aktuelle Fahrzeuggeschwindigkeit, zu erfassen und auszuwerten. Aufgrund der Auswertung der erfassten Merkmale des Fahrzeugs 5 wird das Fahrzeug 5 der Objektklassifikation „MINI One First“ (im Folgenden MINI genannt) zugeordnet. Die gefundene Objektklassifikation „MINI“ wird dann dem Steuergerät 3 übermittelt. Daraufhin ruft das Steuergerät 3 die Verhaltensparameter aus einer Verhaltensdatenbank ab, die der erkannten Objektklassifikation „MINI“ entsprechen. Durch die Verhaltensparameter wird das Verhalten des Fahrzeugs 5 beschrieben. Die in der Verhaltensdatenbank für den „MINI“ hinterlegten Verhaltensparameter sind: träge Beschleunigung (Beschleunigung 0-100: 12,8 s), Maximalgeschwindigkeit von 175 km/h, Fahrzeuglänge von 3900 mm, Fahrzeugbreite von1800 mm, Fahrzeughöhe von 1500 mm).
  • Das Ego-Fahrzeug 1 weist außerdem eine Manöver-Recheneinheit 4 auf, die das nächste Fahrmanöver bzw. die nächsten Fahrmanöver des Ego-Fahrzeugs 1 mithilfe der Verhaltensparameter plant und zur Durchführung die entsprechenden Fahrzeugkomponenten ansteuert. Ist eine Zielgeschwindigkeit des Ego-Fahrzeugs 1 eingestellt, die über der Maximalgeschwindigkeit des Fahrzeugs 5 liegt, wird die Fahrmanöverplanung einen Überholvorgang des Fahrzeugs 5 umfassen. Liegt die momentane Geschwindigkeit des Ego-Fahrzeugs 1 weit über der Maximalgeschwindigkeit des Fahrzeugs 5, so wird der Überholvorgang frühzeitig, d.h. mit großem Abstand zu dem Fahrzeug 5 eingeleitet.
  • In 2 ist ein Ego-Fahrzeug 1 mit einer Erkennungsvorrichtung 2 und einer Steuereinheit 3, in der eine Manöverplanungseinheit 4 integriert angeordnet ist. Für die Fahrmanöverplanung und -durchführung des Ego-Fahrzeugs 1 ruft die Steuereinheit 3 Verhaltensparameter aus einer Verhaltensdatenbank 6 ab. Im Folgenden wird beschrieben, wie die Verhaltensparameter bestimmt werden. Dies wird am Beispiel des Ego-Fahrzeugs 1 beschrieben. Die in der Verhaltensdatenbank 6 abgespeicherten Verhaltensparameter müssen jedoch nicht ausschließlich von einem Fahrzeug bzw. von einer ausgewerteten Fahrsituation stammen, sondern sind üblicherweise Parameter, die mithilfe einer Mehrzahl von Fahrzeugen bzw. einer Mehrzahl von Fahrsituationen ausgewertet werden und anschließend in der Verhaltensdatenbank 6 abgelegt werden.
  • In der folgenden Beschreibung wird vorausgesetzt, dass die Verhaltensdatenbank 6 in der Cloud gespeichert ist und das Ego-Fahrzeug 1 darauf zugreifen kann. Alternativ kann die Verhaltensdatenbank 6 lokal im Ego-Fahrzeug 1 oder irgendeinem anderen Fahrzeug abgelegt sein.
  • Für die Bestimmung der Verhaltensparameter werden mittels machine-learning-Algorithmen bewegliche Objekte klassifiziert und diesen in Abhängigkeit ihres spezifischen Verhaltens Attribute zugeordnet. Für das Beispiel des Ego-Fahrzeugs 1 gemäß 2 wird zunächst durch die Erkennungsvorrichtung 2 das vorrausfahrende Fahrzeug 5 als Gefahrengut-LKW erkannt. Dies geschieht unter anderem durch die Erfassung von Hinweisschildern auf der Rückseite des LKW sowie der Dimension und der Geschwindigkeit des LKW. Außerdem wird über die Erkennungsvorrichtung 2 des Ego-Fahrzeugs 1 erfasst, dass sich auf dem vorausliegenden Streckenabschnitt ein Bahnübergang befindet. Anhand der auf der Straße befindlichen Markierung 7 und einer am Rand der Straße befindlichen Beschilderung (nicht abgebildet) sowie, optional, anhand zusätzlicher Informationen aus Kartendaten, die beispielsweise an die Steuereinheit 3 oder die Erkennungsvorrichtung 2 des Ego-Fahrzeugs 1 über das Back-End bzw. die Cloud bzw. einen Server übermittelt worden sind, erkennt die Erkennungsvorrichtung 2 , dass ein Bahnübergang auf dem vorausliegenden Streckenabschnitt vorhanden ist.
  • Die Informationen „Gefahrengut-LKW“ und „Bahnübergang“ werden durch die Erkennungsvorrichtung 2 und/oder die Steuereinheit 3 an eine fahrzeugexterne Recheneinheit 8 übermittelt.
  • Während das Ego-Fahrzeug 1 auf der Straße mit dem vorausliegenden Bahnübergang weiterfährt, wird durch die Erkennungsvorrichtung 2 und gegebenenfalls durch die Steuereinheit 3 das Verhalten des vorausfahrenden LKW erfasst („beobachtet“) und an die Recheneinheit 8 übergeben. In der Recheneinheit 8 wird das aktuelle Verhalten des vor dem Ego-Fahrzeug 1 fahrenden LKWs 5 mit dem Verhalten anderer LKWs verglichen. Das Verhalten anderer LKWs ist beispielsweise lokal im Ego-Fahrzeug 1, in der Cloud 6, in der Recheneinheit 8 oder einer anderen externen Speicherquelle, auf welche die Recheneinheit 8 zugreifen kann, hinterlegt. Bei dem Vergleich des Verhaltens verschiedener LKWs mit dem Verhalten des vorausfahrenden LKWs 5 ergibt sich, dass der LKW 5 vor dem Bahnübergang anhält, obwohl es weder ein Stoppzeichen noch eine Ampel an dieser Stelle gibt. Die Recheneinheit 8 erkennt also, dass der vorrausfahrende LKW 5 sich anders verhält als übliche LKW. Dabei werden nur solche LKW verglichen, die eine ähnliche Objektklassifikation aufweisen. Mittels der (nicht-regelbasierten) machine-learning- Algorithmen (neuronales Netz) wird nun erlernt, welche Gegebenheiten zu einem abweichenden Verhalten geführt haben könnten. Abschließend werden dem vorausfahrenden LKW 5 bestimmte Attribute zugeordnet, die das abweichende Verhalten ausdrücken. Im vorliegenden Beispiel ergibt sich eine hohe Korrelation zwischen dem Attribut „LKW“ und „Gefahrengut“. Aufgrund dieser zugeordneten Attribute ergibt sich für die Objektklassifikation Gefahrengut-LKW der Verhaltensparameter „Anhalten vor Bahnübergang“. Dieser Verhaltensparameter wird dann der Objektklassifikation „Gefahrengut-LKW“ in der Verhaltensdatenbank 6 zugeordnet. Ein Fahrzeug, welches einen solchen Gefahrengut-LKW erkennt, kann dann den in der Verhaltensdatenbank 6 abgelegten Verhaltensparameter abrufen und das Fahrmanöver entsprechend planen. Bei dem Fahrmanöver wird dann, abweichend von der Erkennung eines üblichen LKWs, ein erhöhter Sicherheitsabstand zu dem Gefahrengut-LKW eingehalten, um das bevorstehende Anhalten des Gefahrengut-LKW zu antizipieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014211507 [0002]

Claims (9)

  1. System zum automatisierten Manövrieren eines Ego-Fahrzeugs (1), wobei das System aufweist: - eine Erkennungsvorrichtung (2), die dazu eingerichtet ist, ein bewegliches Objekt (5) im Umfeld des Ego-Fahrzeugs (1) zu erkennen und einer bestimmten Objektklassifikation zuzuordnen; - eine mit der Erkennungsvorrichtung (2) gekoppelte Steuervorrichtung (3), die dazu eingerichtet ist, Verhaltensparameter der erkannten Objektklassifikation aus einer Verhaltensdatenbank abzurufen, wobei die Verhaltensparameter durch ein Verfahren ermittelt worden sind, bei dem mittels maschinellem Lernens bewegliche Objekte klassifiziert und auf Basis von spezifischen Verhaltensmustern attribuiert werden; und - eine mit der Steuervorrichtung (3) gekoppelte Manöverplanungseinheit (4), die dazu eingerichtet ist, ein Fahrmanöver des Ego-Fahrzeugs (1) auf Grundlage der abgerufenen Verhaltensparameter zu planen und durchzuführen.
  2. System nach Anspruch 1, wobei die Erkennungsvorrichtung (2) dazu eingerichtet ist, das bewegliche Objekt (5) durch Auswertung von Umfelddaten, die durch eine Sensorvorrichtung des Ego-Fahrzeugs (1) ermittelt worden sind, einer Objektklassifikation zuzuordnen.
  3. System nach Anspruch 1 oder 2, wobei zur Bestimmung der spezifischen Verhaltensmuster und zur entsprechenden Attribuierung des klassifizierten beweglichen Objekts Messdaten in Bezug auf das klassifizierte bewegliche Objekt ausgewertet werden.
  4. System nach Anspruch 3, wobei die Messdaten durch eine Messvorrichtung eines Fahrzeugs ermittelt werden und/oder durch eine fahrzeugexterne Datenquelle bereitgestellt werden.
  5. Fahrzeug mit einem System nach einem der Ansprüche 1 bis 4.
  6. Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs (1), wobei das Verfahren umfasst: - Erkennen eines beweglichen Objekts (5) im Umfeld des Ego-Fahrzeugs (1) und Zuordnen des beweglichen Objekts (5) zu einer bestimmten Objektklassifikation; - Abrufen von Verhaltensparametern der erkannten Objektklassifikation aus einer Verhaltensdatenbank, wobei die Verhaltensparameter durch ein Verfahren ermittelt worden sind, bei dem mittels maschinellem Lernens bewegliche Objekte klassifiziert und auf Basis von spezifischen Verhaltensmustern attribuiert werden; und - Planen und Durchführen eines Fahrmanövers des Ego-Fahrzeugs (1) auf Grundlage der abgerufenen Verhaltensparameter.
  7. Verfahren nach Anspruch 6, wobei das bewegliche Objekt (5) durch Auswertung von Umfelddaten, die durch eine Sensorvorrichtung des Ego-Fahrzeugs (1) ermittelt werden, eine Objektklassifikation zugeordnet wird.
  8. Verfahren nach Anspruch 6 oder 7, wobei zur Bestimmung der spezifischen Verhaltensmuster und zur entsprechenden Attribuierung des klassifizierten beweglichen Objekts Messdaten in Bezug auf das klassifizierte bewegliche Objekt ausgewertet werden.
  9. Verfahren nach Anspruch 8, wobei die Messdaten durch eine Messvorrichtung eines Fahrzeugs ermittelt werden und/oder durch eine fahrzeugexterne Datenquelle bereitgestellt werden.
DE102017211387.1A 2017-07-04 2017-07-04 System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs Ceased DE102017211387A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102017211387.1A DE102017211387A1 (de) 2017-07-04 2017-07-04 System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs
CN201880029984.2A CN110603179A (zh) 2017-07-04 2018-06-25 用于自体车辆的自动化调车的系统和方法
PCT/EP2018/066847 WO2019007718A1 (de) 2017-07-04 2018-06-25 System und verfahren zum automatisierten manövrieren eines ego-fahrzeugs
US16/733,432 US20200148230A1 (en) 2017-07-04 2020-01-03 System and Method for the Automated Maneuvering of an Ego Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017211387.1A DE102017211387A1 (de) 2017-07-04 2017-07-04 System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102017211387A1 true DE102017211387A1 (de) 2019-01-10

Family

ID=62842065

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017211387.1A Ceased DE102017211387A1 (de) 2017-07-04 2017-07-04 System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs

Country Status (4)

Country Link
US (1) US20200148230A1 (de)
CN (1) CN110603179A (de)
DE (1) DE102017211387A1 (de)
WO (1) WO2019007718A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3092548A1 (fr) * 2019-02-11 2020-08-14 Psa Automobiles Sa Procédé et système pour gérer le fonctionnement d’un appareillage de régulation de vitesse adaptatif d’un système d’aide à la conduite d’un véhicule terrestre à moteur
DE102021127704A1 (de) 2021-10-25 2023-04-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Vorhersage eines Fahrverhaltens von Fahrzeugen
DE102022200679A1 (de) 2022-01-21 2023-07-27 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern eines Fahrzeugs

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557151B2 (en) 2019-10-24 2023-01-17 Deere & Company Object identification on a mobile work machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
US20140244068A1 (en) * 2013-02-25 2014-08-28 Honda Motor Co., Ltd. Vehicle State Prediction in Real Time Risk Assessments
DE102014211507A1 (de) 2014-06-16 2015-12-17 Volkswagen Aktiengesellschaft Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110026770A1 (en) * 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
EP2562060B1 (de) * 2011-08-22 2014-10-01 Honda Research Institute Europe GmbH Verfahren und System zur Vorhersage des Bewegungsverhaltens eines Zielverkehrsobjekts
DE102011081614A1 (de) * 2011-08-26 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Analysierung eines von einem Fahrzeug zu befahrenden Streckenabschnitts
US9495874B1 (en) * 2012-04-13 2016-11-15 Google Inc. Automated system and method for modeling the behavior of vehicles and other agents
DE102014015075B4 (de) * 2014-10-11 2019-07-25 Audi Ag Verfahren zum Betrieb eines automatisiert geführten, fahrerlosen Kraftfahrzeugs und Überwachungssystem

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
US20140244068A1 (en) * 2013-02-25 2014-08-28 Honda Motor Co., Ltd. Vehicle State Prediction in Real Time Risk Assessments
DE102014211507A1 (de) 2014-06-16 2015-12-17 Volkswagen Aktiengesellschaft Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3092548A1 (fr) * 2019-02-11 2020-08-14 Psa Automobiles Sa Procédé et système pour gérer le fonctionnement d’un appareillage de régulation de vitesse adaptatif d’un système d’aide à la conduite d’un véhicule terrestre à moteur
DE102021127704A1 (de) 2021-10-25 2023-04-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Vorhersage eines Fahrverhaltens von Fahrzeugen
DE102022200679A1 (de) 2022-01-21 2023-07-27 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern eines Fahrzeugs

Also Published As

Publication number Publication date
US20200148230A1 (en) 2020-05-14
WO2019007718A1 (de) 2019-01-10
CN110603179A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
EP3160813B1 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102015213884A1 (de) Vorrichtung zum Bestimmen einer Gefahr in einer Fahrtumgebung und Vorrichtung zum Anzeigen einer Gefahr in einer Fahrtumgebung
DE102013210941A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE10244205A1 (de) Verfahren und Einrichtung zur Verhinderung der Kollision von Fahrzeugen
EP3105093B1 (de) Verfahren zum betrieb eines sicherheitssystems eines kraftfahrzeugs
WO2019007718A1 (de) System und verfahren zum automatisierten manövrieren eines ego-fahrzeugs
DE102014225804A1 (de) Unterstützung beim Führen eines Fahrzeugs
WO2015051990A2 (de) Verfahren und system zur identifizierung einer gefahrensituation sowie verwendung des systems
DE202014003224U1 (de) Fahrerassistenzsystem zur Warnung eines Fahrers vor eineKollision mit einem anderen Verkehrsteilnehmer
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
DE102018209183A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrers in einem Fahrzeug
DE102020102955A1 (de) Verfahren zur priorisierung der übertragung von erfassten objekten für die kooperative sensorteilung
DE102019205802A1 (de) Verfahren zum Betreiben eines Fahrassistenzsystems und Fahrassistenzsystem
DE102019219435A1 (de) Verfahren, Vorrichtung und Computerprogrammprodukt zur Beeinflussung mindestens eines Sicherheitssystems eines Egofahrzeugs
WO2019120709A1 (de) Verfahren und steuereinheit zur steuerung einer funktion eines zumindest teilweise automatisiert fahrenden fahrzeugs
DE102017204393A1 (de) Verfahren zum Ansteuern eines Fahrbetriebs eines Fahrzeugs
DE102009036177A1 (de) Verfahren und Einrichtung zur Erhöhung der Verkehrssicherheit von Fahrzeugen
DE102018210410B4 (de) Fahrerassistenzsystem mit einer Nothaltefunktion für ein Fahrzeug, Fahrzeug mit demselben und Verfahren zum Nothalten eines Fahrzeugs
DE102017209370B4 (de) Verfahren zur Ermittlung einer Überholinformation
DE102018007022A1 (de) Verfahren und Vorrichtung zum Betrieb eines Assistenzsystems eines Fahrzeuges und Fahrzeug
DE102018209653A1 (de) Bildung einer Gasse für ein sich annäherndes Einsatzfahrzeug
DE102017223494A1 (de) Führen eines Kraftfahrzeugs zu und von einer Station
DE102021127028A1 (de) Systeme und verfahren für anpassbare heckkollisionswarnmeldungen
DE102021000792A1 (de) Verfahren zum Betrieb eines Fahrzeuges
DE102004047122A1 (de) Verfahren zum Überwachen eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final