DE102022207768B3 - Verfahren zur Objektauswahl für ein Assistenzsystem sowie Assistenzsystem - Google Patents

Verfahren zur Objektauswahl für ein Assistenzsystem sowie Assistenzsystem Download PDF

Info

Publication number
DE102022207768B3
DE102022207768B3 DE102022207768.7A DE102022207768A DE102022207768B3 DE 102022207768 B3 DE102022207768 B3 DE 102022207768B3 DE 102022207768 A DE102022207768 A DE 102022207768A DE 102022207768 B3 DE102022207768 B3 DE 102022207768B3
Authority
DE
Germany
Prior art keywords
objects
interaction
detected
vehicle
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102022207768.7A
Other languages
English (en)
Inventor
Steffen Kempe
Lars Krüger
Yvonne Strigel
Marie-Theres Boll
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to DE102022207768.7A priority Critical patent/DE102022207768B3/de
Application granted granted Critical
Publication of DE102022207768B3 publication Critical patent/DE102022207768B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Objektauswahl für ein Assistenzsystem eines Egofahrzeuges (1), bei dem das Egofahrzeug (1) eine Steuereinrichtung (2) und mindestens zwei Umfeldsensoren zur Umfeld- und Objekterfassung umfasst, wobei die durch die Umfeldsensoren erfassten Objekte, zunächst in Hinblick auf ihre Interaktion bewertet werden, wobei eine Interaktion zwischen einem ersten Objekt, welches von mindestens zwei Umfeldsensoren erfasst wurde, und einem zweiten Objekt, welches von nur einem Umfeldsensor erfasst wurde, bestimmt wird, indem anhand einer Bewegung des ersten Objekts eine Fahrttrajektorie des ersten Objekts ermittelt wird, und eine Interaktion zwischen erstem und zweitem Objekt angenommen wird, wenn eine Gefahrensituation mit dem zweiten Objekt durch die Fahrttrajektorie des ersten Objekts vermieden oder verringert wird, wobei das zweite Objekt als relevantes Objekt ausgewählt wird, wenn eine Interaktion zwischen erstem und zweitem Objekt vorliegt.

Description

  • Die vorliegende Erfindung betrifft Verfahren zur Objektauswahl bzw. Objektselektion für ein (Fahrer-) Assistenzsystem eines Egofahrzeuges, welches zur unterstützenden oder automatisierten Fahrzeugführung des Egofahrzeuges dient, sowie ein entsprechendes (Fahrer-) Assistenzsystem für ein Egofahrzeug.
  • Technologischer Hintergrund
  • Gattungsgemäße Fahrzeuge, wie z. B. Personenkraftfahrzeuge (PKW), Lastkraftwägen (LKW) oder Motorräder, werden zunehmend mit Fahrerassistenzsystemen bzw. Assistenzsystemen ausgerüstet, welche mit Hilfe von Sensorsystemen die Umgebung bzw. das Umfeld erfassen, Verkehrssituationen erkennen und den Fahrer unterstützen können, z. B. durch einen Brems- oder Lenkeingriff oder durch die Ausgabe einer optischen, haptischen oder akustischen Warnung. Als Sensorsysteme zur Umfelderfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren, Ultraschallsensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung und darin befindlichen Objekten gezogen werden, womit z. B. auch ein sogenanntes Umfeldmodell erzeugt werden kann. Darauf basierend können anschließend Anweisungen zur Fahrerwarnung oder Fahrerinformation oder zum (teil-) automatischen geregelten Lenken, Bremsen und Beschleunigen ausgegeben werden. Durch die Sensor- und Umfelddaten verarbeitenden Assistenzfunktionen können z. B. Unfälle mit anderen Verkehrsteilnehmern vermieden oder komplizierte Fahrmanöver erleichtert werden, indem die Fahraufgabe bzw. die Fahrzeugführung unterstützt oder sogar komplett übernommen wird (teil- oder vollautomatisiert). Beispielsweise kann das Fahrzeug z. B. mittels einem Notbremsassistenten (EBA, Emergency Brake Assist) eine autonome Notbremsung (AEB, Automatic Emergency Brake) oder einem Abstandsregeltempomaten (ACC, Adaptive Cruise Control-Assistenten) eine Geschwindigkeits- und Folgefahrtregelung durchzuführen. Ferner kann mit einem Stauassistenten (TJA, Traffic Jam Assist), der im Wesentlichen auf einem Spurhalteassistenten (LKA, Lane Keep Assist) und einem Abstandsregeltempomaten (ACC) basiert, das Fahren im Stau oder im Stop-and-Go-Betrieb aufgrund einer assistierten Quer- und Längsführung erheblich vereinfacht werden.
  • Eine Herausforderung bei derartigen Fahrfunktionen in Fahrerassistenzsystemen ist dabei die Auswahl von Objekten (z. B. Fahrzeuge, Fußgänger oder Hindernisse) auf die eine Fahrfunktion reagieren bzw. regeln muss. Um eine hohe Erkennungsleistung von Objekten zu gewährleisten, setzen moderne Systeme mehrere verschiedene Sensoren zur Umfelderfassung (z. B. Multisensorsysteme umfassend Radar, Kamera, Lidar und/oder Ultraschall) gleichzeitig ein. Dadurch soll eine Redundanz der Sensoren mit unterschiedlichen Technologien geschaffen werden, die dazu führt, dass regelungsrelevante Objekte zuverlässig erkannt werden, indem z. B. mehrere Sensoren die Existenz desselben Objektes bestätigen, während Fehldetektionen (z. B. Geisterziele, bei denen ein real nichtexistierendes Objekt fälschlicherweise erkannt wird) reduziert werden. Es gibt allerdings Fahrsituationen, in denen ein regelungsrelevantes Objekt physikalisch nicht durch alle Sensoren gleichzeitig erfasst werden kann. Ein typisches Beispiel hierfür sind Fahrzeuge, die sich vor einem dem Egofahrzeug vorausfahrenden Fahrzeug befinden. Herkömmlicherweise werden Objekte in Multisensorsystemen für eine Fahrfunktion erst dann als relevant ausgewählt, wenn Sie mindestens von zwei Sensoren erkannt wurden. Diese Strategie kann aber dazu führen, dass das verdeckte Objekt nicht als regelungsrelevantes Objekt ausgewählt wird und die Fahrfunktion die entsprechende Situation nicht adäquat behandelt. Beispielsweise können in bestimmten Verkehrssituationen zunächst verdeckte Objekte relevant werden (z. B. bei Überholvorgängen, wenn das vorausfahrende Fahrzeug die Sicht auf ein davor befindliches langsames oder stehendes Objekt erst beim Ausscheren freigibt und dadurch wenig Zeit bleibt, um entsprechend auf das nunmehr relevante Hindernis zu reagieren).
  • Druckschriftlicher Stand der Technik
  • Die DE 10 2010 003 375 A1 offenbart ein Umfeldbewertungssystem in einem Fahrzeug mit einem Steuergerät, erste und zweite Sensormittel zur Erfassung von Objekten im Umfeld des Fahrzeuges und Auswertemitteln zur Bewertung von Objekten im Umfeld des Fahrzeugs in Hinblick auf die Relevanz der Objekte als Zielobjekte für ein Warn-, Steuer- oder Regelsystem im Fahrzeug. Dabei werden erfasste Objekte in einer ersten Betriebsart des Steuergeräts nur dann als relevantes Zielobjekt angesehen, wenn es sowohl durch die ersten Sensormittel als auch durch die zweiten Sensormittel erfasst wird. Ferner wird in einer zweiten Betriebsart des Steuergeräts ein Objekt als relevantes Zielobjekt ausgewählt, wenn es nur durch die ersten Sensormittel erfasst wird. Hierdurch wird eine Selektion von verdeckten Objekten realisiert, in dem das Fahrzeug in zwei verschiedenen Betriebsarten betrieben wird. Befindet sich das Fahrzeug beispielsweise in der Betriebsart „Folgefahrt“ hinter einem vorausfahrenden Fahrzeug, so werden vom vorausfahrenden Fahrzeug verdeckte Objekte, die z. B. nur von einem Radar als erstes Sensormittel detektiert werden können, für die Fahrfunktionen ausgewählt. Befindet sich das Fahrzeug aber nicht in der Betriebsart „Folgefahrt“, so werden verdeckte Objekte nicht selektiert. Dadurch kann es zu Gefahrensituationen kommen, wenn z. B. das Egofahrzeug einem vorausfahrenden Fahrzeug in einer Folgefahrt folgt, welches einen Spurwechsel vollzieht, weil sich ein davor befindliches Objekt nur sehr langsam bewegt oder steht.
  • Aus EP 2 013 052 B1 ist ein Verfahren zur Geschwindigkeitsregelung eines Fahrzeugs in einer komplexen Verkehrssituation bekannt, bei dem das Fahrzeug mit einem Sensorsystem zur Umgebungserfassung ausgestattet ist und für die Regelung ein zumindest teilweise verdecktes Objekt und/oder zumindest ein Objekt auf einer benachbarten Fahrspur betrachtet wird. Ferner wird eine Spurwechselabsicht des eigenen Fahrzeugs und/oder eines Objekts erfasst und es wird Objekten ein unterer Schwellwert für eine Sollbeschleunigung zugeordnet. Der Schwellwert hängt dabei davon ab, ob das Objekt verdeckt ist und ob das Objekt auf der eigenen oder einer benachbarten Fahrspur ist und ob eine erkennbare Absicht des Fahrzeugs oder des Objekts vorliegt, die Fahrspur zu wechseln.
  • Ferner offenbart DE 10 2012 222 301 A1 ein Verfahren, bei dem das Verhalten von Fahrzeugen in der Umgebung überwacht wird, um eine bevorstehende Gefahr auf der Straße vorherzusagen und auf diese zu reagieren, sogar in Situationen, in denen die Gefahr nicht direkt erfasst wurde. Sofern Zielfahrzeuge in der Umgebung des Hostfahrzeuges detektiert werden, bewertet das Verfahren deren Verhalten, wobei mehrere Kategorien zum Klassifizieren des Verhaltens vorgesehen sind, und unter der Annahme, dass deren Verhalten einen Typ von bevorstehender Gefahr andeutet. Zudem wird eine geeignete präventive Reaktion ermittelt, um das Host-Fahrzeug zu steuern, die das Nachahmen, Kopieren und/oder Integrieren des Verhaltens der Zielfahrzeuge in der Umgebung gemäß sogenannten „Schwarm“-Techniken umfassen, um der ansonsten unbemerkten Gefahr auszuweichen.
  • Aufgabe der vorliegenden Erfindung
  • Ausgehend vom Stand der Technik liegt die Aufgabe der vorliegenden Erfindung darin, ein Verfahren sowie ein Assistenzsystem zur Verfügung zu stellen, wodurch die Verkehrssicherheit von verbessert und die aus dem Stand der Technik bekannten Nachteile überwunden werden.
  • Lösung der Aufgabe
  • Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie des nebengeordneten Anspruchs gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.
  • Das erfindungsgemäße Verfahren zur Objektauswahl ist vorzugsweise für ein Assistenzsystem, welches insbesondere dazu vorgesehen ist, ein oder mehrere warnende und/oder unterstützende Fahrfunktionen bzw. eine teil- autonome Fahrzeugsteuerung zu berechnen und auszuführen. Bei dem Verfahren umfasst das Egofahrzeug eine Steuereinrichtung und mindestens zwei Umfeldsensoren zur Umfeld- und Objekterfassung umfasst, wobei die durch die Umfeldsensoren erfassten Objekte, zunächst in Hinblick auf ihre Interaktion bewertet werden. Hierzu werden Objekte betrachtet, die durch unterschiedliche Sensoren bzw. Sensortypen erfasst wurden. Wenn ein erstes Objekt von mindestens zwei Umfeldsensoren erfasst wurde bzw. vom ersten und vom zweiten Umfeldsensor erfasst wurde und ein zweites Objekt nur von einem Umfeldsensor bzw. vom ersten und nicht vom zweiten Umfeldsensor erfasst wurde, kann eine Interaktion zwischen erstem und zweitem Objekt bestimmt werden, indem anhand einer Bewegung des ersten Objekts eine Fahrttrajektorie des ersten Objekts ermittelt wird (wobei die Fahrttrajektorie den angenommenen bzw. geschätzten realen zukünftigen Bewegungsverlauf des ersten Objekts beschreibt). Eine Interaktion zwischen erstem und zweitem Objekt wird dabei angenommen, wenn die Fahrttrajektorie des ersten Objekts eine Gefahrensituation mit dem zweiten Objekt umgeht bzw. verhindert oder diese verringert bzw. deren Verlauf/Auswirkung abschwächt. Beispielweise wenn eine Kollision zwischen erstem und zweitem Objekt vorliegen würde, wenn das erste Objekt nicht die Fahrttrajektorie, z. B. ein Ausweichen oder ein Bremsen umfasst, einschlagen würde. Das zweite Objekt wird dann entsprechend als relevantes Objekt insbesondere für die jeweilige Fahrfunktion bzw. das Assistenzsystem ausgewählt, wenn eine Interaktion zwischen erstem und zweitem Objekt vorliegt bzw. festgestellt worden ist.
  • Im Gegensatz zum Stand der Technik unterscheidet sich die vorliegende Erfindung dadurch, dass eine Objektselektion nicht auf einem Betriebszustand des Egofahrzeuges basiert. Die Auswahl von verdeckten Objekten kann immer geschehen und ist unabhängig davon, ob sich das Egofahrzeug in einer Folgefahrt befindet oder nicht. Darüber hinaus umfasst die vorliegende Erfindung eine Art Interaktionsbewertung zwischen den Bewegungen der Objekte, die insbesondere dazu führt, dass auch kritische Fahrsituationen abgedeckt werden, wie z. B. die Selektion von Objekten, die zwar von optischen Sensoren (Lidar, Kamera) detektiert wurden, aber nicht vom Radarsensor erkannt wurden, und die Selektion von Objekten, die sich nicht in der Fahrspur des Egofahrzeuges befinden.
  • Vorzugsweise wird anhand einer historischen Bewegung des ersten Objekts eine hypothetische Trajektorie des ersten Objekts ermittelt bzw. bestimmt, d. h. die Trajektorie, der das erste Objekt wahrscheinlich folgen würde, wenn es keine Fahrtänderung entlang der Fahrttrajektorie des ersten Objekts vornehmen würde. Hierzu wird die Bewegung des ersten Objekts (Geschwindigkeit, Beschleunigung, Bewegungsrichtung und dergleichen) über eine Zeitdauer hinweg beobachtet und z. B. in einem Speicher hinterlegt. Diese hypothetische Trajektorie kann dann neben der aktuellen Fahrttrajektorie abgespeichert werden, was dazu dient, den ursprünglichen wahrscheinlichen Fahrtverlauf mit dem aktuellen Fahrtverlauf (entlang der Fahrttrajektorie des ersten Objekts) zu vergleichen. In anderen Worten wird der zukünftige reale Bewegungsverlauf des ersten Objekts entlang der Fahrttrajektorie (= Fahrttrajektorie des ersten Objekts) sowie der hypothetische Bewegungsverlauf des ersten Objekts, wenn das erste Objekt der bisherigen Bewegung folgen würde (= hypothetische Trajektorie des ersten Objekts) verglichen. Dadurch kann sehr gut ermittelt werden, ob mit der aktuellen Fahrttrajektorie eine Richtungs- und/oder Geschwindigkeitsänderung einhergeht, die gegebenenfalls auf eine Interaktion mit einem anderen Objekt zurückzuführen ist und ob z. B. durch die Fahrtänderung eine Gefährdungssituation vermieden/abgeschwächt wird.
  • In vorteilhafter Weise kann somit die hypothetische Trajektorie zur Bewertung der Interaktion zwischen erstem und zweitem Objekt herangezogen werden, indem eine Interaktion angenommen wird, wenn durch das Folgen der hypothetischen Trajektorie bzw. das erste Objekt der hypothetischen Trajektorie folgt eine Gefahrensituation (z. B. eine Kollision) zwischen erstem und zweitem Objekt entstehen würde.
  • Erfindungsgemäß wird anhand der Bewegung des zweiten Objekts auch eine Trajektorie des zweiten Objekts bestimmt, die ebenfalls zur Bewertung einer Interaktion zwischen erstem und zweitem Objekt herangezogen werden kann. Beispielsweise kann eine Bremsung des zweiten Objekts ermittelt werden, was eine erfasste Ausweichbewegung des ersten Objekts bzw. eine Fahrttrajektorie des ersten Objekts, welche ein Überholmanöver anzeigt, plausibilisieren würde.
  • Vorzugsweise handelt es sich bei dem ersten und zweiten Umfeldsensor um Sensoren mit unterschiedlichem Messprinzip und/oder unterschiedlichen Messparametern. Beispielsweise kann als erster Umfeldsensor ein Radarsensor und als zweiter Umfeldsensor ein bildgebender Sensor, wie eine Kamera, vorgesehen sein. Die unterschiedlichen Messprinzipien garantieren hierbei eine gewisse Redundanz und können erfasste Objekte auch bestätigen, z. B. wenn beide Sensoren das gleiche Objekt erfassen. Beispielsweise würde in einem Szenario, bei dem ein Egofahrzeug einem vorausfahrenden ersten Fahrzeug folgt, welches ebenfalls einem vorausfahrenden zweiten Fahrzeug folgt, das erste Fahrzeug von einem Radarsensor und von einer Kamera des Egofahrzeuges erfasst bzw. detektiert. Das zweite Fahrzeug würde jedoch nur von dem Radarsensor und nicht von der Kamera erfasst, da das zweite Fahrzeug durch das erste Fahrzeug verdeckt würde, was die Kamerasicht wesentlich beeinträchtigt, die Radardetektion jedoch nicht in gleichem Maße. Darüber hinaus sind explizit sämtliche Sensorkombinationen von erstem und zweitem Umfeldsensor denkbar. Zudem können auch Umfeldsensoren mit gleichem Messprinzip aber unterschiedlichen Messparametern vorgesehen sein. Darüber hinaus können auch weitere Umfeldsensoren vorgesehen sein, deren Sensordaten zur Objektselektion herangezogen werden.
  • Zweckmäßigerweise kann eine Interaktion immer für ein Objektpaar, umfassend ein bestätigtes Objekt, welches von mindestens zwei Umfeldsensoren erfasst wurde, und ein unbestätigtes Objekt, welches von nur einem Umfeldsensor erfasst wurde, bestimmt werden. Durch dieses paarweise Vorgehen kann eine Interaktion in besonders einfacher und sicherer Weise durchgeführt werden.
  • Ferner können Fahrdynamikparameter der Fahrzeuge bzw. Objekte herangezogen werden, um deren Bewegung und/oder Fahrttrajektorie und/oder hypothetische Trajektorie zu bestimmen. Der Begriff „Vehicle Dynamics“ (VDY) oder „Fahrdynamik“ umfasst im Sinne der Erfindung die Bewegung von Fahrzeugen und die Ermittlung von deren Parametern bzw. Fahrdynamikparametern, wie z. B. Weg, Zeit, Geschwindigkeit, Beschleunigung, Energieaufwand, Erwärmung von Motoren, Antriebskräfte, Leistungen, Bewegungswiderstände, zu befördernde Anhängelasten sowie Wirkungsgrade. Hierbei handelt es sich ausdrücklich um eine nicht abschließende Aufzählung, wobei die Erfindung die Verwendung sämtlicher aus dem Stand der Technik bekannter Fahrdynamikparameter umfasst. Die Ermittlung derartiger Parameter basiert dabei auf technische, mechanische, physikalische, mathematische und statistische Grundlagen. Die Erfassung derartiger Fahrdynamikparameter ist aus dem Stand der Technik hinreichend bekannt. Beispielsweise kann die Erfassung von den Fahrdynamikparametern der Objekte anhand von bekannten Berechnungs- und Detektionsmethoden anhand von Sensordaten der Umfeldsensoren erfolgen oder auch über eine Car-2-Car-bzw. Car-2-X-Kommunikation übermittelt werden. Fahrdynamikparameter des Egofahrzeuges, die ebenfalls in die Trajektorienermittlung eingehen können, können z. B. mittels geeigneter Sensorik erfasst werden, wie z. B. anhand von Lenkradwinkelsensor, Beschleunigungssensoren, Gierratensensor, Geschwindigkeitsmesser, Schwimmwinkelsensoren, Optische Abstands-sensoren, GPS / DGPS basierte Messsysteme (Positionsmessung) oder Trägheitsnavigationssysteme, um z. B. die Längs-, Quer- oder Hubbewegung, das Gieren, Nicken oder Wanken oder Schwingungen (Translations- und Rotationsschwingung) zu erfassen.
  • Gemäß einer bevorzugten Ausgestaltung der Erfindung kann das Verfahren folgende Verfahrensschritte umfassen: das Erfassen und Verfolgen von Objekten durch die Umfeldsensoren, das Bewerten der erfassten Objekte in Hinblick auf Interaktionen zwischen diesen Objekten (Interaktionsbewertung) und die Auswahl bzw. Selektion von Objekten aus den erfassten Objekten anhand der Interaktionsbewertung.
  • Ferner kann das Verfahren den Verfahrensschritt einer Sensorfusion umfassen, bei dem die erfassten Objekte einzelner Umfeldsensoren in einem gemeinsamen Umfeldmodell erfasst bzw. deren Daten fusioniert werden. Als Sensorfusion oder Sensordatenfusion wird dabei insbesondere die Verknüpfung der Ausgabedaten der unterschiedlichen Sensoren bezeichnet, wodurch die Informationsqualität der Objektdaten verbessert und die die Objektklassifikation und Detektionsleistung des Sensorsystems erhöht werden kann.
  • Nebengeordnet umfasst die vorliegende Erfindung auch ein Assistenzsystem für ein Egofahrzeug, welches zur unterstützenden oder automatisierten Fahrzeugführung des Egofahrzeuges Objekte im Umfeld des Egofahrzeuges erfasst und eine Objektauswahl bzw. Objektselektion durchführt. Das Assistenzsystem umfasst hierzu eine Steuereinrichtung und mindesten zwei Umfeldsensoren zur Umfeld- und Objekterfassung (z. B. Radarsensor, Lidarsensor, Kamera und/oder Ultraschallsensor). Die Steuereinrichtung ist dabei dazu hergerichtet ist, die Objektauswahl nach dem erfindungsgemäßen Verfahren durchzuführen. Hierbei werden die durch die Umfeldsensoren erfassten Objekte, zunächst in Hinblick auf ihre Interaktion bewertet, indem ein erstes Objekt vom ersten und vom zweiten Umfeldsensor erfasst wurde und ein zweites Objekt vom ersten, nicht jedoch vom zweiten Umfeldsensor erfasst wurde. Anhand einer Bewegung des ersten Objekts wird dann eine Fahrttrajektorie des ersten Objekts bestimmt, wobei eine Interaktion zwischen erstem und zweitem Objekt angenommen wird, wenn die Fahrttrajektorie des ersten Objekts eine Gefahrensituation mit dem zweiten Objekt umgeht oder verhindert. Beispielsweise indem die Fahrttrajektorie des vorausfahrenden Fahrzeuges bzw. des ersten Objekts eine Kollision mit dem zweiten Objekt verhindert, indem es diesem ausweicht. Das zweite Objekt wird dann als für die jeweilige Fahrfunktion des Assistenzsystems relevantes Objekt ausgewählt, wenn eine Interaktion zwischen erstem und zweitem Objekt vorliegt.
  • Ferner kann die Steuereinrichtung des Assistenzsystems einen Computer, Prozessor, Controller, Rechner oder dergleichen umfassen, um das erfindungsgemäße Verfahren durchzuführen. Dabei kann ein Computerprogramm mit Programmcode zur Durchführung des erfindungsgemäßen Verfahrens vorgesehen sein, dass wenn das Computerprogramm auf einem Computer oder einem sonstigen aus dem Stand der Technik bekannten programmierbaren Rechner ausgeführt wird. Dementsprechend kann das Verfahren auch in bestehenden Systemen als computerimplementiertes Verfahren ausgeführt bzw. nachgerüstet werden. Der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung beschreibt dabei die Ablaufplanung oder Vorgehensweise, welche anhand des Computers verwirklicht bzw. durchgeführt wird. Der Computer kann dabei mittels programmierbarer Rechenvorschriften die Daten verarbeiten. In Bezug auf das Verfahren können somit auch wesentliche Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen nachträglich implementiert werden. Der Computer kann dabei als Steuereinrichtung oder als Teil der Steuereinrichtung (z. B. als IC (Integrated Circuit)-Baustein, Mikrocontroller oder System-on-Chip (SoC)) ausgestaltet sein.
  • Beschreibung der Erfindung anhand von Ausführungsbeispielen
  • Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher erläutert. Es zeigen:
    • 1 eine stark vereinfachte schematische Darstellung eines Egofahrzeuges mit erfindungsgemäßem Assistenzsystem;
    • 2 eine vereinfachte Darstellung einer Verkehrsszene, bei der ein Egofahrzeug einem vorausfahrenden Fahrzeug folgt und sich ein weiteres Fahrzeug vor dem vorausfahrenden Fahrzeug befindet;
    • 3 eine vereinfachte schematische Darstellung einer Ausgestaltung des erfindungsgemäßen Verfahrensablaufs, sowie
    • 4 eine vereinfachte Darstellung einer Verkehrsszene, bei der ein Egofahrzeug einem vorausfahrenden Fahrzeug folgt und sich ein weiteres Fahrzeug vor dem vorausfahrenden Fahrzeug befindet und nah an einer Leitplanke positioniert ist.
  • Bezugsziffer 1 in 1 bezeichnet ein Fahrzeug bzw. Egofahrzeug, welches eine Steuereinrichtung 2 (ECU, Electronic Control Unit oder ADCU, Assisted and Automated Driving Control Unit) verschiedene Aktoren (Lenkung 3, Motor 4, Bremse 5) sowie Sensoren zur Umfelderfassung (Radarsensor 6, Kamera 7, Lidarsensor 8 sowie Ultraschallsensoren 9a-9d) aufweist. Das Egofahrzeug 1 kann dabei (teil-) automatisiert gesteuert werden, indem die Steuereinrichtung 2 auf die Aktoren und die Sensoren bzw. deren Sensordaten zugreifen kann. Im Bereich des assistierten bzw. (teil-) automatisierten Fahrens können die Sensordaten zur Umfeld- und Objekterkennung genutzt werden, sodass verschiedene Assistenzfunktionen, wie z. B. Abstandsfolgeregelung (ACC, Adaptive Cruise Control), Notbremsassistent (EBA, Electronic Brake Assist), Spurhalteregelung bzw. ein Spurhalteassistent (LKA, Lane Keep Assist), Parkassistent oder dergleichen, über die Steuereinrichtung 2 bzw. dem dort hinterlegten Algorithmus realisierbar sind.
  • In 2 ist eine typische Verkehrssituation gezeigt, bei der das Egofahrzeug einem vorausfahrenden ersten Objekt bzw. Fahrzeug T1 folgt. Das vorausfahrende Fahrzeug T1 kann durch die nach vorne gerichteten Sensoren: Radarsensor 6, Kamera 7 und Lidar 8 erfasst werden, während ein zweites Objekt bzw. das Fahrzeug T2 vor dem vorausfahrenden Fahrzeug T1 nur durch den Radarsensor 6, nicht aber durch den Lidar 7 oder die Kamera 8 erfasst werden kann, da die direkte Sichtlinie durch den Vorausfahrer T1 blockiert ist. Oftmals werden Objekte in herkömmlichen Multisensorsystemen für eine Fahrfunktion zwar erst dann als relevant ausgewählt, wenn Sie mindestens von zwei Sensoren erkannt wurden. Diese Strategie kann jedoch dazu führen, dass das verdeckte Objekt nicht als regelungsrelevantes Objekt ausgewählt wird und die Fahrfunktion die entsprechende Situation nicht adäquat behandelt bzw. zu spät ausführt. Beispielsweise wenn das vorausfahrende Fahrzeug T1 die Spur wechselt (dargestellt anhand des schwarzen Pfeils, der die Fahrttrajektorie von Fahrzeug T1 zeigt) und das ACC-System rechtzeitig auf das vor dem vorausfahrenden Fahrzeug T1 stehende Fahrzeug T2 reagieren muss. In Abhängigkeit der gewählten Geschwindigkeiten für das Egofahrzeug und dem vorausfahrenden Fahrzeug T1 kann es jedoch sein, dass eine Reaktion bereits erfolgen muss, während das stehende Fahrzeug T2 teilweise noch durch das vorausfahrende Fahrzeug T1 verdeckt ist.
  • Erfindungsgemäß wird die Bewegungen der von mehreren Umfeldsensoren detektierten Objekte als zusätzliches Entscheidungskriterium herangezogen, um Objekte auch dann als relevant für die Fahrfunktion zu selektieren, wenn sie nur von einem Umfeldsensor erkannt wurden bzw. erfasst werden konnten. In diesem Sinne sollten unter bestimmten Bedingungen die beobachtbaren Bewegungen, als zweite Bestätigung für die tatsächliche Existenz von verdeckten Objekten dienen. Dadurch können falsche Objektselektionen (z. B. Geisterziele) weithin reduziert werden, während Reaktionen in Fahrsituationen, die die Auswahl eines verdeckten Objektes erfordern, frühzeitiger ausgelöst werden können.
  • In 3 ist eine Ausgestaltung eines möglichen Verfahrensablaufs des erfindungsgemäßen Verfahrens gezeigt. Im ersten Schritt erfolgt zunächst die Umfelderfassung, welche das Erfassen bzw. Detektieren von Objekten durch die einzelnen Umfeldsensoren des Fahrzeugs (Radarsensor 6, Kamera 7, Lidarsensor 8 sowie Ultraschallsensoren 9a-9d) und das anschließende Tracking bzw. Verfolgen der erfassten Objekte (Schritt I), um die Bewegung des Objekts zu erfassen.
  • Optional kann daran anschließend eine Sensorfusion (Schritt II) erfolgen, wobei die erfassten Objekte der einzelnen Sensoren in einem gemeinsamen Modell bzw. Umfeldmodell zusammengeführt werden, d. h. die erfassten Sensordaten der einzelnen Umfeldsensoren werden in einem Modell zusammengefasst, um die Objekterfassung und Objektverfolgung zu verbessern.
  • An einen der ersten beiden Schritte schließt sich dann die Bewertung der Interaktion der Objekte bzw. eine Interaktionsbewertung (Schritt III) an, bei der bewertet wird, ob die beobachte Bewegung eines Objektes die direkte Reaktion auf ein unbestätigtes Objekt ist. In diesem Schritt werden Objektpaare untersucht, die ein bestätigtes erstes Objekt (Fahrzeug T1), welches von mehreren Sensoren detektiert wurde (z. B. vom Radarsensor 6 und von Kamera 7 und Lidar 8), und ein unbestätigtes zweites Objekt (Fahrzeug T2), welches nur von einem Sensor detektiert wurde (z. B. nur vom Radarsensor 6), umfassen. Ziel ist es dabei, für ein Objektpaar (Fahrzeug T1, Fahrzeug T2) eine hohe Interaktionsbewertung (d. h. es liegt eine Interaktion vor) auszugeben, wenn z. B. die Bewegung vom bestätigten ersten Objekt bzw. Fahrzeug T1 direkt durch die Existenz des unbestätigten zweiten Objekts bzw. Fahrzeug T2 beeinflusst ist. Zunächst wird dazu die bisher beobachtete Trajektorie des bestätigten Objekts bzw. Fahrzeuges T2 herangezogen und in die nahe Zukunft prädiziert (dies kann mit bekannten Methoden zur Trajektorienprädiktion bzw. Trajektorienschätzung erfolgen). Dieser Schritt kann auch durch den Einsatz von Manöverdetektoren (Brems-, Beschleunigungs-, Spurwechseldetektoren) unterstützt werden. In gleicher Weise kann auch die Trajektorie des unbestätigten Objektes bzw. Fahrzeuges T2 geschätzt werden. Anschließend wird bewertet, ob die so geschätzte Trajektorie des Fahrzeuges T1 eine Gefahrensituation, z. B. eine Kollision mit Fahrzeug T2 oder der Trajektorie von Fahrzeug T2, innerhalb eines gewählten Prädiktionshorizontes verhindert wird. Zur Durchführung dieser Bewertung kann auch die hypothetische Trajektorie des bestätigten Objektes bzw. Fahrzeug T1 benutzt werden, bei der das Fahrzeug T1 sein aktuelles Manöver (Bremsen, Beschleunigen, Spurwechsel) nicht durchführt und stattdessen ohne Geschwindigkeitsänderung die Spur hält. Führt diese hypothetische Trajektorie zu einer Kollision zwischen dem bestätigten Objekt und dem unbestätigten Objekt bzw. zwischen Fahrzeug T1 und Fahrzeug T2, während die beobachtete und prädizierte Trajektorie (wahrscheinlich) kollisionsfrei ist, so führt das Objektpaar (Fahrzeug T1, Fahrzeug T2) zu einer positiven Interaktionsbewertung (d. h. es liegt eine Interaktion zwischen Fahrzeug T1 und Fahrzeug T2 vor).
  • Daran anschließend folgt eine Selektion der Objekte bzw. Objektselektion (Schritt IV) für die jeweilige Fahrfunktion unter Berücksichtigung der Interaktionsbewertung, wobei die relevanten Objekte für die gewählte Fahrfunktion selektiert werden. Während bei bisherigen Verfahren nur die von mehreren Sensoren bestätigten Objekte ausgewählt wurden, werden durch diese Abfolge nun auch Objekte ausgewählt werden, die nur von einem Sensor detektiert wurden, aber über eine ausreichende Interaktionsbewertung verfügen, d. h. miteinander interagieren.
  • Ferner ist insbesondere darauf hinzuweisen, dass die Erfindung nicht nur die Selektion von Objekten ermöglicht, die zwar ein Radarsensor erkennen kann, aber für andere optische Sensoren (wie z. B. Lidar oder Kamera) verdeckt sind. Es gibt ebenso Fahrsituationen, die von Kameras erfasst werden können, aber für einen Radarsensor nur schwer erkennbar sind. In 4 ist ein Beispiel einer derartigen Verkehrssituation gezeigt, bei der sich das stehende Fahrzeug T2 so nah an der Leitplanke am rechten Fahrbahnrand befindet, dass es vom Radarsensor nicht als einzelnes Fahrzeug erkannt wird. Ein optischer Sensor (z. B. Kamera oder Lidar) ist jedoch in der Lage das Fahrzeug T2 zu erkennen, da es eine direkte Sichtlinie gibt. Das Fahrzeug T1 vollzieht dabei einen Spurwechsel (angezeigt durch den schwarzen Pfeil, der die aktuelle Fahrttrajektorie des Fahrzeuges T1 zeigt), um eine Kollision mit Fahrzeug T2 zu verhindern. Diese Verkehrssituation wird von der vorliegenden Erfindung erkannt und als zusätzliche Evidenz für die tatsächliche Existenz des Fahrzeuges T2 herangezogen. Somit kann Fahrzeug T2 für verschiedene Fahrfunktionen mit höherer Konfidenz verwendet werden. Beispielsweise im Rahmen einer Verhinderung eines halbautomatischen Spurwechsels (SALC) oder beim Abbremsen des Egofahrzeugs im Falle eines Egospurwechsels nach rechts (ACC, EBA).

Claims (9)

  1. Verfahren zur Objektauswahl für ein Assistenzsystem eines Egofahrzeuges (1), bei dem das Egofahrzeug (1) eine Steuereinrichtung (2) und mindestens zwei Umfeldsensoren zur Umfeld- und Objekterfassung umfasst, wobei die durch die Umfeldsensoren erfassten Objekte, zunächst in Hinblick auf ihre Interaktion bewertet werden, wobei eine Interaktion zwischen einem ersten Objekt, welches von mindestens zwei Umfeldsensoren erfasst wurde, und einem zweiten Objekt, welches von nur einem Umfeldsensor erfasst wurde, bestimmt wird, indem anhand einer Bewegung des ersten Objekts eine Fahrttrajektorie des ersten Objekts ermittelt wird, und eine Interaktion zwischen erstem und zweitem Objekt angenommen wird, wenn eine Gefahrensituation mit dem zweiten Objekt durch die Fahrttrajektorie des ersten Objekts vermieden oder verringert wird, wobei das zweite Objekt als relevantes Objekt ausgewählt wird, wenn eine Interaktion zwischen erstem und zweitem Objekt vorliegt, wobei anhand der Bewegung des zweiten Objekts eine zukünftige Trajektorie des zweiten Objekts bestimmt wird, die zur Bewertung einer Interaktion zwischen erstem und zweitem Objekt herangezogen wird, und eine Interaktion angenommen wird, wenn durch das Folgen der zukünftigen Trajektorie des zweiten Objekts eine Gefahrensituation zwischen erstem und zweitem Objekt vermieden wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass anhand einer historischen Bewegung des ersten Objekts eine hypothetische Trajektorie des ersten Objekts ermittelt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die hypothetische Trajektorie zur Bewertung der Interaktion zwischen erstem und zweitem Objekt herangezogen wird, indem eine Interaktion angenommen wird, wenn durch das Folgen der hypothetischen Trajektorie eine Gefahrensituation zwischen erstem und zweitem Objekt entstehen würde.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es sich bei dem ersten und zweiten Umfeldsensor um Sensoren mit unterschiedlichem Messprinzip handelt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Interaktion immer für ein Objektpaar, umfassend ein bestätigtes Objekt, welches von mindestens zwei Umfeldsensoren erfasst wurde, und ein unbestätigtes Objekt, welches von nur einem Umfeldsensor erfasst wurde, bestimmt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Fahrdynamikparameter der Objekte herangezogen werden, um deren Bewegung und/oder Fahrttrajektorie und/oder hypothetische Trajektorie zu bestimmen.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren durch folgende Verfahrensschritte gekennzeichnet ist: - Erfassen von Objekten durch die Umfeldsensoren (Schritt I), - Bewerten von Interaktionen der erfassten Objekte (Schritt III), und - Auswahl von Objekten aus den erfassten Objekten anhand der Interaktionsbewertung (Schritt IV).
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Verfahren ferner den Verfahrensschritt einer Sensorfusion (Schritt II) umfasst, bei dem die erfassten Objekte einzelner Umfeldsensoren in einem gemeinsamen Umfeldmodell erfasst werden.
  9. Assistenzsystem für ein Egofahrzeug (1), welches zur unterstützenden oder automatisierten Fahrzeugführung des Egofahrzeuges (1) Objekte im Umfeld des erfasst Egofahrzeuges (1) und eine Objektauswahl durchführt, umfassend eine Steuereinrichtung (2), und mindesten zwei Umfeldsensoren zur Umfeld- und Objekterfassung, dadurch gekennzeichnet, dass die Steuereinrichtung (2) dazu hergerichtet ist, die Objektauswahl nach einem Verfahrens gemäß einem der vorhergehenden Ansprüche durchzuführen.
DE102022207768.7A 2022-07-28 2022-07-28 Verfahren zur Objektauswahl für ein Assistenzsystem sowie Assistenzsystem Active DE102022207768B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022207768.7A DE102022207768B3 (de) 2022-07-28 2022-07-28 Verfahren zur Objektauswahl für ein Assistenzsystem sowie Assistenzsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022207768.7A DE102022207768B3 (de) 2022-07-28 2022-07-28 Verfahren zur Objektauswahl für ein Assistenzsystem sowie Assistenzsystem

Publications (1)

Publication Number Publication Date
DE102022207768B3 true DE102022207768B3 (de) 2023-11-02

Family

ID=88306937

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022207768.7A Active DE102022207768B3 (de) 2022-07-28 2022-07-28 Verfahren zur Objektauswahl für ein Assistenzsystem sowie Assistenzsystem

Country Status (1)

Country Link
DE (1) DE102022207768B3 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2013052B1 (de) 2006-05-03 2011-03-02 ADC Automotive Distance Control Systems GmbH Verfahren zur geschwindigkeitsregelung eines fahrzeugs in einer komplexen verkehrssituation
DE102010003375A1 (de) 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102012222301A1 (de) 2011-12-09 2013-06-13 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und System zum Steuern eines Host-Fahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2013052B1 (de) 2006-05-03 2011-03-02 ADC Automotive Distance Control Systems GmbH Verfahren zur geschwindigkeitsregelung eines fahrzeugs in einer komplexen verkehrssituation
DE102010003375A1 (de) 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102012222301A1 (de) 2011-12-09 2013-06-13 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und System zum Steuern eines Host-Fahrzeugs

Similar Documents

Publication Publication Date Title
DE102012222301B4 (de) Verfahren zum Steuern eines Host-Fahrzeugs
EP2240354B1 (de) Vorrichtung, verfahren und computerprogramm zur kollisionsvermeidung oder zur verminderung der kollisionsschwere infolge einer kollision für fahrzeuge, insbesondere nutzfahrzeuge
DE102009017152B4 (de) Verfahren und Vorrichtung zur Längs- und Querführung eines Kraftfahrzeugs
EP2404195B1 (de) Verfahren zur automatischen erkennung eines fahrmanövers eines kraftfahrzeugs und ein dieses verfahren umfassendes fahrerassistenzsystem
EP2771227B1 (de) Verfahren zum führen eines fahrzeugs und fahrerassistenzsystem
EP1852325B1 (de) Verfahren zur Folgeregelung für ein Kraftfahrzeug
EP2464992B1 (de) Kollisionsüberwachung für ein kraftfahrzeug
DE10159658A1 (de) System zur automatischen Folgeführung eines Kraftfahrzeugs
EP2234864A1 (de) Fahrerassistenzsystem und verfahren zur unterstützung des fahrers eines fahrzeugs beim halten einer durch fahrspurmarkierungen begrenzten fahrspur
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102020112686A1 (de) Adaptives autonomes Notbremssystem unter Berücksichtigung des Lenkwegs und Steuerverfahren für selbiges
DE102009058035A1 (de) Verfahren und Vorrichtung zum Betrieb eines Fahrerassistenzsystems eines Fahrzeuges
DE102018130243A1 (de) Erweitertes Szenario für Autobahnassistenten
DE102016000185A1 (de) Steuerungs-System und Verfahren zum Ermitteln einer Fahrspur eines nachfolgenden Kraftfahrzeugs
DE102020102595A1 (de) Verfahren zur Überwachung einer elektrischen Lenkeinrichtung
DE102011084549A1 (de) Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs bei einem Ausparkvorgang aus einer Querparklücke
DE102017205495A1 (de) Vorrichtung und Verfahren zum Fokussieren von Sensoren im fahrdynamischen Grenzbereich für ein Kraftfahrzeug
DE102011077975A1 (de) Fahrerassistenzsystem für ein Kraftfahrzeug bestehend aus einem abstandsbezogenen Fahrgeschwindigkeitsregelsystem und aus einem Engstellenassistenzsystem
DE102010003375B4 (de) Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102013003219A1 (de) Unterstützung eines Fahrers eines Kraftfahrzeugs beim Fahren auf einer Überholspur einer zumindest zweispurigen Straße
DE102019217723A1 (de) Fahrsicherheits-steuersystem unter verwendung von umgebungsgeräuschen und steuerverfahren dafür
WO2020052840A1 (de) Verfahren und vorrichtung zum betrieb eines zumindest teilweise automatisiert betriebenen ersten fahrzeugs
WO2020083551A1 (de) Verfahren zum zumindest teilautomatisierten führen eines kraftfahrzeugs
DE102020103753A1 (de) Verfahren und Fahrsystem zum automatischen Bilden einer Rettungsgasse
DE102022207768B3 (de) Verfahren zur Objektauswahl für ein Assistenzsystem sowie Assistenzsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division