DE102022116054A1 - Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten - Google Patents

Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten Download PDF

Info

Publication number
DE102022116054A1
DE102022116054A1 DE102022116054.8A DE102022116054A DE102022116054A1 DE 102022116054 A1 DE102022116054 A1 DE 102022116054A1 DE 102022116054 A DE102022116054 A DE 102022116054A DE 102022116054 A1 DE102022116054 A1 DE 102022116054A1
Authority
DE
Germany
Prior art keywords
objects
grid
cell
vehicle
occupancy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022116054.8A
Other languages
English (en)
Inventor
Daniel Meissner
Sascha Steyer
Dominik Kellner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022116054.8A priority Critical patent/DE102022116054A1/de
Publication of DE102022116054A1 publication Critical patent/DE102022116054A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird eine Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten in einem Umfeld eines Fahrzeugs beschrieben. Die Vorrichtung ist eingerichtet, auf Basis von Sensordaten einer Vielzahl von Umfeldsensoren des Fahrzeugs unter Verwendung einer Fusionseinheit eine fusionierte Menge von Objekten in dem Umfeld des Fahrzeugs zu ermitteln, sowie auf Basis der Sensordaten der Vielzahl von Umfeldsensoren des Fahrzeugs ein Belegungsraster des Umfelds des Fahrzeugs zu ermitteln. Die Vorrichtung ist ferner eingerichtet, zumindest ein erstes Objekt aus der fusionierten Menge von Objekten mit einem Zellcluster aus ein oder mehreren Rasterzellen des Belegungsrasters zu assoziieren, und Objektinformation für das erste Objekt auf Basis des mit dem ersten Objekt assoziierten Zellclusters zu aktualisieren.

Description

  • Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Umfeld-Objekten im Umfeld eines Fahrzeugs, etwa im Rahmen einer Fahrfunktion zum zumindest teilweise automatisierten Fahren.
  • Ein Fahrzeug kann zumindest eine Fahrfunktion aufweisen, die ausgebildet ist, eine zumindest teilweise oder vollständig automatisierte Längs- und/oder Querführung des Fahrzeugs zu bewirken. Zu diesem Zweck können die Sensordaten von unterschiedlichen Umfeldsensoren des Fahrzeugs fusioniert werden, um eine Menge von Objekten im Umfeld des Fahrzeugs zu detektieren. Die Längs- und/oder Querführung des Fahrzeugs kann dann in sicherer Weise unter Berücksichtigung der detektierten Menge von Objekten bewirkt werden.
  • Das vorliegende Dokument befasst sich mit der technischen Aufgabe, eine besonders präzise Erkennung und/oder Nachverfolgung von ein oder mehreren Umfeld-Objekten zu ermöglichen.
  • Die Aufgabe wird durch jeden der unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.
  • Gemäß einem Aspekt wird eine Vorrichtung zur Erkennung und/oder zur Nachverfolgung von (Umfeld-) Objekten in einem Umfeld eines (Kraft-) Fahrzeugs beschrieben. Die erkannten Objekte können bei dem Betrieb einer Fahrfunktion des Fahrzeugs berücksichtigt werden.
  • Das Fahrzeug umfasst eine Vielzahl von Umfeldsensoren, die jeweils eingerichtet sind, Sensordaten in Bezug auf das Umfeld des Fahrzeugs zu erfassen. Beispielhafte Umfeldsensoren sind: ein oder mehrere Radarsensoren, ein oder mehrere Lidarsensoren, ein oder mehrere Kameras, ein oder mehrere Ultraschallsensoren, etc. Die Umfeldsensoren können sich in Bezug auf das Messprinzip des jeweiligen Umfeldsensors und/oder in Bezug auf den Erfassungsbereich des jeweiligen Umfeldsensors unterscheiden.
  • Die Vorrichtung ist eingerichtet, auf Basis der Sensordaten der Vielzahl von Umfeldsensoren des Fahrzeugs unter Verwendung einer Fusionseinheit eine fusionierte Menge von Objekten in dem Umfeld des Fahrzeugs zu ermitteln. Dabei kann für jedes Objekt Objektinformation ermittelt werden. Die Objektinformation für ein Objekt kann z.B. umfassen: die Position des Objekts; die räumliche Ausdehnung des Objekts; die Kontur des Objektes; die Bewegungsrichtung des Objekts; die Orientierung des Objekts und/oder die Bewegungsgeschwindigkeit des Objekts.
  • Die Vorrichtung kann insbesondere eingerichtet sein, die Sensordaten der Vielzahl von Umfeldsensoren anhand einer entsprechenden Vielzahl von Einzel-Objekterkennungseinheiten (in denen jeweils eine Einzel-Erkennungsmethode ausgeführt wird) auszuwerten, um eine entsprechende Vielzahl von Einzel-Mengen von Objekten zu ermitteln. Die Vielzahl von Einzel-Mengen von Objekten kann dann unter Verwendung der Fusionseinheit fusioniert werden, um die fusionierte Menge von Objekten zu ermitteln.
  • Die Sensordaten der einzelnen Umfeldsensoren können somit separat voneinander ausgewertet werden. Zu diesem Zweck kann jeweils eine Einzel-Erkennungsmethode verwendet werden, um auf Basis der Sensordaten eines (einzelnen) Umfeldsensors eine Einzel-Menge von Umfeld-Objekten zu detektieren und/oder nachzuverfolgen.
  • Typischerweise kann durch eine Fusion der Sensordaten der Vielzahl von Umfeldsensoren die Güte (z.B. die Genauigkeit, die Robustheit, die Erkennungsrate, etc.) der Objekterkennung erhöht werden. Dabei kann die Fusion auf Basis der Vielzahl von Einzel-Mengen von Objekten erfolgen, die (jeweils dediziert und/oder separat) auf Basis der Sensordaten der entsprechenden Vielzahl von Umfeldsensoren ermittelt wurden.
  • Die Vorrichtung kann ferner eingerichtet sein, die Sensordaten der Vielzahl von Umfeldsensoren unter Verwendung der Fusionseinheit auszuwerten, um für die ein oder mehreren Objekte der fusionierten Menge von Objekten jeweils Objektinformation zu ermitteln.
  • Des Weiteren ist die Vorrichtung eingerichtet, auf Basis der (gleichen) Sensordaten der Vielzahl von Umfeldsensoren des Fahrzeugs ein Belegungsraster des Umfelds des Fahrzeugs zu ermitteln. Das Belegungsraster umfasst typischerweise eine Vielzahl von Rasterzellen, zur Unterteilung des Umfelds des Fahrzeugs in einzelne Rasterzellen. Eine Rasterzelle kann z.B. Kantenlängen von 1 Meter oder weniger aufweisen.
  • Das Belegungsraster (auf Englisch das occupancy grid) kann typischerweise derart (auf Basis der Sensordaten der Vielzahl von Umfeldsensoren) ermittelt werden, die die einzelnen Rasterzellen jeweils Zellinformation in Bezug auf die Belegung der Rasterzelle mit einem Objekt anzeigen. Mit anderen Worten, die Vorrichtung kann eingerichtet sein, im Rahmen der Ermittlung des Belegungsraster des Umfelds des Fahrzeugs für jede Zelle des Belegungsrasters jeweils Zellinformation zu ermitteln. Die Zellinformation für eine Rasterzelle kann anzeigen: die Belegungswahrscheinlichkeit der Rasterzelle durch ein statisches und/oder durch ein dynamisches Objekt; eine mit der Rasterzelle assoziierte Bewegungsgeschwindigkeit und/oder eine mit der Rasterzelle assoziierte Bewegungsrichtung.
  • Des Weiteren ist die Vorrichtung eingerichtet, zumindest ein erstes Objekt aus der fusionierten Menge von Objekten mit einem Zellcluster aus ein oder mehreren Rasterzellen des Belegungsrasters zu assoziieren. Die Assoziierung kann dabei in Abhängigkeit von einem Ähnlichkeitsmaß ermittelt werden, wobei das Ähnlichkeitsmaß z.B. abhängig ist von,
    • • der Ähnlichkeit der räumlichen Position des ersten Objektes und des Zellclusters;
    • • der Ähnlichkeit der Bewegungsgeschwindigkeit des ersten Objektes und des Zellclusters; und/oder
    • • der Ähnlichkeit der Bewegungsrichtung des ersten Objektes und des Zellclusters.
  • Es kann ein Zellcluster ermittelt werden, das einen möglichst hohen Wert des Ähnlichkeitsmaßes mit dem ersten Objekt aufweist.
  • In entsprechender Weise kann für mehrere, insbesondere für alle, Objekte der fusionierten Menge von Objekten ein damit assoziiertes Zellcluster ermittelt werden. Ein Zellcluster kann dabei eine beliebige Form aufweisen (die von einer Bounding Box abweichen kann). Insbesondere kann ein Zellcluster eine von einem Rechteck oder von einem Quader abweichende Form aufweisen. Beispielsweise kann ein Zellcluster eine (beliebige) Liste von Rasterzellen umfassen, die durch die Koordinaten innerhalb des Belegungsrasters identifiziert sind (und nicht durch eine Bounding Box).
  • Es können somit für ein oder mehrere Objekte aus der fusionierten Menge von Objekten jeweils genau die Zellen des Belegungsrasters identifiziert werden, die mit dem jeweiligen Objekt assoziiert sind (z.B. nur jeweils die Zellen, die eine Belegungswahrscheinlichkeit aufweisen, die größer als ein bestimmter Belegungs-Schwellenwert ist).
  • Zur Ermittlung des mit dem ersten Objekt assoziierten Zellclusters können somit die Belegungswahrscheinlichkeiten der einzelnen Zellen ausgewertet werden. Die Vorrichtung kann eingerichtet sein, nur die ein oder mehreren Zellen in das mit dem ersten Objekt assoziierte Zellcluster aufzunehmen, für die die Belegungswahrscheinlichkeit jeweils größer als ein vordefinierter Wahrscheinlichkeits-Schwellenwert ist. So kann gewährleistet werden, dass das Zellcluster nur die ein oder mehreren Zellen aufweist, die zu dem ersten Objekt gehören. Es kann somit eine besonders präzise Objekterkennung und/oder Objektnachverfolgung ermöglicht werden.
  • Die Vorrichtung ist ferner eingerichtet, Objektinformation für das erste Objekt auf Basis des mit dem ersten Objekt assoziierten Zellclusters zu aktualisieren. Dabei kann die Objektinformation für das erste Objekt auf Basis der Zellinformation der ein oder mehreren Zellen des mit dem ersten Objekt assoziierten Zellclusters aktualisiert werden. Die Objektinformation für das erste Objekt kann dabei unter Verwendung einer nichtlinearen Zustandsschätzung, insbesondere unter Verwendung eines Extended-Kalman-Filters, auf Basis des mit dem ersten Objekt assoziierten Zellclusters aktualisiert werden. In entsprechender Weise kann eine Aktualisierung der Objektinformation für ein oder mehrere Objekte aus der fusionierten Menge von Objekten erfolgen.
  • Es wird somit eine Vorrichtung beschrieben, die ausgebildet ist, zellenweise Zellinformation aus einem Belegungsraster dazu zu verwenden, die Objektinformation von ein oder mehreren erkannten Objekten zu aktualisierten. So kann eine besonders präzise und robuste Objekterkennung und Objektnachverfolgung bewirkt werden.
  • Die Vorrichtung kann ferner eingerichtet sein, eine Fahrfunktion zur automatisierten Längs- und/oder Querführung des Fahrzeugs (insbesondere eine Fahrfunktion gemäß SAE-Level 3 oder höher) auf Basis der fusionierten Menge von Objekten zu betreiben. So kann eine besonders präzise und robuste Fahrfunktion bereitgestellt werden.
  • Die Vorrichtung kann eingerichtet sein, wiederholt, an jeweils einem Rechenzyklus aus einer Sequenz von aufeinanderfolgenden Rechenzyklen, jeweils aktuelle Sensordaten der Vielzahl von Umfeldsensoren zu ermitteln. Auf Basis der jeweils aktuellen Sensordaten kann eine jeweils aktuelle fusionierte Menge von Objekten und ein jeweils aktuelles Belegungsraster ermittelt werden. Ferner kann eine jeweils aktuelle Assoziierung zwischen dem ersten Objekt aus der aktuellen fusionierten Menge von Objekten mit einem Zellcluster des aktuellen Belegungsrasters ermittelt werden, und es kann die Objektinformation für das erste Objekt auf Basis des mit dem ersten Objekt assoziierten Zellclusters aktualisiert werden.
  • Die beschriebenen Maßnahmen können somit an einer Sequenz von aufeinanderfolgenden Rechenzyklen wiederholt werden. So kann eine dauerhaft präzise und zuverlässige Erfassung und Nachverfolgung des Umfelds des Fahrzeugs bewirkt werden (für einen dauerhaft stabilen Betrieb der Fahrfunktion).
  • Die Vorrichtung kann somit eingerichtet werden, ein oder mehrere Objekte aus der fusionierten Menge von Objekten entlang einer Sequenz von Rechenzyklen nachzuverfolgen. Dabei kann die Nachverfolgung der ein oder mehreren Objekte aus der fusionierten Menge von Objekten außerhalb des Belegungsrasters (z.B. im Rahmen einer High-Level Fusion) und/oder innerhalb des Belegungsrasters (im Rahmen einer Low-Level Fusion) erfolgen. So kann eine besonders effiziente und präzise Nachverfolgung von Objekten bewirkt werden.
  • Die Sensordaten eines Umfeldsensors können für eine sensoreigene Objektnachverfolgung und/oder für eine zugehörige High-Level Fusion verwendet werden. Ferner können die Sensordaten des Umfeldsensors über die Verarbeitung des Belegungsrasters und der Zellcluster für eine Objektnachverfolgung (mittels einer Low-Level Fusion) verwendet werden. Es kann somit eine Low-Level Verarbeitung und/oder eine High-Level Verarbeitung der Sensordaten eines Umfeldsensors für eine Objektnachverfolgung erfolgen. Die Auswahl der Low-Level Verarbeitung und/oder der High-Level Verarbeitung kann dabei adaptiv erfolgen, um die Effizienz und Genauigkeit zu erhöhen. Die Auswahl der Low-Level Verarbeitung und/oder der High-Level Verarbeitung kann z.B. abhängig von dem Sensortyp des Umfeldsensors und/oder abhängig von der Reichweite der Sensordaten des Umfeldsensors erfolgen. Beispielsweise kann ein erster Umfeldsensor nur für die High-Level Fusion verwendet werden, und ein zweiter Umfeldsensor kann ggf. nur für die Low-Level Fusion verwendet werden.
  • Ein dritter Umfeldsensor kann z.B. im Nahbereich für eine Low-Level Fusion und im Fernbereich für eine High-Level Fusion verwendet werden. Durch eine derartige Sensortyp-abhängige Verarbeitung der Sensordaten kann die Genauigkeit der Objektnachverfolgung weiter erhöht werden.
  • Die Vorrichtung kann eingerichtet sein, anhand des Belegungsrasters (in einem bestimmten Rechenzyklus) zumindest ein Zellcluster von ein oder mehreren Rasterzellen für ein neues Objekt zu detektieren, das nicht in der fusionierten Menge von Objekten (des bestimmten Rechenzyklus) enthalten ist. Es kann dann auf Basis des detektierten Zellclusters Objektinformation für das neue Objekt ermittelt werden. Ferner kann das neue Objekt auf Basis der ermittelten Objektinformation (z.B. auf Basis der ermittelten Position und/oder Bewegungsgeschwindigkeit und/oder räumliche Ausdehnung) in die fusionierte Menge von Objekten aufgenommen (z.B. in Form einer Bounding Box). Das neue Objekt kann dann in ein oder mehreren nachfolgenden Rechenzyklen nachverfolgt werden. So kann die Güte der Objekterkennung und/oder Nachverfolgung weiter erhöht werden.
  • Gemäß einem weiteren Aspekt wird ein (Straßen-) Kraftfahrzeug (insbesondere ein Personenkraftwagen oder ein Lastkraftwagen oder ein Bus oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Vorrichtung umfasst.
  • Gemäß einem weiteren Aspekt wird ein Verfahren zur Erkennung und/oder zur Nachverfolgung von Objekten in einem Umfeld eines (Kraft-) Fahrzeugs beschrieben. Das Verfahren umfasst das Ermitteln, auf Basis von Sensordaten einer Vielzahl von Umfeldsensoren des Fahrzeugs und unter Verwendung einer (High-Level) Fusionseinheit, einer fusionierten Menge von Objekten in dem Umfeld des Fahrzeugs. Des Weiteren umfasst das Verfahren das Ermitteln, auf Basis der Sensordaten der Vielzahl von Umfeldsensoren des Fahrzeugs, eines Belegungsrasters des Umfelds des Fahrzeugs. Dabei kann das Belegungsraster ausgebildet sein, das Umfeld des Fahrzeugs in eine Vielzahl von Rasterzellen zu unterteilen. Die Rasterzellen können jeweils Zellinformation in Bezug auf die Belegung bzw. die Nicht-Belegung der Rasterzelle mit einem Objekt anzeigen.
  • Das Verfahren umfasst ferner das Assoziieren zumindest eines ersten Objektes aus der fusionierten Menge von Objekten mit einem Zellcluster aus ein oder mehreren Rasterzellen des Belegungsrasters. Des Weiteren umfasst das Verfahren das Aktualisieren von Objektinformation für das erste Objekt auf Basis des mit dem ersten Objekt assoziierten Zellclusters (insbesondere auf Basis der Zellinformation der ein oder mehreren Rasterzellen des Zellclusters).
  • Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einem Steuergerät eines Fahrzeugs) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
  • Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
  • Unter dem Begriff „automatisiertes Fahren“ kann im Rahmen des Dokuments ein Fahren mit automatisierter Längs- oder Querführung oder ein autonomes Fahren mit automatisierter Längs- und Querführung verstanden werden. Bei dem automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens oder Rangierens handeln. Der Begriff „automatisiertes Fahren“ umfasst ein automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012).
  • Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich. Die vorstehend genannten vier Automatisierungsgrade entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.
  • Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden. Ferner sind in Klammern aufgeführte Merkmale als optionale Merkmale zu verstehen.
  • Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
    • 1 ein beispielhaftes Fahrzeug mit einer Fahrfunktion zur automatisierten Längs- und/oder Querführung eines Fahrzeugs;
    • 2 ein beispielhaftes Belegungsraster;
    • 3 beispielhafte auf Basis der Sensordaten eines Umfeldsensors erkannte Objekte;
    • 4 eine beispielhafte Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Umfeld-Objekten;
    • 5 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung und/oder zur Nachverfolgung einer Menge von Umfeld-Objekten; und
    • 6 eine beispielhafte Assoziierung zwischen einem Objekt und einem Zellcluster.
  • Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der effizienten und präzisen Erkennung und/oder Nachverfolgung von Umfeld-Objekten. In diesem Zusammenhang zeigt 1 ein beispielhaftes Fahrzeug 100, das ein oder mehrere Umfeldsensoren 102 aufweist, die jeweils eingerichtet sind, Umfelddaten (d.h. Sensordaten) in Bezug auf das Umfeld des Fahrzeugs 100 zu erfassen. Beispielhafte Umfeldsensoren 102 sind ein Radarsensor, ein Lidarsensor, eine Kamera, ein Ultraschallsensor, etc.
  • Das Fahrzeug 100 umfasst ferner ein oder mehrere Längs- und/oder Querführungsaktoren 103 (z.B. einen Antriebsmotor, eine Lenkvorrichtung und/oder eine Bremsvorrichtung), die jeweils eingerichtet sind, auf die Längs- und/oder die Querführung des Fahrzeugs 100 einzuwirken.
  • Eine (Steuer-) Vorrichtung 101 des Fahrzeugs 100 kann eingerichtet sein, auf Basis der Umfelddaten der ein oder mehreren Umfeldsensoren 102 ein oder mehrere Objekte im Umfeld des Fahrzeugs 100 zu detektieren. Auf Basis der Umfelddaten kann insbesondere ein Umfeldmodell des Umfelds des Fahrzeugs 100 erstellt werden, wobei das Umfeldmodell die Position, die Größe und/oder die Form einer Menge von Umfeld-Objekten im Umfeld des Fahrzeugs 100 anzeigt. Die (Steuer-) Vorrichtung 101 kann eingerichtet sein, die ein oder mehreren Aktoren 103 des Fahrzeugs 100 in Abhängigkeit von dem Umfeldmodell, insbesondere in Abhängigkeit von der Menge von detektierten Objekten, zu betreiben, um eine Fahrfunktion zur automatisierten Längs- und/oder Querführung des Fahrzeugs 100 bereitzustellen.
  • Im Rahmen der Erkennung von Umfeld-Objekten können die Sensordaten (d.h. die Umfelddaten) von mehreren Umfeldsensoren 102 fusioniert werden. Die unterschiedlichen Umfeldsensoren 102 können sich unterscheiden, in Bezug auf
    • • das von dem jeweiligen Umfeldsensor 102 verwendete Messprinzip; und/oder
    • • den Erfassungsbereich des jeweiligen Umfeldsensoren 102.
  • Die Fusion der Daten der unterschiedlichen Umfeldsensoren 102 kann auf Objektebene erfolgen (was typischerweise als High Level Fusion bezeichnet wird). Alternativ oder ergänzend kann die Fusion der Daten der unterschiedlichen Umfeldsensoren 102 direkt auf Ebene der Sensordaten erfolgen (was typischerweise als Low Level Fusion bezeichnet wird).
  • 2 zeigt ein beispielhaftes Belegungsraster 200 mit einer Vielzahl von Rasterzellen 201. Das Belegungsraster 200 kann das Umfeld des Fahrzeugs 100 räumlich in unterschiedliche Rasterzellen 201 unterteilen. Die unterschiedlichen Rasterzellen 201 können somit unterschiedlichen räumlichen Teilbereichen in dem Umfeld des Fahrzeugs 100 entsprechen. Die Kantenlängen der Kanten der einzelnen Rasterzellen 201 können z.B. jeweils 1 Meter oder weniger sein.
  • Auf Basis der Sensordaten von ein oder mehreren Umfeldsensoren 102 kann für die einzelnen Zellen 201 jeweils Zellinformation ermittelt werden. Die Zellinformation für eine Rasterzelle 201 kann anzeigen,
    • • die Wahrscheinlichkeit dafür, dass an der Position der Rasterzelle 201 ein (statisches oder dynamisches) Objekt angeordnet ist;
    • • eine Bewegungsgeschwindigkeit; und/oder
    • • eine Bewegungsrichtung.
  • Das Belegungsraster 200 wird im Englischen auch als „occupancy grid“ bezeichnet. Die Ermittlung eines Belegungsrasters 200 auf Basis der Sensordaten von mehreren Umfeldsensoren 102 ist ein Beispiel für eine Low Level Fusion.
  • Das in 2 dargestellte Belegungsraster 200 weist zwei zusammenhängende Gruppen oder Cluster 202 von belegten Zellen 201 auf (die jeweils eine relativ hohe Belegungs-Wahrscheinlichkeit aufweisen, was in 2 beispielhaft durch die „Schwarzfärbung“ der einzelnen Zellen 201 dargestellt wird).
  • Die Sensordaten eines Umfeldsensors 102 können auch einzeln ausgewertet werden (jeweils anhand einer Einzel-Erkennungsmethode), um (dediziert und/oder allein) auf Basis der Sensordaten des Umfeldsensors 102 eine Einzel-Menge von Objekten in dem Umfeld des Fahrzeugs 100 zu detektieren. 3 zeigt beispielhafte Sensordaten 300 eines Umfeldsensors 102 (z.B. ein Kamerabild einer Kamera des Fahrzeugs 100). Auf Basis der Sensordaten 300 kann eine Menge von Objekten 302 erkannt werden. Ferner kann Objektinformation zu den einzelnen Objekten 302 ermittelt werden, wie z.B.
    • • die Position eines Referenzpunktes des jeweiligen Objektes 302;
    • • eine räumliche Ausdehnung (z.B. Breite, Tiefe, Höhe) des jeweiligen Objektes 302;
    • • eine Bewegungsrichtung des jeweiligen Objektes 302; und/oder
    • • eine Bewegungsgeschwindigkeit des jeweiligen Objektes 302.
  • In entsprechender Weise können jeweils separat die Sensordaten 300 einer Vielzahl von Umfeldsensoren 102 ausgewertet werden, um eine entsprechende Vielzahl von Einzel-Mengen von Objekten 302 zu ermitteln. Dabei kann für jeden Umfeldsensor 102 jeweils eine spezifische Objekt-Erkennungsmethode verwendet werden. Die Vielzahl von Einzel-Mengen von Objekten 302 kann in einer Fusionseinheit fusioniert werden, um eine fusionierte Menge von Objekten 302 zu ermitteln. Dabei kann ein Objekt 302, das in mehreren Einzel-Mengen enthalten ist, als Objekt 302 in die fusionierte Menge aufgenommen werden. Andererseits kann ein Objekt 302, das nur in einer einzigen Einzel-Menge enthalten ist, ggf. nicht in die fusionierte Menge von Objekten 302 aufgenommen werden. Eine Fusion auf Basis der Vielzahl von Einzel-Mengen von Objekten 302 ist ein Beispiel für eine High Level Fusion.
  • Im Rahmen der Einzel-Erkennungsmethoden und/oder im Rahmen der Fusion kann jeweils eine Objektnachverfolgung der Objekte 302 der Einzel-Mengen und/oder der fusionierten Menge durchgeführt werden. Dabei können an den einzelnen Rechenzyklen die jeweiligen Objekt-Mengen auf Basis der jeweils aktuellen Sensordaten 300 aktualisiert werden. Es kann somit eine rekursive Aktualisierung der jeweiligen Objekt-Menge erfolgen, um die Güte der Objekterkennung (insbesondere in Bezug auf die Objektinformation) zu erhöhen, und um eine Objektnachverfolgung zu ermöglichen.
  • 4 zeigt eine beispielhafte Vorrichtung 400 zur Erkennung und/oder zur Nachverfolgung von Objekten 302 aus einer (fusionierten) Menge von Objekten 302. Die Vorrichtung 400 weist eine Vielzahl von Einzel-Erkennungseinheiten 411 für die entsprechende Vielzahl von Umfeldsensoren 102 aus. Dabei ist jede Einzel-Erkennungseinheit 411 eingerichtet, auf Basis der Sensordaten 300 des jeweiligen Umfeldsensors 102 eine Einzel-Menge 403 von Objekten 302 zu ermitteln. Durch die Vielzahl von Einzel-Erkennungseinheiten 411 kann somit eine entsprechende Vielzahl von Einzel-Mengen 403 von Objekten 302 bereitgestellt werden. Dabei kann in den einzelnen Einzel-Erkennungseinheit 411 jeweils eine Objekt-Nachverfolgung bewirkt werden.
  • Die Vielzahl von Einzel-Mengen 403 können in einer Fusionseinheit 412 fusioniert werden, um eine fusionierte Menge 405 von Objekten 302 bereitzustellen. Ferner kann eine Objekt-Nachverfolgung (d.h. ein object tracking) der einzelnen Objekte 302 aus der fusionierten Menge 405 von Objekten 302 bewirkt werden.
  • Die Vorrichtung 400 ist ferner eingerichtet, auf Basis der Sensordaten 300 der Vielzahl von Umfeldsensoren 102 eine Sensor-basierte Fusion 421 der Sensordaten 300 zu bewirken, um in einer Rastereinheit 422 ein Belegungsraster 200 zu ermitteln (das z.B. dynamisch belegte Zellen 201 anzeigt).
  • In einer Zuordnungseinheit 423 kann eine Assoziation zwischen einzelnen Objekten 302 der fusionierten Menge 405 von Objekten 302 und den einzelnen Rasterzellen 301 bewirkt werden. Insbesondere kann einem Objekt 302 aus der fusionierten Menge 405 von Objekten 302 ein Zellcluster 202 mit ein oder mehreren Zellen 201 (und der entsprechenden Zellinformation) zugewiesen werden. Für die fusionierte Menge 405 von Objekten 302 kann somit eine entsprechende Menge 406 von Zellclustem 202 ermittelt werden.
  • Des Weiteren kann die Menge 406 von Zellclustern 202 ein oder mehrere Zellcluster 202 für ein oder mehrere neu detektierte Objekte aufweisen (z.B. ein oder mehrere Cluster 202 für dynamische Zellen, die mit keinem der Objekte 302 aus der fusionierten Menge 405 von Objekten 302 assoziiert werden können). Für diese ein oder mehreren Zellcluster 202 können dann in der Fusionseinheit 412 ein oder mehrere entsprechende neue Objekte 302 angelegt werden (und in einem nachfolgenden Rechenzyklus nachverfolgt werden).
  • 6 veranschaulicht eine beispielhafte Assoziierung zwischen einem Zellcluster 202 aus dem Belegungsraster 200 und einem Objekt 302 aus der fusionierten Menge 405 von Objekten 302.
  • Der Zellcluster 202 für ein Objekt 302, insbesondere die Zellinformation der Zellen 201 des Zellclusters 202, kann dazu genutzt werden, das Objekt 302, insbesondere die Objektinformation in Bezug auf das Objekt 302, zu aktualisieren. Dies kann z.B. innerhalb der Fusionseinheit 412 erfolgen. Es kann dann auf Basis der Menge 406 von Zellclustern 202 eine aktualisierte, fusionierte Menge von Objekten 302 ermittelt werden. Die Fusion und/oder die Aktualisierung des Objektzustandes und der zugehörigen Objektinformation kann dabei z.B. anhand eines Extended-Kalman-Filters bewirkt werden.
  • Die o.g. Datenverarbeitung kann wiederholt an einer Sequenz von aufeinanderfolgenden Rechenzyklen wiederholt werden (auf Basis der jeweils aktuellen Sensordaten 300), um jeweils eine aktuelle, fusioniere, Menge 405 von Objekten 302 zu ermitteln.
  • Die Vorrichtung 400 ermöglicht es somit, Information aus einer Low Level Fusion (insbesondere aus einem Belegungsraster 200) in effizienter Weise mit Information aus einer High Level Fusion zu kombinieren, um die Güte der Objekterkennung und/oder Objektnachverfolgung weiter zu erhöhen.
  • Als Schnittstelle zwischen einem dynamischen Grid 200 und einem Objekttrackingsystem 412 können somit belegte Zellen 201 genutzt werden. Dabei werden die durch weitere Sensoren 102 bereits bestätigten und gestützten Objekte 302 im Objekttrackingsystem 412 genutzt, um zusammengehörige Zellen 201 oder Zellcluster 202 zu identifizieren und zu fusionieren (z.B. aufgrund der räumlichen Nähe der Zellen 201 und/oder aufgrund ähnlicher Zellgeschwindigkeiten 201). Die zu den einzelnen Objekten 302 assoziierten Zellen 201 oder Zellcluster 202 können mit den jeweiligen Objekten 302 des Objektfusions- und/oder trackingsystems 412 fusioniert werden. Dabei kann Objektinformation der einzelnen Objekte 302 (z.B. die Position, Dynamik und/oder Geometrie) aktualisiert werden.
  • Beispielsweise kann eine Aktualisierung des Objektzustands (d.h. der Objektinformation) durch dynamische belegte Zellen 201 aus einem dynamischen Grid 200 bewirkt werden. Dabei kann zu den einzelnen belegten dynamischen Zelle 201 ein passendes, bereits im Objekttrackingsystem 412 existierendes, Objekt 302 gesucht werden. In diesem Zusammenhang können die räumliche Nähe und/oder die Ähnlichkeit von Zellgeschwindigkeiten und Objektgeschwindigkeiten ausgewertet werden. Die dadurch zu Objekten 302 assoziierten Zellen 201 können anschließend genutzt werden, um den Objektzustand (d.h. die Objektinformation) und/oder die Objektexistenz zu aktualisieren. Hierfür können Methoden der nichtlinearen Zustandsschätzung verwendet werden (z.B. Extended Kalman-Filter).
  • Alternativ oder ergänzend kann eine Aktualisierung der Objektgeometrie durch Akkumulation der assoziierten belegten dynamischen Zellen 201 aus einem dynamischen Grid 200 bewirkt werden. Dazu werden, wie weiter oben beschrieben, die belegten dynamischen Zellen 201 zu ein oder mehreren Objekten 302 assoziiert. Die einem Objekt 302 zugeordneten Zellen 201 repräsentieren einen Teil der Fläche, welche das Objekte 302 beschreibt. Durch die zeitliche Akkumulation der zu einem Objekt 302 assoziierten Zellen 201 kann über der Zeit mit steigender Genauigkeit die Fläche und damit die Kontur und/oder die Geometrie des Objekts 302 geschätzt werden. Für die Zellakkumulation können die Zellen 201 zu jedem Objekt 302 gespeichert werden und/oder es kann ein Modell für die Objektkontur, ggf. mit klassenabhängiger Abstraktion, gewählt werden.
  • Das in diesem Dokument beschriebene Verfahren ermöglicht ein einheitliches Objekt-Tracking. Ferner sind keine High-Level Objekt Bounding Boxes oder ein eigenes Objekt-Tracking in dem Dynamic Grid 200 erforderlich. Vielmehr wird eine direkte Verwendung von Messinformation der belegten Grid-Zellen 201 ermöglicht, sodass ein Informationsverlust durch Box-Abstraktion vermieden werden kann. Es kann ein direktes Objekt-Zustandsupdate basierend auf belegten Zellen 201 (ohne Block Bounding Box Abstraktion aus einem Grid-Based Objekt Tracking) bewirkt werden, z.B. ein direktes Update mit einer nächstgelegenen Zelle 201 oder einer konvexen Hülle (Freiform-Modell) aus einem Cluster 202 von Zellen 201.
  • Prädizierte Objekt-Tracks aus dem einheitlichem Objekt-Tracking können für die Assoziation von Zellen 201 des Dynamic Grid 200 (in der Cell-to-Object Assoziationseinheit 423) verwendet werden. Neben der Initialisierung von Objekten 302 über das Dynamic Grid 200 kann Objektinformation der Sensoren 102 aus dem High-Level Object Fusion Pfad berücksichtigt werden, z.B. semantische Information von Kamera-Objekten, die unmittelbar die Objektschätzung und somit auch die Assoziation zu den belegten Zellen 201 des Dynamic Grid 200 verbessern können. Zudem können für die prädizierten Tracks verschiedene Hypothesen verwendet werden, um verschiedene Möglichkeiten der daraus folgenden assoziierten belegten Grid-Zellen 201 zu erhalten.
  • Durch die in diesem Dokument beschriebenen Maßnahmen können die Vorteile der High Level Fusion und der Low Level Fusion miteinander kombiniert werden.
  • 5 zeigt ein Ablaufdiagramm eines (ggf. Computer-implementierten) Verfahrens 500 zur Erkennung und/oder zur Nachverfolgung von Objekten in einem Umfeld eines (Kraft-) Fahrzeugs 100. Das Verfahren 500 umfasst das Ermitteln 501, auf Basis von Sensordaten 300 einer Vielzahl von Umfeldsensoren 102 des Fahrzeugs 100 und unter Verwendung einer Fusionseinheit 412, einer fusionierten Menge 405 von Objekten 302 in dem Umfeld des Fahrzeugs 100. Dabei kann auf Basis der Sensordaten 300 der einzelnen Umfeldsensoren 102 jeweils eine Einzel-Menge von Objekten 302 ermittelt werden. Die Vielzahl von Einzel-Mengen von Objekten 302 können dann (anhand einer High Level Fusion) zu einer fusionieren Menge 405 von Objekten 302 fusioniert werden.
  • Das Verfahren 500 umfasst ferner das Ermitteln 502, auf Basis der Sensordaten 300 der Vielzahl von Umfeldsensoren 102 des Fahrzeugs 100, eines Belegungsrasters 200 des Umfelds des Fahrzeugs 100, wobei das Belegungsraster 200 eine Vielzahl von Rasterzellen 201 aufweist. Die Rasterzellen 201 können jeweils eine Kantenlänge von 1 Meter oder weniger aufweisen.
  • Das Belegungsraster 200 kann anhand einer Low Level Fusion der Sensordaten 300 der Vielzahl von Umfeldsensoren 102 ermittelt werden. Dabei kann für die einzelnen Rasterzellen 201 jeweils Zellinformation in Bezug auf die Belegung der jeweiligen Rasterzelle 201 mit einem (dynamischen oder statischen) Objekt 302 ermittelt werden.
  • Im Rahmen des Verfahrens 500 kann somit eine High Level Fusion erfolgen, um eine fusionierte Menge 405 von Objekten 302 zu ermitteln, und es kann eine Low Level Fusion erfolgen, um ein Belegungsraster 200 zu ermitteln.
  • Das Verfahren 500 umfasst ferner das Assoziieren 503 zumindest eines ersten Objektes 302 aus der fusionierten Menge 405 von Objekten 302 mit einem Zellcluster 202 mit ein oder mehreren Rasterzellen 201 des Belegungsrasters 200. Zu diesem Zweck kann ein Zellcluster 202 identifiziert werden, das in räumlicher Nähe zu dem ersten Objekt 302 angeordnet ist. Alternativ oder ergänzend können die Bewegungsrichtung und/oder die Bewegungsgeschwindigkeit des ersten Objektes 302 und der Rasterzellen 201 des Zellclusters 202 verglichen werden, um ein Zellcluster 202 mit dem ersten Objekt 302 zu assoziieren.
  • In entsprechender Weise kann für mehrere Objekte 302 aus der fusionierten Menge 405 (insbesondere für alle Objekte 302) jeweils ein assoziierter Zellcluster 202 ermittelt werden. Ein Zellcluster 202 kann dabei eine beliebige (typischerweise von einer Bounding Box abweichende) Form aufweisen.
  • Des Weiteren umfasst das Verfahren 500 das Aktualisieren 504 von Objektinformation für das erste Objekt 302 auf Basis des mit dem ersten Objekt 302 assoziierten Zellclusters 202. Zu diesem Zweck kann eine Methode der nichtlinearen Zustandsschätzung (z.B. ein Extended Kalman-Filter) verwendet werden. Als Objektinformation können z.B. die Position, die Form, die Kontur, die räumliche Ausdehnung, die Geschwindigkeit, die Orientierung und/oder die Bewegungsrichtung aktualisiert werden.
  • Es kann somit zellenweise Zellinformation aus dem Belegungsraster 200 mit einem Objekt 302 aus der fusionierten Menge 405 von Objekten 302 fusioniert werden. So kann eine besonders präzise Objekterkennung und/oder Objektnachverfolgung bewirkt werden.
  • Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur beispielhaft das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.

Claims (12)

  1. Vorrichtung (101, 400) zur Erkennung und/oder zur Nachverfolgung von Objekten in einem Umfeld eines Fahrzeugs (100); wobei die Vorrichtung (101, 400) eingerichtet ist, - auf Basis von Sensordaten (300) einer Vielzahl von Umfeldsensoren (102) des Fahrzeugs (100) unter Verwendung einer Fusionseinheit (412) eine fusionierte Menge (405) von Objekten (302) in dem Umfeld des Fahrzeugs (100) zu ermitteln; - auf Basis der Sensordaten (300) der Vielzahl von Umfeldsensoren (102) des Fahrzeugs (100) ein Belegungsraster (200) des Umfelds des Fahrzeugs (100) zu ermitteln; wobei das Belegungsraster (200) eine Vielzahl von Rasterzellen (201) aufweist; wobei eine Rasterzelle (201) Zellinformation in Bezug auf eine Belegung der Rasterzelle (201) mit einem Objekt (302) anzeigt; - zumindest ein erstes Objekt (302) aus der fusionierten Menge (405) von Objekten (302) mit einem Zellcluster (202) aus ein oder mehreren Rasterzellen (201) des Belegungsrasters (200) zu assoziieren; und - Objektinformation für das erste Objekt (302) auf Basis des mit dem ersten Objekt (302) assoziierten Zellclusters (202) zu aktualisieren.
  2. Vorrichtung (101, 400) gemäß Anspruch 1, wobei die Vorrichtung (101, 400) eingerichtet ist, - die Sensordaten (300) der Vielzahl von Umfeldsensoren (102) anhand einer entsprechenden Vielzahl von Einzel-Objekterkennungseinheiten (411) auszuwerten, um eine entsprechende Vielzahl von Einzel-Mengen (403) von Objekten (302) zu ermitteln; und - die Vielzahl von Einzel-Mengen (403) von Objekten (302) unter Verwendung der Fusionseinheit (412) zu fusionieren, um die fusionierte Menge (405) von Objekten (302) zu ermitteln.
  3. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101, 400) eingerichtet ist, - die Sensordaten (300) der Vielzahl von Umfeldsensoren (102) unter Verwendung der Fusionseinheit (412) auszuwerten, um für die ein oder mehreren Objekte (302) aus der fusionierten Menge von Objekten (302) jeweils Objektinformation zu ermitteln; und - die Objektinformation für das erste Objekt (302) aus der fusionierten Menge von Objekten (302) auf Basis des mit dem ersten Objekt (302) assoziierten Zellclusters (202) zu aktualisieren.
  4. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei die Objektinformation für ein Objekt (302) umfasst, - eine Position des Objekts (302); - eine räumliche Ausdehnung des Objekts (302); - eine Kontur des Objektes (302); - eine Bewegungsrichtung des Objekts (302); - eine Orientierung des Objekts (302); und/oder - eine Bewegungsgeschwindigkeit des Objekts (302).
  5. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei - die Vorrichtung (101, 400) eingerichtet ist, im Rahmen der Ermittlung des Belegungsraster (200) des Umfelds des Fahrzeugs (100) für jede Zelle (201) des Belegungsrasters (200) Zellinformation zu ermitteln; - die Zellinformation für eine Rasterzelle (201) insbesondere anzeigt, - eine Belegungswahrscheinlichkeit der Rasterzelle (201) durch ein statisches und/oder durch ein dynamisches Objekt (302); - eine mit der Rasterzelle (201) assoziierte Bewegungsgeschwindigkeit; und/oder - eine mit der Rasterzelle (201) assoziierte Bewegungsrichtung; und - die Vorrichtung (101, 400) eingerichtet ist, die Objektinformation für das erste Objekt (302) auf Basis der Zellinformation der ein oder mehreren Rasterzellen (201) des mit dem ersten Objekt (302) assoziierten Zellclusters (202) zu aktualisieren.
  6. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101, 400) eingerichtet ist, - ein oder mehrere Objekte (302) aus der fusionierten Menge (405) von Objekten (302) entlang einer Sequenz von Rechenzyklen nachzuverfolgen; und/oder - die Nachverfolgung der ein oder mehreren Objekte (302) aus der fusionierten Menge (405) von Objekten (302) außerhalb des Belegungsrasters (200) zu bewirken.
  7. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101, 400) eingerichtet ist, wiederholt, an jeweils einem Rechenzyklus aus einer Sequenz von aufeinanderfolgenden Rechenzyklen, - jeweils aktuelle Sensordaten (300) der Vielzahl von Umfeldsensoren (102) zu ermitteln; - auf Basis der jeweils aktuellen Sensordaten (300) eine jeweils aktuelle fusionierte Menge (405) von Objekten (302) und ein jeweils aktuelles Belegungsraster (200) zu ermitteln; - das erste Objekt (302) aus der aktuellen fusionierten Menge (405) von Objekten (302) mit einem Zellcluster (202) des aktuellen Belegungsrasters (200) zu assoziieren; und - die Objektinformation für das erste Objekt (302) auf Basis des mit dem ersten Objekt (302) assoziierten Zellclusters (202) zu aktualisieren.
  8. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei - das mit dem ersten Objekt (302) assoziierte Zellcluster (202) eine von einem Rechteck oder von einem Quader abweichende Form aufweist; und/oder - das mit dem ersten Objekt (302) assoziierte Zellcluster (202) eine Liste von Rasterzellen (201) umfasst, die durch Koordinaten innerhalb des Belegungsrasters (200) identifiziert sind.
  9. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101, 400) eingerichtet ist, die Objektinformation für das erste Objekt (302) unter Verwendung einer nichtlinearen Zustandsschätzung, insbesondere unter Verwendung eines Extended-Kalman-Filters, auf Basis des mit dem ersten Objekt (302) assoziierten Zellclusters (202) zu aktualisieren.
  10. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101, 400) eingerichtet ist, nur die ein oder mehreren Zellen (201) in das mit dem ersten Objekt (302) assoziierte Zellcluster (202) aufzunehmen, für die eine Belegungswahrscheinlichkeit jeweils größer als ein vordefinierter Wahrscheinlichkeits-Schwellenwert ist.
  11. Vorrichtung (101, 400) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101, 400) eingerichtet ist, - anhand des Belegungsrasters (200) zumindest ein Zellcluster (202) von ein oder mehreren Rasterzellen (201) für ein neues Objekt (302) zu detektieren, das nicht in der fusionierten Menge (405) von Objekten (302) enthalten ist; und - Objektinformation für das neue Objekt (302) auf Basis des detektierten Zellclusters (202) zu ermitteln; und - das neue Objekt (302) auf Basis der ermittelten Objektinformation in die fusionierte Menge (405) von Objekten (302) aufzunehmen.
  12. Verfahren (500) zur Erkennung und/oder zur Nachverfolgung von Objekten in einem Umfeld eines Fahrzeugs (100); wobei das Verfahren (500) umfasst, - Ermitteln (501), auf Basis von Sensordaten (300) einer Vielzahl von Umfeldsensoren (102) des Fahrzeugs (100) und unter Verwendung einer Fusionseinheit (412), einer fusionierten Menge (405) von Objekten (302) in dem Umfeld des Fahrzeugs (100); - Ermitteln (502), auf Basis der Sensordaten (300) der Vielzahl von Umfeldsensoren (102) des Fahrzeugs (100), eines Belegungsrasters (200) des Umfelds des Fahrzeugs (100); wobei das Belegungsraster (200) eine Vielzahl von Rasterzellen (201) aufweist; wobei eine Rasterzelle (201) Zellinformation in Bezug auf eine Belegung der Rasterzelle (201) mit einem Objekt (302) anzeigt; - Assoziieren (503) zumindest eines ersten Objektes (302) aus der fusionierten Menge (405) von Objekten (302) mit einem Zellcluster (202) aus ein oder mehreren Rasterzellen (201) des Belegungsrasters (200); und - Aktualisieren (504) von Objektinformation für das erste Objekt (302) auf Basis des mit dem ersten Objekt (302) assoziierten Zellclusters (202).
DE102022116054.8A 2022-06-28 2022-06-28 Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten Pending DE102022116054A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022116054.8A DE102022116054A1 (de) 2022-06-28 2022-06-28 Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022116054.8A DE102022116054A1 (de) 2022-06-28 2022-06-28 Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten

Publications (1)

Publication Number Publication Date
DE102022116054A1 true DE102022116054A1 (de) 2023-12-28

Family

ID=89075255

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022116054.8A Pending DE102022116054A1 (de) 2022-06-28 2022-06-28 Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten

Country Status (1)

Country Link
DE (1) DE102022116054A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011103743A1 (de) 2011-05-31 2012-03-29 Daimler Ag Verfahren und Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102015100134A1 (de) 2014-01-16 2015-07-16 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Objektvereinigungssystem mehrerer Radarbildgebungssensoren
DE102020116027A1 (de) 2020-06-17 2021-12-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung von Belegungsinformation für einen Umfeldpunkt auf Basis von Radardetektionen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011103743A1 (de) 2011-05-31 2012-03-29 Daimler Ag Verfahren und Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102015100134A1 (de) 2014-01-16 2015-07-16 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Objektvereinigungssystem mehrerer Radarbildgebungssensoren
DE102020116027A1 (de) 2020-06-17 2021-12-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung von Belegungsinformation für einen Umfeldpunkt auf Basis von Radardetektionen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Bundesanstalt für Straßenwesen: Rechtsfolgen zunehmender Fahrzeugautomatisierung. Forschung kompakt. 2012 (11/12), S. 1-2. URL: www.bast.de/DE/Publikationen/Foko/Downloads/2012-11.pdf?__blob=publicationFile&v=1 [abgerufen am 07.06.2017]. Firmenschrift
Norm SAE J3016 2021-04-30. Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles.

Similar Documents

Publication Publication Date Title
EP3142913B1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
DE102016225915A1 (de) System und Verfahren zur Umfelderfassung eines Fahrzeugs
DE102012213344A1 (de) Verkehrszeichenerkennung
DE102018200683A1 (de) Verfahren zur Detektion eines Objektes
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
EP3857437A1 (de) Verfahren und vorrichtung zur analyse eines sensordatenstroms sowie verfahren zum führen eines fahrzeugs
DE102018123393A1 (de) Erkennung von Parkflächen
DE102020112825A1 (de) Verfahren zum Erfassen von relevanten statischen Objekten innerhalb einer Fahrspur sowie Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102017206344A1 (de) Fahrerassistenzsystem für ein Fahrzeug
WO2021104804A1 (de) Verfahren und system zum erkennen eines abbiegenden objekts
DE102017208692A1 (de) Verfahren zum Bereitstellen von Trainingsdaten für eine Funktionsprüfung einer Erkennungseinrichtung sowie Datenbanksystem
DE102020105619A1 (de) System und verfahren zur bestimmung der fahrzeugposition
DE102016124888A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken unter Verwendung einer Fahrerassistenzvorrichtung, entsprechendes Computerprogrammprodukt und Fahrerassistenzvorrichtung
WO2020160798A1 (de) Verfahren und eine vorrichtung zur sensordatenfusion für ein fahrzeug
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE102022116054A1 (de) Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten
DE102018003593A1 (de) Verfahren zum Betrieb eines Assistenzsystems eines Fahrzeuges
DE102021005053A1 (de) Verfahren zum Fusionieren von einer Vielzahl von Sensordaten mittels einer elektronischen Recheneinrichtung, sowie ein Fahrerassistenzsystem
EP4027245A1 (de) Computerimplementiertes verfahren zur bestimmung von ähnlichkeitswerten von verkehrsszenarien
DE102019211006B4 (de) Auswerten von Sensordaten eines Fahrzeugs
DE102019127322A1 (de) Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102012008780A1 (de) Verfahren und Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes und Kraftfahrzeug
DE102017214666A1 (de) Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs
DE102022116052A1 (de) Verfahren und Vorrichtung zur Erkennung von Objekten anhand von Sensorfusion

Legal Events

Date Code Title Description
R163 Identified publications notified
R083 Amendment of/additions to inventor(s)