DE102018115895A1 - Verfahren und System zur Erkennung von Hindernissen - Google Patents

Verfahren und System zur Erkennung von Hindernissen Download PDF

Info

Publication number
DE102018115895A1
DE102018115895A1 DE102018115895.5A DE102018115895A DE102018115895A1 DE 102018115895 A1 DE102018115895 A1 DE 102018115895A1 DE 102018115895 A DE102018115895 A DE 102018115895A DE 102018115895 A1 DE102018115895 A1 DE 102018115895A1
Authority
DE
Germany
Prior art keywords
segments
vehicle
environment
subset
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018115895.5A
Other languages
English (en)
Inventor
Marc Walessa
Andreas Zorn-Pauli
Andre Roskopf
Ting Li
Gero Greiner
Christian Ruhhammer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102018115895.5A priority Critical patent/DE102018115895A1/de
Priority to US17/255,539 priority patent/US20210342605A1/en
Priority to CN201980042470.5A priority patent/CN112313664A/zh
Priority to PCT/DE2019/100558 priority patent/WO2020001690A1/de
Publication of DE102018115895A1 publication Critical patent/DE102018115895A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die vorliegende Offenbarung betrifft ein Verfahren zur Erfassung von einem oder mehreren Objekten in einem Umfeld eines Fahrzeugs, wobei das Umfeld von einem Umfang begrenzt wird, das Verfahren umfassend: Segmentieren des Umfeldes in eine Vielzahl von Segmenten, sodass jedes Segment der Vielzahl von Segmenten zumindest teilweise durch den Umfang des Umfeldes begrenzt wird; Erfassen eines oder mehrerer Erfassungspunkte basierend auf den ein oder mehreren Objekte im Umfeld des Fahrzeugs; und Zuordnen eines Zustands zu jedem der Segmente der Vielzahl von Segmenten, basierend auf den ein oder mehreren erfassten Erfassungspunkten. Die vorliegende Offenbarung betrifft weiter ein System zur Erfassung von einem oder mehreren Objekten in einem Umfeld eines Fahrzeugs und ein Fahrzeug umfassend das System.

Description

  • Die Offenbarung betrifft Verfahren und Systeme zur Erkennung von Hindernissen. Die Offenbarung betrifft insbesondere Verfahren und Systeme zur Erkennung von statischen Hindernissen im Umfeld von Fahrzeugen.
  • Stand der Technik
  • Im Stand der Technik sind verschiedene Verfahren und Systeme zur Erkennung von Hindernissen (d.h. allg. von Objekten) im Umfeld von Fahrzeugen bekannt. Hierbei wird mittels verschiedener Sensoren das Umfeld eines Fahrzeugs erfasst und basierend auf den von der Sensorik gelieferten Daten ermittelt, ob im Umfeld des Fahrzeugs Hindernisse vorhanden sind und gegebenenfalls deren Position bestimmt. Die für diesen Zweck eingesetzte Sensorik umfasst typischerweise im Fahrzeug vorhandene Sensoren, beispielsweise Ultraschallsensoren (z.B. PDC bzw. Einparkhilfe), ein oder mehrere Kameras, Radar (z.B. Tempomat mit Abstandshaltefunktion) und dergleichen mehr. Üblicherweise sind in einem Fahrzeug verschiedene Sensoren vorhanden, die für bestimmte Aufgaben optimiert sind, beispielsweise was den Erfassungsbereich betrifft, dynamische Aspekte und Anforderungen bezüglich Genauigkeit und dergleichen.
  • Die Erkennung von Hindernissen im Fahrzeugumfeld wird für verschiedene Fahrassistenzsysteme verwendet, beispielsweise zur Kollisionsvermeidung (z.B. Bremsassistent, Lateral Collision Avoidance), Spurwechselassistent, Lenkassistent und dergleichen mehr.
  • Für die Erkennung statischer Hindernisse in der Umgebung des Fahrzeugs werden Fusionsalgorithmen für die Eingangsdaten der unterschiedlichen Sensoren benötigt. Zur Kompensation von Sensorfehlern, beispielsweise falschpositiv Erkennungen (z.B. sog. Geisterziele) oder falschnegativ Erkennungen (z.B. nicht detektierte Hindernisse) und Verdeckungen (z.B. durch bewegte Fahrzeuge oder Beschränkungen des Sensorsichtbereichs) ist eine Nachverfolgung (Tracking) der Sensordetektionen von statischen Hindernissen nötig.
  • Um das unmittelbare Umfeld um das Fahrzeug abzubilden, werden verschiedene Modelle verwendet. Ein im Stand der Technik bekanntes Verfahren zur Erkennung statischer Hindernisse ist die Occupancy-Grid-Fusion (OGF). Bei der OGF wird die Fahrzeugumgebung in rechteckige Zellen aufgeteilt. Für jede Zelle wird im Rahmen der Fusion eine Belegtheitswahrscheinlichkeit in Bezug auf statische Hindernisse berechnet. Die Größe der Zellen bestimmt die Genauigkeit der Umgebungsrepräsentation.
  • S. Thrun und A. Bücken, „Integrating grid-based and topological maps for mobile robot navigation," in Proceedings of the Thirteenth National Conference on Artificial Intelligence - Volume 2, Portland, Oregon, 1996, beschreiben Forschungsarbeiten im Bereich der mobilen Roboternavigation und im Wesentlichen zwei Hauptparadigmen zur Abbildung von Innenraumumgebungen: gridbasiert und topologisch. Während netzbasierte Methoden genaue metrische Karten erzeugen, ist ihre Komplexität oft nicht in der Lage, effizient zu planen und Probleme in großen Innenräumen zu lösen. Topologische Karten hingegen können viel effizienter genutzt werden, aber genaue und konsistente topologische Karten sind in großen Umgebungen nur schwer zu erlernen. Thrun und Bücken beschreiben einen Ansatz, der beide Paradigmen integriert. Gridbasierte Karten werden mit künstlichen neuronalen Netzen und Bayes'scher Integration erlernt. Topologische Karten werden als weitere übergeordnete Ebene auf den gridbasierten Karten erzeugt, indem letztere in kohärente Regionen aufgeteilt werden. Die beschriebenen integrierten Ansätze sind auf Szenarien, deren Parameter von den beschriebenen Innenraumumgebungen abweichen, nicht ohne weiteres anwendbar.
  • Im Hinblick auf die Anwendung im Fahrzeug weisen OGF-basierte Verfahren zumindest die folgenden Nachteile auf. Eine Repräsentation, die eine hohe Genauigkeit aufweist, erfordert eine entsprechend große Anzahl von vergleichsweise kleinen Zellen und verursacht dadurch einen hohen Berechnungsaufwand und stellt hohe Anforderungen an die verfügbare Speicherkapazität. Deshalb ist eine effiziente Erkennung statischer Hindernisse mittels OGF oft ungenau, da verfahrensbedingt eine Effizienzsteigerung praktisch nur durch die Verwendung größerer Zellen erreicht werden kann, was zu Lasten der Genauigkeit geht.
  • Wie im vorliegenden Fall im Falle eines Einsatzes zur Hinderniserkennung in Fahrzeugen wird bei vielen Anwendungen in der unmittelbaren Umgebung eine genauere Repräsentation des Umfelds benötigt, während in mittlerer bis größerer Entfernung eine ungenauere Repräsentation ausreichend ist. Diese Anforderungen sind typisch für die hier beschriebene konkrete Anwendung und finden ihre Entsprechung in der verfügbaren Sensorik. Typischerweise nimmt die Genauigkeit der verwendeten Sensorik mit zunehmender Entfernung ab, sodass im Nahbereich eine ausreichende bzw. gewünschte Genauigkeit verfügbar ist, im weiter entfernten Bereich jedoch nicht. Diese Eigenschafften können mit einem OGF nicht abgebildet werden, da die Zellen ortsfest sind. Dadurch kann eine Zelle einen Ort repräsentieren, der zu einem Zeitpunkt im Nahbereich liegt, zu einem anderen Zeitpunkt jedoch im Fernbereich.
  • Ausführungsformen der vorliegend offenbarten Verfahren und Systeme beheben teilweise oder vollständig einen oder mehrere der vorgenannten Nachteile und ermöglichen einen oder mehrere der folgenden Vorteile.
  • Vorliegend offenbarte Verfahren und Systeme ermöglichen eine verbesserte Erfassung von Hindernissen bzw. Objekten im Umfeld von Fahrzeugen. Insbesondere ermöglichen die offenbarten Verfahren und Systeme eine gleichzeitig im Hinblick auf Effizienz und Genauigkeit verbesserte Erfassung von Hindernissen bzw. Objekten im Umfeld von Fahrzeugen. Vorliegend offenbarte Verfahren und Systeme ermöglichen weiter eine differenzierte Betrachtung von Objekten in Abhängigkeit der Entfernung zum Fahrzeug, sodass näherliegende Objekte präziser und weiter entfernte Objekte mit ausreichender Präzision und hoher Effizienz erfasst werden können. Vorliegend offenbarte Verfahren und Systeme ermöglichen weiter eine Effiziente Erfassung aller Objekte basierend auf einer relativen Position der Objekte zum Fahrzeug, sodass Objekte von primärer Wichtigkeit (z.B. Objekte vor dem Fahrzeug) präzise und effizient erfasst werden können und Objekte von sekundärer Wichtigkeit (z.B. seitliche Objekte oder Objekte im Heckbereich des Fahrzeugs) mit ausreichender Präzision und ressourcenschonend erfasst werden können.
  • Offenbarung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Offenbarung, Verfahren und Systeme zur Erfassung von Hindernissen im Umfeld von Fahrzeugen bereitzustellen, die ein oder mehrere der vorgenannten Nachteile vermeiden und ein oder mehrere der vorgenannten Vorteile realisieren. Es ist weiter eine Aufgabe der vorliegenden Offenbarung, Fahrzeuge mit solchen Systemen bereitzustellen, die ein oder mehrere der vorgenannten Nachteile vermeiden und ein oder mehrere der vorgenannten Vorteile realisieren.
  • Diese Aufgabe wird durch den jeweiligen Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
  • Gemäß Ausführungsformen der vorliegenden Offenbarung ist in einem ersten Aspekt ein Verfahren zur Erfassung von einem oder mehreren Objekten in einem Umfeld eines Fahrzeugs angegeben, wobei das Umfeld von einem Umfang begrenzt wird. Das Verfahren umfasst Segmentieren des Umfeldes in eine Vielzahl von Segmenten, sodass jedes Segment der Vielzahl von Segmenten zumindest teilweise durch den Umfang des Umfeldes begrenzt wird, Erfassen eines oder mehrerer Erfassungspunkte basierend auf den ein oder mehreren Objekte im Umfeld des Fahrzeugs, und Zuordnen eines Zustands zu jedem der Segmente der Vielzahl von Segmenten, basierend auf den ein oder mehreren erfassten Erfassungspunkte.
  • Vorzugsweise, in einem zweiten Aspekt nach dem vorhergehenden Aspekt beinhaltet das Umfeld einen Ursprung, wobei der Ursprung wahlweise mit einer Position des Fahrzeugs, insbesondere einer Position der Mitte einer Hinterachse des Fahrzeugs, zusammenfällt.
  • Vorzugsweise, in einem dritten Aspekt nach dem vorhergehenden Aspekt ist jedes Segment einer ersten Untermenge der Vielzahl der Segmente ausgehend vom Ursprung in Form einer jeweiligen Winkel Öffnung definiert, wobei die erste Untermenge ein, mehrere, oder alle Segmente der Vielzahl der Segmente umfasst.
  • Vorzugsweise, in einem vierten Aspekt nach dem vorhergehenden Aspekt weisen die Segmente der ersten Untermenge mindestens zwei unterschiedliche Winkelöffnungen auf, insbesondere wobei: Segmente, die sich im Wesentlichen lateral zum Fahrzeug erstrecken, eine größere Winkelöffnung aufweisen, als Segmente, die sich im Wesentlichen in einer Längsrichtung zum Fahrzeug erstrecken; oder Segmente, die sich im Wesentlichen lateral zum Fahrzeug erstrecken, eine kleinere Winkelöffnung aufweisen, als Segmente, die sich im Wesentlichen in einer Längsrichtung zum Fahrzeug erstrecken.
  • Vorzugsweise, in einem fünften Aspekt nach einem der Aspekte 3 oder 4 weisen die Segmente der ersten Untermenge ausgehend vom Ursprung eine Winkelöffnung im Wesentlichen in der Fahrtrichtung des Fahrzeugs auf.
  • Vorzugsweise, in einem sechsten Aspekt nach einem der vorhergehenden Aspekte und Aspekt 2 ist jedes Segment einer zweiten Untermenge der Vielzahl der Segmente in Form eines kartesischen Teilbereichs definiert, wobei die zweite Untermenge, gegebenenfalls basierend auf der ersten Untermenge, ein, mehrere, oder alle Segmente der Vielzahl der Segmente umfasst.
  • Vorzugsweise, in einem siebten Aspekt nach dem vorhergehenden Aspekt weisen die Segmente der zweiten Untermenge in einer Dimension mindestens zwei unterschiedliche Ausdehnungen auf.
  • Vorzugsweise, in einem achten Aspekt nach einem der zwei vorhergehenden Aspekte weisen die Segmente der zweiten Untermenge eine erste Ausdehnung im Wesentlichen quer zu einer Fahrtrichtung des Fahrzeugs auf, die größer ist, als eine zweite Ausdehnung im Wesentlichen in einer Fahrtrichtung des Fahrzeugs.
  • Vorzugsweise, in einem neunten Aspekt nach den vorhergehenden Aspekten 3 und 6 sind die Segmente der ersten Untermenge auf einer Seite des Ursprungs 84 definiert und die Segmente der zweiten Untermenge auf einer gegenüberliegenden Seite des Ursprungs. Insbesondere sind die Segmente der ersten Untermenge ausgehend vom Ursprung in Fahrtrichtung des Fahrzeugs definiert.
  • Vorzugsweise, in einem zehnten Aspekt nach einem der vorhergehenden Aspekte umfasst das Verfahren weiter Zusammenfassen der ein oder mehreren Erfassungspunkte zu ein oder mehreren Clustern basierend auf einer räumlichen Nähe der ein oder mehreren Erfassungspunkte. Der Schritt des Zuordnens eines Zustands zu jedem der Segmente der Vielzahl von Segmenten basiert zusätzlich oder alternativ auf den ein oder mehreren zusammengefassten Clustern, insbesondere wobei das Zusammenfassen der ein oder mehreren Erfassungspunkte zu ein oder mehreren Clustern auf der Anwendung des Kalman Filters basiert.
  • Vorzugsweise, in einem elften Aspekt nach dem vorhergehenden Aspekt werden die ein oder mehreren Cluster als ein oder mehrere Erfassungspunkte behandelt.
  • Vorzugsweise, in einem zwölften Aspekt nach einem der vorhergehenden Aspekte zeigt der Zustand eines Segmentes der Vielzahl von Segmenten eine zumindest teilweise Überlappung eines Objektes mit dem jeweiligen Segment an, wobei vorzugsweise der Zustand mindestens einen diskreten Wert oder einen Wahrscheinlichkeitswert beinhaltet.
  • Vorzugsweise, in einem dreizehnten Aspekt nach einem der vorhergehenden Aspekte umfasst das Fahrzeug eine Sensorik, die konfiguriert ist zum Erfassen der Objekte in Form von Erfassungspunkten.
  • Vorzugsweise, in einem vierzehnten Aspekt nach dem vorhergehenden Aspekt umfasst die Sensorik mindestens einen ersten Sensor und einen zweiten Sensor, wobei der erste und zweite Sensor konfiguriert sind zum Erfassen von Objekten, wahlweise wobei der erste und zweite Sensor voneinander verschieden sind und/oder der erste und zweite Sensor ausgewählt sind aus der Gruppe umfassend ultraschallbasierte Sensoren, optische Sensoren, radarbasierte Sensoren, und lidarbasierte Sensoren.
  • Vorzugsweise, in einem fünfzehnten Aspekt nach dem vorhergehenden Aspekt beinhaltet Erfassen der ein oder mehreren Erfassungspunkte weiter ein Erfassen der ein oder mehreren Erfassungspunkte mittels der Sensorik.
  • Vorzugsweise, in einem sechzehnten Aspekt nach einem der vorhergehenden Aspekte weist das Umfeld im Wesentlichen eine der folgenden Formen auf: Quadrat, Rechteck, Kreis, Ellipse, Polygon, Trapez, Parallelogramm.
  • Gemäß Ausführungsformen der vorliegenden Offenbarung ist in einem siebzehnten Aspekt ein System zur Erfassung von einem oder mehreren Objekten in einem Umfeld eines Fahrzeugs angegeben. Das System umfasst eine Steuereinheit und eine Sensorik, wobei die Steuereinheit konfiguriert ist zur Ausführung des Verfahrens gemäß einem der vorhergehenden Aspekte.
  • Gemäß Ausführungsformen der vorliegenden Offenbarung ist in einem achtzehnten Aspekt ein Fahrzeug angegeben, umfassend das System nach dem vorhergehenden Aspekt.
  • Figurenliste
  • Ausführungsbeispiele der Offenbarung sind in den Figuren dargestellt und werden im Folgenden näher beschrieben.
    • 1 zeigt beispielhaft eine schematische Darstellung eines Umfeldes von einem Fahrzeug und von im Umfeld vorhandenen Objekten bzw. Hindernissen;
    • 2 zeigt eine schematische Darstellung der Anwendung einer OGF-basierten Erfassung von Hindernissen im Umfeld von einem Fahrzeug;
    • 3 zeigt eine schematische Darstellung der Erfassung von Objekten im Umfeld eines Fahrzeugs gemäß Ausführungsformen der vorliegenden Offenbarung;
    • 4 zeigt eine beispielhafte segmentbasierte Fusion von Objekten gemäß Ausführungsformen der vorliegenden Offenbarung; und
    • 5 zeigt ein Flussdiagram eines Verfahrens zur Erfassung von Objekten im Umfeld eines Fahrzeugs gemäß Ausführungsformen der vorliegenden Offenbarung.
  • Ausführungsformen der Offenbarung
  • Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.
  • 1 zeigt beispielhaft eine schematische Darstellung eines Umfeldes 80 von einem Fahrzeug 100 und von im Umfeld 80 vorhandenen Objekten 50 bzw. Hindernissen. Das Fahrzeug 100, hier beispielhaft dargestellt als PKW in einer Draufsicht mit Fahrtrichtung nach rechts, befindet sich in einem um das Fahrzeug 100 herum vorhandenen Umfeld 80. Das Umfeld 80 umfasst einen um das Fahrzeug 100 vorhandenen Bereich, wobei je nach Anwendung eine geeignete räumliche Definition des Umfeldes angenommen werden kann. Gemäß Ausführungsformen der vorliegenden Erfindung hat das Umfeld eine Ausdehnung von bis zu 400m Länge und bis zu 200m Breite, vorzugsweise bis zu 80m Länge und bis zu 60m Breite.
  • Typischerweise wird ein Umfeld 80 betrachtet, dessen Ausdehnung in Längsrichtung, d.h. entlang einer Fahrtrichtung des Fahrzeugs 100 größer ist, als in der Richtung quer dazu. Weiter kann das Umfeld in Fahrtrichtung vor dem Fahrzeug 100 eine größere Ausdehnung haben, als hinter dem Fahrzeug 100. Vorzugsweise hat das Umfeld 80 eine geschwindigkeitsabhängige Ausdehnung, so dass eine ausreichende Vorausschau von mindestens zwei Sekunden, vorzugsweise mindestens drei Sekunden, ermöglicht wird.
  • Wie in 1 beispielhaft dargestellt, kann das Umfeld 80 des Fahrzeugs 100 eine Anzahl von Objekten 50 beinhalten, die im Kontext dieser Offenbarung auch als „Hindernisse“ bezeichnet werden können. Objekte 50 repräsentieren Bereiche des Umfeldes 80, die durch das Fahrzeug 100 nicht genutzt werden können bzw. sollen. Weiter können die Objekte 50 unterschiedliche Abmessungen bzw. Formen aufweisen und/oder sich an verschiedenen Positionen befinden. Beispiele für Objekte 50 bzw. Hindernisse können andere Verkehrsteilnehmer, insbesondere ruhender Verkehr, bauliche Beschränkungen (z.B. Randsteine, Bürgersteige, Leitplanken) oder sonstige Begrenzungen des Fahrwegs sein.
  • In 1 ist das Umfeld 80 in Form eines Rechtecks dargestellt (vgl. Umfang 82). Das Umfeld 80 kann jedoch jede geeignete Form und Größe annehmen, die für eine Repräsentation desselben geeignet ist, beispielsweise quadratisch, elliptisch, kreisförmig, polygonal, oder dergleichen. Der Umfang 82 ist konfiguriert zur Begrenzung des Umfelds 80. Dadurch können weiter entfernte Objekte 50 von der Erfassung ausgenommen werden. Weiter kann das Umfeld 80 einer Erfassungsreichweite der Sensorik angepasst werden. Vorzugsweise stimmt das Umfeld 80 mit einer Form und Größe des Bereiches überein, der durch die im Fahrzeug 100 verbaute Sensorik (nicht in 1 dargestellt) erfasst werden kann. Weiter kann das Fahrzeug 100 eine Steuereinheit 120 in Datenkommunikation mit der Sensorik des Fahrzeugs umfassen, die konfiguriert ist, Schritte des Verfahrens 500 auszuführen.
  • 2 zeigt eine schematische Darstellung der Anwendung einer OGF-basierten Erfassung von Hindernissen 50 im Umfeld 80 von einem Fahrzeug 100 gemäß dem Stand der Technik. Der Einfachheit halber sind in 2 die gleichen Objekte 50 in Relation zum Fahrzeug 100 dargestellt, wie in 1. Darüber hinaus zeigt 2 eine über das Umfeld 80 gelegte Gridstruktur 60, durch die eine beispielhafte Einteilung des Umfelds 80 in Zellen 62, 64 vorgenommen wird. Hierbei markieren schraffiert dargestellte Zellen 64 die Teilbereiche der Gridstruktur 60, die zumindest teilweise ein Objekt 50 enthalten. Dem gegenüber sind als „frei“ markierte Zellen 62 ohne Schraffur dargestellt.
  • Gut zu erkennen ist in 2, dass die Größe der Zellen 62, 64 in mehrerlei Hinsicht wesentlich für die Erfassung der Objekte 50 ist. Eine Zelle 64 kann basierend auf der Gridstruktur 60 dann als belegt markiert werden, wenn sie sich zumindest teilweise mit einem Objekt 50 überdeckt. Im dargestellten Beispiel kann daher die Gruppe 66 von Zellen 64 als belegt markiert werden, obwohl der effektive (seitliche) Abstand des durch die Gruppe 66 erfassten Objektes 50 zum Fahrzeug 100 wesentlich größer ist, als der Abstand der Gruppe 66. Eine präzise Ermittlung von Abständen zu Objekten 50 basierend auf der Gridstruktur würde somit relativ kleine Zellen erfordern. In manchen Fällen verwenden gridbasierte Verfahren auch Wahrscheinlichkeiten bzw. „unscharfe“ Werte, sodass eine oder mehrere Zellen auch derart markiert werden können, dass die Wahrscheinlichkeit einer Belegung erfasst wird (z.B. 80% oder 30%) oder ein entsprechender Wert verwendet wird (z.B. 0,8 oder 0,3), anstatt einer diskreten Bewertung (z.B. „belegt“ oder „nicht belegt). An den grundsätzlichen Gegebenheiten, beispielsweise in Bezug auf die Zellengröße, ändern solche Aspekte nichts.
  • Weiter sind eine präzise Ermittlung einer effektiven Größe eines Objektes 50 oder Rückschlüsse auf dessen bzw. deren Form, wie in 2 dargestellt, ebenfalls von einer geeigneten (kleinen) Zellengröße abhängig. Die Gruppen 66 und 67 von Zellen 64 beispielsweise enthalten (in Bezug auf die Gruppengröße) relativ kleine Objekte 50, während die Gruppe 68 nicht nur ein Objekt 50, sondern deren zwei enthält. Rückschlüsse auf die Größe, Form, bzw. Anzahl von Objekten in einer jeweiligen, zusammenhängenden Gruppe 66, 67, 68 von Zellen 64 sind demnach anhand der dargestellten Gridstruktur nur eingeschränkt bzw. mit relativer Ungenauigkeit möglich.
  • Wie bereits beschrieben, erfordert eine geringere Zellengröße entsprechend mehr Ressourcen für die Erfassung bzw. Verarbeitung der Objektdaten, sodass eine höhere Genauigkeit typischerweise mit Nachteilen bezüglich Effizienz bzw. Ressourcenbedarf einher geht.
  • 3 zeigt eine schematische Darstellung der Erfassung von Objekten 50 im Umfeld 80 eines Fahrzeugs 100 gemäß Ausführungsformen der vorliegenden Offenbarung. Ausführungsformen der vorliegenden Offenbarung basieren auf einer Fusion der Eigenschaften statischer Objekte 50 (bzw. Hindernisse) in einer fahrzeugfesten, segmentbasierten Repräsentation. Eine beispielhafte fahrzeugfeste, segmentbasierte Repräsentation ist in 3 dargestellt. Das Umfeld 80 des Fahrzeugs 100 wird durch den Umfang 82 begrenzt. Zum Zwecke der Illustration ist das Umfeld 80 in 3, analog zu dem in 1 gezeigten, ebenfalls in Form eines Rechtecks dargestellt, ohne dass das Umfeld 80 auf eine solche Form oder Größe festgelegt wäre (siehe oben).
  • Die segmentbasierte Repräsentation kann aus kartesischen oder polaren oder gemischten Segmenten bestehen. In 3 ist eine Repräsentation basierend auf gemischten Segmenten 220, 230 gezeigt. Der Ursprung 84 des Koordinatennetzes kann im Wesentlichen auf den Mittelpunkt der Hinterachse des Fahrzeugs 100 gelegt werden, wie in 3 dargestellt ist, um die Repräsentation fahrzeugfest zu definieren. Offenbarungsgemäß sind jedoch andere Definitionen bzw. relative Positionierungen möglich.
  • Wenn verschiedene Komponenten bzw. Konzepte räumlich in Bezug auf das Fahrzeug 100 gesetzt werden, geschieht dies relativ zu einer Längsachse 83 des Fahrzeugs 100, die sich entlang bzw. parallel zu einer angenommenen Fahrtrichtung vorwärts erstreckt. In den 1 bis 3 ist die angenommene Fahrtrichtung des Fahrzeugs 100 vorwärts nach rechts, wobei die Längsachse 83 in 3 dargestellt ist. Dementsprechend ist eine Querachse des Fahrzeugs rechtwinklig zur Längsachse 83 zu verstehen. Somit befindet sich beispielsweise das Objekt 50-2 lateral bzw. querab zum Fahrzeug 100 und das Objekt 50-6 im Wesentlichen in Fahrtrichtung vor dem Fahrzeug 100.
  • Ausgehend vom Ursprung 84 des Koordinatennetzes ist das Umfeld 80 in Fahrtrichtung (in 3 nach rechts) in polare Segmente 220 aufgeteilt bzw. segmentiert, sodass jedes Segment 220 durch einen im Ursprung verorteten Winkel (und dementsprechend eine Winkelöffnung) und den Umfang 82 des Umfelds 80 definiert wird. Hierbei können, wie in 3 dargestellt, verschiedene Segmente 220 anhand verschieden großer Winkel bzw. Winkelöffnungen definiert werden. Beispielsweise weisen die Segmente 220, die im Wesentlichen das Umfeld querab des Fahrzeugs 100 (bzw. lateral zur Fahrtrichtung) abdecken, größere Winkel auf, als diejenigen Segmente 220, die das Umfeld 80 im Wesentlichen in Fahrtrichtung abdecken. In dem in 3 illustrierten Beispiel wird durch die lateral-longitudinal unterschiedliche Segmentierung (größere Winkel querab, kleinere Winkel in Längsrichtung) eine genauere Auflösung in Fahrtrichtung erreicht, während querab eine geringere Auflösung angewendet wird. In anderen Ausführungsformen, beispielsweise wenn eine andere Priorisierung der Erfassungsgenauigkeit gewünscht ist, kann die Segmentierung entsprechend angepasst werden. In Beispielen, in denen die Erfassung querab mit höherer Auflösung erfolgen soll, kann die Segmentierung querab kleinere Öffnungswinkel (bzw. schmalere Segmente) aufweisen.
  • Weiter ist das Umfeld 80, ausgehend vom Ursprung 84 des Koordinatennetzes entgegen der Fahrtrichtung (in 3 links vom Fahrzeug 100) in kartesische Segmente 230 segmentiert, sodass jedes Segment 230 durch ein auf der einen Seite durch die Achse 83 (verlaufend durch den Ursprung 84 und parallel zur Fahrtrichtung) und auf der anderen Seite durch den Umfang 82 begrenztes Rechteck definiert wird. Eine Breite der (rechteckigen) Segmente 230 kann geeignet festgelegt bzw. durch einen vorbestimmten Wert definiert werden.
  • Eine Segmentierung des Umfelds 80 durch unterschiedliche Segmente 220, 230 (z.B. polare und kartesische) kann eine Anpassung an von der konkreten Anwendung abhängige unterschiedliche Erfassungsmodalitäten erlauben. So kann beispielsweise die Erfassung von Objekten 50 im Umfeld 80 des Fahrzeugs 100 in Fahrtrichtung eine größere Genauigkeit und Reichweite aufweisen, als die Erfassung von Objekten 50 im Umfeld 80 des Fahrzeugs 100 entgegen der Fahrtrichtung (z.B. hinter dem Fahrzeug) oder seitlich des Fahrzeugs 100.
  • 3 zeigt eine beispielhafte Segmentierung zum Zwecke der Illustration offenbarungsgemäßer Ausführungsformen. In anderen Ausführungsformen können andere Segmentierungen zur Anwendung kommen, beispielsweise basierend nur auf polaren oder nur auf kartesischen Koordinaten, sowie, abweichend von dem in 3 gezeigten, basierend auf gemischten Koordinaten.
  • Generell kann ein Segment 220, 230 kein, ein oder mehrere Objekte 50 beinhalten. In 3 sind Segmente 220, 230, die ein oder mehrere Objekten 50 enthalten als Segmente 220' bzw. 230' bezeichnet. Die Fläche, die durch ein Segment 220, 230 repräsentiert wird ist zumindest an einer Seite durch den Umfang 82 des Umfelds 80 begrenzt. Durch eine polare Repräsentation wird insbesondere die Eigenschaft abgebildet, dass die Genauigkeit mit der Distanz abnimmt. Dies ist dadurch bedingt, dass die polare Repräsentation, d.h. die strahlenbasierte Segmentierung ausgehend vom Ursprung 84, mit zunehmender Entfernung vom Ursprung 84 einen immer größeren Bereich abdeckt, währen proximal zum Ursprung 84 vergleichsweise kleine Ausschnitte, und somit Flächen, betrachtet werden.
  • Basierend auf der Sensorik des Fahrzeugs 100, d.h. basierend auf den Signalen eines oder mehrerer Sensoren, werden in einem Segment kein, ein oder mehrere Erfassungspunkte 54, 56 erkannt. Bei Verwendung mehrerer Sensoren liegen typischerweise unterschiedliche Sicht- bzw. Erfassungsbereiche vor, die eine verlässliche bzw. verlässlichere Erfassung von Objekten 50 erlauben. Dabei können Objekte 50, die von einem Sensor nicht oder nur schlecht erfasst werden können (bspw. basierend auf einem eingeschränkten Erfassungsbereich, der Art der Erfassung und/oder Störungen) oft von einem anderen Sensor zuverlässig erfasst werden. Bei der Erfassung werden Erfassungspunkte registriert, die örtlich im Koordinatensystem eingeordnet werden können.
  • Die Sensorik des Fahrzeugs 100 umfasst vorzugsweise einen oder mehrere Sensoren, ausgewählt aus der Gruppe umfassend ultraschallbasierte Sensoren, Lidar Sensoren, optische Sensoren und radarbasierte Sensoren.
  • Zyklisch können in jedem Zeitschritt nahe beieinander liegende Hindernispunkte zusammen assoziiert und bezüglich ihrer Eigenschaften (z.B. Position, Existenzwahrscheinlichkeit, Höhe, etc.) fusioniert werden. Das Ergebnis dieser Fusion wird in der beschriebenen Repräsentation gespeichert und über die Zeit mittels der Fahrzeugbewegung nachverfolgt bzw. getrackt (vgl. Engl. „Tracking“ i.S.v. nachführen, nachverfolgen). Die Ergebnisse von Fusion und Tracking dienen in folgenden Zeitschritten zusätzlich zu neuen Sensormessungen als weitere Hindernispunkte.
  • Die Nachverfolgung bzw. Nachführung beschreibt ein Fortführen der bereits erfassten Objekte 50 bzw. der Erfassungspunkte 54, 56 basierend auf einer Positionsveränderung des Fahrzeugs. Hierbei wird eine Relativbewegung des Fahrzeugs (z.B. basierend auf Dead Reckoning bzw. Odometriesensorik, oder GPS Koordinaten) entsprechend in der Repräsentation abgebildet.
  • 4 zeigt eine beispielhafte segmentbasierte Fusion von Objekten 54-1, 54-2, 54-3, 54-4, 54-5 gemäß Ausführungsformen der vorliegenden Offenbarung. 4 zeigt ein Segment 220' mit der beispielhaften Erkennung von fünf Erfassungspunkten 54-1, 54-2, 54-3, 54-4 und 54-5. Vorzugsweise werden ein oder mehrere der Erfassungspunkte basierend auf Signalen unterschiedlicher Sensoren erfasst. Die Rauten kennzeichnen die erfassten Objektpositionen angenähert als Erfassungspunkte und die jeweiligen Ellipsen entsprechen einer zweidimensionalen Positionsunsicherheit (Varianz). Je nach Sensorik kann eine unterschiedliche Varianz unterstellt werden, bzw. kann für jede Detektion eine geschätzte Varianz vom jeweiligen Sensor geliefert werden.
  • Beginnend mit dem nächstliegenden Objekt 54-1 wird ein Cluster von Objekten erzeugt, indem sämtliche Objekte innerhalb der zweidimensionalen Positionsunsicherheit von Objekt 54-1 gruppiert werden. Es entsteht der Cluster mit den Objekten 54-1, 54-2 und 54-3. Den Objekten 54-4 und 54-5 können jeweils keine weiteren Objekte zugeordnet werden. Deshalb bilden diese jeweils einen eigenen Cluster. Innerhalb eines Clusters wird die Position beispielsweise mittels Kalmanfilter fusioniert, die Existenzwahrscheinlichkeit mittels Bayes oder Dempster-Shafer.
  • 5 zeigt ein Flussdiagram eines Verfahrens 500 zur Erfassung von Objekten 50 im Umfeld 50 eines Fahrzeugs 100 gemäß Ausführungsformen der vorliegenden Offenbarung. Das Verfahren 500 beginnt bei Schritt 501.
  • In Schritt 502 wird das Umfeld 80 in eine Vielzahl von Segmenten aufgeteilt bzw. segmentiert, sodass jedes Segment 220, 230 der Vielzahl von Segmenten zumindest teilweise durch den Umfang 82 des Umfeldes 80 begrenzt wird. Das bedeutet (vgl. 3), dass jedes der Segmente zumindest teilweise durch den Umfang 82 begrenzt wird und somit das Umfeld vollumfänglich durch die Segmente abgedeckt wird. Mit anderen Worten entspricht die Summe aller Segmente 220, 230 dem Umfeld 80, die Flächen sind identisch bzw. deckungsgleich. Weiter hat jedes Segment „Kontakt“ zum Umfang 82 bzw. zum Rand des Umfelds, sodass kein Segment isoliert innerhalb des Umfeldes 80 angeordnet oder vom Umfang 82 getrennt ist. Mit anderen Worten fällt mindestens ein Abschnitt des Umfangs jedes Segments 220, 230 mit einem Abschnitt des Umfangs 82 des Umfelds 80 zusammen.
  • In Schritt 504 werden ein oder mehrere Erfassungspunkte 54, 56 basierend auf den ein oder mehreren Objekte 50 im Umfeld 80 des Fahrzeugs 100 erfasst. Hierbei werden basierend auf der Sensorik des Fahrzeugs 100 Erfassungspunkte des oder der Objekte(s) als Punkte (z.B. Koordinaten, Positionsinformation) erfasst, vorzugsweise relativ zum Fahrzeug 100 oder in einem anderen geeigneten Bezugsrahmen. Die so erfassten Erfassungspunkte 54, 56 markieren demnach Stellen im Umfeld 80 des Fahrzeugs 100, an denen ein Objekt 50 bzw. ein Teilbereich des Objektes erfasst worden sind. Wie in 3 erkennbar, können mehrere Erfassungspunkte 54, 56 für jeweils ein Objekt erfasst werden, wobei ein Objekt 50 desto genauer erfasst werden kann, je mehr Erfassungspunkte 54, 56 erfasst werden und wenn verschiedenartige Sensoren (z.B. optisch, ultraschallbasiert) zur Erfassung eingesetzt werden, sodass sensorbedingte bzw. technische Einflüsse (z.B. Sicht- bzw. Erfassungsbereiche, Auflösung, Reichweite, Genauigkeit) minimiert werden.
  • Optional werden in Schritt 506 ein oder mehrere Erfassungspunkte 54, 56 zu Clustern zusammengefasst, basierend auf einer räumlichen Nähe der Punkte zueinander. Wie in Bezug auf 4 beschrieben, können auf diese Weise evtl. vorhandene Positionsunsicherheiten vermindert bzw. vermieden werden, sodass Objekte 50 basierend auf den resultierenden Clustern der Erfassungspunkte mit einer verbesserten Genauigkeit erfasst werden können.
  • In Schritt 508 wird jedem der Segmente 220, 230 der Vielzahl von Segmenten ein Zustand zugeordnet, basierend auf den ein oder mehreren Erfassungspunkten 54, 56 und/oder den erfassten Clustern. Sofern keine Cluster gebildet worden sind, basiert Schritt 508 auf den erfassten Erfassungspunkten 54, 56. Wahlweise kann Schritt 508 zusätzlich oder alternativ auf den erfassten Clustern basieren, mit dem Ziel eine möglichst hohe Erfassungsgenauigkeit zu ermöglichen und Segmente entsprechend mit einem Zustand zu versehen. Der Zustand zeigt insbesondere eine Relation des Segments mit einem oder mehreren Hindernissen an. Gemäß Ausführungsformen der vorliegenden Offenbarung kann der Zustand einen diskreten Wert annehmen (z.B. „belegt“ oder „unbelegt“, bzw. geeignete Repräsentationen wie „0“ oder „1“) oder einen fließenden Wert (z.B. Werte, die eine Belegungswahrscheinlichkeit ausdrücken, wie „30%“ oder „80%“, bzw. geeignete Repräsentationen wie „0.3“ oder „0.8“; oder andere geeignete Werte, z.B. diskrete Levels der Belegtheit, z.B. „stark“, „mittel“, „schwach“).
  • Wenn vorliegend von einem Fahrzeug die Rede ist, so handelt es hierbei bevorzugt um ein mehrspuriges Kraftfahrzeug (PKW, LKW, Transporter). Daraus ergeben sich mehrere im Rahmen dieses Dokuments explizit beschriebene sowie mehrere weitere für den Fachmann nachvollziehbare Vorteile.
  • Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • S. Thrun und A. Bücken, „Integrating grid-based and topological maps for mobile robot navigation,“ in Proceedings of the Thirteenth National Conference on Artificial Intelligence - Volume 2, Portland, Oregon, 1996 [0006]

Claims (10)

  1. Verfahren (500) zur Erfassung von einem oder mehreren Objekten (50) in einem Umfeld (80) eines Fahrzeugs (100), wobei das Umfeld (80) von einem Umfang (82) begrenzt wird, das Verfahren umfassend: Segmentieren (502) des Umfeldes (80) in eine Vielzahl von Segmenten, sodass jedes Segment (220, 230) der Vielzahl von Segmenten zumindest teilweise durch den Umfang (82) des Umfeldes (80) begrenzt wird; Erfassen (504) eines oder mehrerer Erfassungspunkte (54, 56) basierend auf den ein oder mehreren Objekte (50) im Umfeld (80) des Fahrzeugs (100); und Zuordnen (508) eines Zustands zu jedem der Segmente (220, 230) der Vielzahl von Segmenten, basierend auf den ein oder mehreren erfassten Erfassungspunkte (54, 56).
  2. Verfahren nach dem vorhergehenden Anspruch, wobei das Umfeld (80) einen Ursprung (84) beinhaltet, wobei der Ursprung (84) wahlweise mit einer Position des Fahrzeugs (100), insbesondere einer Position der Mitte einer Hinterachse des Fahrzeugs (100), zusammenfällt.
  3. Verfahren nach dem vorhergehenden Anspruch, wobei - jedes Segment (220) einer ersten Untermenge der Vielzahl der Segmente ausgehend vom Ursprung (84) in Form einer jeweiligen Winkelöffnung definiert ist, wobei die erste Untermenge ein, mehrere, oder alle Segmente (220) der Vielzahl der Segmente umfasst; weiter vorzugsweise wobei - die Segmente (220) der ersten Untermenge mindestens zwei unterschiedliche Winkelöffnungen aufweisen, insbesondere wobei Segmente (220), die sich im Wesentlichen lateral zum Fahrzeug (100) erstrecken, eine größere Winkelöffnung aufweisen, als Segmente (220), die sich im Wesentlichen in einer Längsrichtung zum Fahrzeug (100) erstrecken; oder Segmente (220), die sich im Wesentlichen lateral zum Fahrzeug (100) erstrecken, eine kleinere Winkelöffnung aufweisen, als Segmente (220), die sich im Wesentlichen in einer Längsrichtung zum Fahrzeug (100) erstrecken; und/oder wobei - die Segmente (220) der ersten Untermenge ausgehend vom Ursprung (84) eine Winkelöffnung im Wesentlichen in der Fahrtrichtung des Fahrzeugs (100) aufweisen.
  4. Verfahren nach Anspruch 2 und Anspruch 3, wobei: - jedes Segment (230) einer zweiten Untermenge der Vielzahl der Segmente in Form eines kartesischen Teilbereichs definiert ist, wobei die zweite Untermenge, gegebenenfalls basierend auf der ersten Untermenge, ein, mehrere, oder alle Segmente (220) der Vielzahl der Segmente umfasst; weiter vorzugsweise wobei - die Segmente (230) der zweiten Untermenge in einer Dimension mindestens zwei unterschiedliche Ausdehnungen aufweisen; und/oder wobei - die Segmente (230) der zweiten Untermenge eine erste Ausdehnung im Wesentlichen quer zu einer Fahrtrichtung des Fahrzeugs (100) aufweisen, die größer ist, als eine zweite Ausdehnung im Wesentlichen in einer Fahrtrichtung des Fahrzeugs (100).
  5. Verfahren nach den vorhergehenden Ansprüchen 3 und 4, wobei die Segmente (220) der ersten Untermenge auf einer Seite des Ursprungs 84 definiert sind und die Segmente (230) der zweiten Untermenge auf einer gegenüberliegenden Seite des Ursprungs (84); insbesondere wobei die Segmente (220) der ersten Untermenge ausgehend vom Ursprung (84) in Fahrtrichtung des Fahrzeugs (100) definiert sind.
  6. Verfahren nach einem der vorhergehenden Ansprüche, weiter umfassend Zusammenfassen (506) der ein oder mehreren Erfassungspunkte (54, 56) zu ein oder mehreren Clustern basierend auf einer räumlichen Nähe der ein oder mehreren Erfassungspunkte (54, 56) und wobei der Schritt des Zuordnens (508) eines Zustands zu jedem der Segmente (220, 230) der Vielzahl von Segmenten zusätzlich oder alternativ auf den ein oder mehreren zusammengefassten Clustern basiert, insbesondere wobei das Zusammenfassen (506) der ein oder mehreren Erfassungspunkte (54, 56) zu ein oder mehreren Clustern auf der Anwendung des Kalman Filters basiert; vorzugsweise wobei die ein oder mehreren Cluster als ein oder mehrere Erfassungspunkte (54, 56) behandelt werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei - der Zustand eines Segmentes (220, 230) der Vielzahl von Segmenten eine zumindest teilweise Überlappung eines Objektes (50) mit dem jeweiligen Segment (220, 230) anzeigt, wobei vorzugsweise der Zustand mindestens einen diskreten Wert oder einen Wahrscheinlichkeitswert beinhaltet; und/oder wobei - das Fahrzeug (100) eine Sensorik umfasst, die konfiguriert ist zum Erfassen der Objekte (50) in Form von Erfassungspunkten (54, 56); weiter vorzugsweise wobei die Sensorik mindestens einen ersten Sensor und einen zweiten Sensor umfasst, und wobei der erste und zweite Sensor konfiguriert sind zum Erfassen von Objekten (50), wahlweise wobei: der erste und zweite Sensor voneinander verschieden sind, und/oder der erste und zweite Sensor ausgewählt sind aus der Gruppe umfassend ultraschallbasierte Sensoren, optische Sensoren, radarbasierte Sensoren, lidarbasierte Sensoren; und/oder wobei - Erfassen der ein oder mehreren Erfassungspunkte (54, 56) beinhaltet Erfassen der ein oder mehreren Erfassungspunkte (54, 56) mittels der Sensorik.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Umfeld (80) im Wesentlichen eine der folgenden Formen aufweist: Quadrat, Rechteck, Kreis, Ellipse, Polygon, Trapez, Parallelogramm.
  9. System zur Erfassung von einem oder mehreren Objekten (50) in einem Umfeld (80) eines Fahrzeugs (100), das System umfassend eine Steuereinheit (120) und eine Sensorik, wobei die Steuereinheit konfiguriert ist zur Ausführung des Verfahrens (500) gemäß einem der vorhergehenden Ansprüche.
  10. Fahrzeug (100), umfassend das System nach dem vorhergehenden Anspruch.
DE102018115895.5A 2018-06-30 2018-06-30 Verfahren und System zur Erkennung von Hindernissen Pending DE102018115895A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018115895.5A DE102018115895A1 (de) 2018-06-30 2018-06-30 Verfahren und System zur Erkennung von Hindernissen
US17/255,539 US20210342605A1 (en) 2018-06-30 2019-06-18 Method and system for identifying obstacles
CN201980042470.5A CN112313664A (zh) 2018-06-30 2019-06-18 用于识别障碍物的方法和系统
PCT/DE2019/100558 WO2020001690A1 (de) 2018-06-30 2019-06-18 Verfahren und system zur erkennung von hindernissen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018115895.5A DE102018115895A1 (de) 2018-06-30 2018-06-30 Verfahren und System zur Erkennung von Hindernissen

Publications (1)

Publication Number Publication Date
DE102018115895A1 true DE102018115895A1 (de) 2020-01-02

Family

ID=67180480

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018115895.5A Pending DE102018115895A1 (de) 2018-06-30 2018-06-30 Verfahren und System zur Erkennung von Hindernissen

Country Status (4)

Country Link
US (1) US20210342605A1 (de)
CN (1) CN112313664A (de)
DE (1) DE102018115895A1 (de)
WO (1) WO2020001690A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220092738A (ko) * 2020-12-24 2022-07-04 현대자동차주식회사 회피 조향 제어가 개선된 주차 지원 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013214631A1 (de) * 2013-07-26 2015-01-29 Bayerische Motoren Werke Aktiengesellschaft Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102016208634A1 (de) * 2016-05-19 2017-11-23 Volkswagen Aktiengesellschaft Verfahren zum Ausgeben einer Warninformation in einem Fahrzeug

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2368216B1 (de) * 2008-10-10 2012-12-26 ADC Automotive Distance Control Systems GmbH Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung
DE102013207904A1 (de) * 2013-04-30 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer effizienten Umfeldkarte für ein Fahrzeug
DE102013214632A1 (de) * 2013-07-26 2015-01-29 Bayerische Motoren Werke Aktiengesellschaft Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102013217486A1 (de) * 2013-09-03 2015-03-05 Conti Temic Microelectronic Gmbh Verfahren zur Repräsentation eines Umfelds eines Fahrzeugs in einem Belegungsgitter
US9766628B1 (en) * 2014-04-04 2017-09-19 Waymo Llc Vision-based object detection using a polar grid
WO2017079341A2 (en) * 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
KR102313026B1 (ko) * 2017-04-11 2021-10-15 현대자동차주식회사 차량 및 차량 후진 시 충돌방지 보조 방법
US10444759B2 (en) * 2017-06-14 2019-10-15 Zoox, Inc. Voxel based ground plane estimation and object segmentation
JP2019008519A (ja) * 2017-06-23 2019-01-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム
JP2019159380A (ja) * 2018-03-07 2019-09-19 株式会社デンソー 物体検知装置、物体検知方法およびプログラム
US10916014B2 (en) * 2018-06-01 2021-02-09 Ford Global Technologies, Llc Distinguishing virtual objects from one another

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013214631A1 (de) * 2013-07-26 2015-01-29 Bayerische Motoren Werke Aktiengesellschaft Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102016208634A1 (de) * 2016-05-19 2017-11-23 Volkswagen Aktiengesellschaft Verfahren zum Ausgeben einer Warninformation in einem Fahrzeug

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
S. Thrun und A. Bücken, „Integrating grid-based and topological maps for mobile robot navigation," in Proceedings of the Thirteenth National Conference on Artificial Intelligence - Volume 2, Portland, Oregon, 1996
THRUN, Sebastian ; BÜCKEN, Arno: Integrating grid-based and topological maps for mobile robot navigation. In: Proceedings of the Thirteenth National Conference on Artificial Intelligence and the Eighth Innovative Applications of Artificial Intelligence Conference, August 4-8, 1996, Portland, Oregon. Vol. 2. Menlo Park : AAAI Press, 1996. S. 944-950 *

Also Published As

Publication number Publication date
US20210342605A1 (en) 2021-11-04
CN112313664A (zh) 2021-02-02
WO2020001690A1 (de) 2020-01-02

Similar Documents

Publication Publication Date Title
EP3731187B1 (de) Verfahren und vorrichtung zur bestimmung der geografischen position und orientierung eines fahrzeugs
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102015209467A1 (de) Verfahren zur Schätzung von Fahrstreifen
DE102018008624A1 (de) Steuerungssystem und Steuerungsverfahren zum samplingbasierten Planen möglicher Trajektorien für Kraftfahrzeuge
WO2021043507A1 (de) Querführung eines fahrzeugs mittels von anderen fahrzeugen erfassten umgebungsdaten
WO2014195047A1 (de) Belegungskarte für ein fahrzeug
EP2943910A1 (de) Erstellung einer hinderniskarte
DE102016212587A1 (de) Verfahren und System zur Erzeugung von Karteninformationen
EP3298537B1 (de) Verfahren zur ermittlung einer beschreibung eines fahrstreifens
DE102019112649A1 (de) Vorrichtung und verfahren zur verbesserten radarstrahlformung
EP2963631B1 (de) Verfahren zum ermitteln eines parkplatzes aus einer anzahl von messpunkten
DE102019112413A1 (de) Verfahren und vorrichtung zur multi-sensor-datenfusion für automatisierte und autonome fahrzeuge
EP3142913B1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102015218042A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs und Fahrerassistenzsystem
EP3454084B1 (de) Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem
DE102014111125A1 (de) Verfahren zum Erkennen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mittels eines Ultraschallsensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020124331A1 (de) Fahrzeugspurkartierung
DE102017208509A1 (de) Verfahren zum Erzeugen eines Straßenmodells während einer Fahrt eines Kraftfahrzeugs sowie Steuervorrichtung und Kraftfahrzeug
WO2020001690A1 (de) Verfahren und system zur erkennung von hindernissen
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE102017105721A1 (de) Verfahren zur Identifikation wenigstens eines Parkplatzes für ein Fahrzeug und Parkplatzassistenzsystem eines Fahrzeugs
DE102022000849A1 (de) Verfahren zur Erzeugung einer Umgebungsrepräsentation für ein Fahrzeug

Legal Events

Date Code Title Description
R082 Change of representative
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication