AT521647A1 - Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten - Google Patents

Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten Download PDF

Info

Publication number
AT521647A1
AT521647A1 ATA50788/2018A AT507882018A AT521647A1 AT 521647 A1 AT521647 A1 AT 521647A1 AT 507882018 A AT507882018 A AT 507882018A AT 521647 A1 AT521647 A1 AT 521647A1
Authority
AT
Austria
Prior art keywords
ego
vehicle
sensor data
representation
scenario
Prior art date
Application number
ATA50788/2018A
Other languages
English (en)
Other versions
AT521647B1 (de
Inventor
Beglerovic Halil
Jonas Rübsam MSC
Dipl Ing Msc (Fh) Steffen Metzner
Original Assignee
Avl List Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avl List Gmbh filed Critical Avl List Gmbh
Priority to ATA50788/2018A priority Critical patent/AT521647B1/de
Priority to EP19773727.3A priority patent/EP3850536A1/de
Priority to KR1020217010955A priority patent/KR20210060535A/ko
Priority to JP2021514045A priority patent/JP7511544B2/ja
Priority to PCT/AT2019/060301 priority patent/WO2020051618A1/de
Priority to US17/275,810 priority patent/US20220237889A1/en
Priority to CN201980060057.1A priority patent/CN112673379A/zh
Publication of AT521647A1 publication Critical patent/AT521647A1/de
Application granted granted Critical
Publication of AT521647B1 publication Critical patent/AT521647B1/de

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Game Theory and Decision Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Datenaufbereitung von dynamischen räumlichen Szenarien, ein Computer-gestütztes Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes sowie ein Computergestütztes Verfahren und ein System zum Analysieren von Sensordaten. Es wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts durch ein anderes Objekt abgedeckt wird, erzeugt. Der zeitliche Verlauf ist dazu aus Sensordaten ermittelt, wobei die Sensordaten geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren.

Description

Beschreibung
Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten
Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Datenaufbereitung von dynamischen räumlichen Szenarien für die Verarbeitung durch ein künstliches neuronales Netz, ein Computer-gestütztes Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes sowie ein Computer-gestütztes Verfahren und ein System zum Analysieren von Sensordaten.
Moderne Fahrzeuge sind zunehmend mit Fahrerassistenzsystemen (engl. Advanced Driver Assistance Systems, ADAS) ausgestattet, welche den Fahrer in bestimmten Fahrsituationen unterstützen. Die Unterstützung reicht von reinem Anzeigen möglicherweise relevanter Information (z.B. Ausgeben einer Warnung durch einen Spurwechselassistent) über teilautonome Eingriffe (z.B. Regulierung des auf die Radachsen aufgebrachten Moments durch ein Antiblockiersystem) bis hin zu vollautonomen Eingriffen in die Steuerung des Fahrzeugs (z.B. adaptive Geschwindigkeitsregelung durch einen Abstandsregeltempomat, engl. Adaptive Cruise Control, ACC).
Die Grundlage für solche Fahrerassistenzsysteme bilden in der Regel Sensordaten, etwa bereitgestellte Signale von Ultraschallsensoren, Radarsensoren oder Kameras, anhand denen die gegenwärtige Fahrsituation bestimmt und in Reaktion darauf die Funktion des jeweiligen Fahrerassistenzsystems ausgeführt werden kann. Insbesondere bei Fahrerassistenzsystem, die (autonom) in die Steuerung des Fahrzeugs eingreifen, muss anhand der Sensordaten die gegenwärtige Fahrsituation höchst zuverlässig klassifiziert werden können.
Im Allgemeinen werden dabei bestimmte, einer Fahrsituation zugeordnete Regeln bzw. Kriterien aufgestellt, bei deren Erfüllung auf ein Vorliegen einer bekannten Fahrsituation geschlossen werden kann. Das Erfüllen der Regel bzw. Kriterien wirkt dabei z.B. als Auslöser für eine Aktion des Fahrerassistenzsystems. Beispielsweise kann ein Verkehrsszenario, in dem ein benachbartes Fahrzeug vor dem Ego-Fahrzeug genannten, mit dem Fahrerassistenzsystem ausgestatteten Fahrzeug in die gleiche Fahrspur ein2 / 36
PI32129AT
AVL List GmbH schert, dadurch erkannt werden, dass ein sensorisch erfasster transversaler Abstand senkrecht zur Fahrtrichtung zum benachbarten Fahrzeug abnimmt und schließlich, zumindest im Wesentlichen, den Wert 0 annimmt, wenn das benachbarte Fahrzeug sich unmittelbar vor dem Ego-Fahrzeug befindet.
Das Programmieren von Algorithmen, die dazu geeignet sind, solche Fahrsituationen bzw. Szenarien (zuverlässig) zu erkennen, ist im Allgemeinen extrem aufwändig und insbesondere bei einer Vielzahl von zu berücksichtigenden Fahrsituationen gegebenenfalls sogar unmöglich. Daher wird verstärkt maschinelles Lernen eingesetzt, um Charakteristika in Sensordaten, die auf eine Fahrsituation hinweisen, automatisch zu finden. Bei den zugrunde gelegten Sensordaten handelt es sich üblicherweise um, z.B. manuell, bezüglich verschiedener Fahrsituationen klassifizierte Sensordaten (engl. labeled sensor data), anhand deren beispielsweise ein künstliches neuronales Netz die relevanten Kriterien für die jeweilige Fahrsituation extrahieren kann. Dabei müssen die klassifizierten Sensordaten in der Regel in einer vorgegebenen Form vorliegen, d.h. entsprechend aufbereitet sein, um von dem künstlichen neuronalen Netz sinnvoll verarbeitet werden zu können.
Einen Ansatz für eine solche Aufbereitung stellen so genannte Gitterkarten (engl. grid maps) dar, welche die entsprechenden Fahrsituationen aus der Vogelperspektive zeigen. Die Dynamik einer zu Grunde liegenden Fahrsituation wird dabei wiedergegeben, indem beispielsweise alle im Laufe der Zeit eingenommen Positionen der jeweiligen Verkehrsteilnehmer in der entsprechenden Gitterkarte abgebildet werden.
Solche Gitterkarten werden beispielsweise in Gruner et. al., „Spatiotemporal Representation of Driving Scenarios and Classification using Neural Networks“, 2017 IEEE Intelligent Vehicle Symposium, S. 1782-1788, diskutiert.
In Cara and de Gelder, „Classification for safety-critical car-cyclist scenarios using machine learning“, 2015 IEEE 18th International Conference on Intelligent Transportation Systems, S. 1955-2000, werden verschiedene Algorithmen zur Klassifizierung von Fahrzeug-Fahrradfahrer-Szenarien verglichen. Dabei wird bei einem angeleiteten Lernen (supervised learning) eine Trainingsmenge von ausgezeichneten Objekten (labeled objects) verwendet, um sog. Klassifikatoren (classifier) zu trainieren. Nach dem Training / 36
PI32129AT
AVL List GmbH sind die Klassifikatoren in der Lage, ein neues unbekanntes Szenario auszuzeichnen, indem sie es einer geschätzten Klasse zuteilen.
Es ist eine Aufgabe der vorliegenden Erfindung, die Verarbeitung von Sensordaten, die geeignet sind, ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren, weiter zu verbessern. Es ist insbesondere eine Aufgabe der Erfindung, die Aufbereitung von solchen Sensordaten für die Verarbeitung durch ein künstliches neuronales Netz zu verbessern, insbesondere einen Informationsverlust bei der Aufbereitung zu verhindern oder zumindest zu reduzieren.
Diese Aufgabe wird gelöst durch ein Verfahren und ein System zur Datenaufbereitung, ein Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes und ein Verfahren und ein System zum Analysieren von Sensordaten gemäß den unabhängigen Ansprüchen.
Ein erster Aspekt der Erfindung betrifft ein Verfahren zur Datenaufbereitung von dynamischen räumlichen Szenarien, insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt wird, erzeugt. Der zeitliche Verlauf ist dazu aus Sensordaten ermittelt, wobei die Sensordaten geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren.
Ein räumliches Szenario im Sinne der Erfindung wird insbesondere aus einer zeitlichen Abfolge von räumlichen, insbesondere statischen, Szenen gebildet. Die räumlichen Szenen geben dabei beispielsweise die räumliche Anordnung von dem wenigstens einen anderen Objekt relativ zum Ego-Objekt, z.B. die Konstellationen von Verkehrsteilnehmern, an. Ein räumliches Szenario kann insbesondere eine Fahrsituation enthalten, in der ein Fahrerassistenzsystem das Ego-Fahrzeug genannte, mit dem Fahrerassistenzsystem ausgestattete Fahrzeug zumindest teilweise steuert, z.B. wenigstens eine Fahrzeugfunktion des Ego-Fahrzeugs autonom ausführt.
Dynamisch im Sinne der Erfindung bedeutet insbesondere zeitliche Abfolge bzw. zeitlicher Verlauf. Verkehrsszenarien sind beispielsweise dynamisch, da die einzelnen Ver / 36
PI32129AT
AVL List GmbH kehrsteilnehmer sich im Laufe der Zeit relativ zueinander bewegen, d.h. ihre Positionen relativ zueinander ändern.
Eine Darstellung im Sinne der Erfindung ist insbesondere eine graphische Darstellung, z.B. eine Grafik oder ein Diagramm. Die Darstellung enthält vorzugsweise eine, insbesondere zwei- oder dreidimensionale, Abbildung. Alternativ oder zusätzlich kann die Darstellung auch eine mathematische Darstellung enthalten, z.B. eine Zuordnungsvorschrift bzw. eine Funktion. Die Darstellung kann beispielsweise den zeitlichen Verlauf eines Winkelsektors, der aus der Perspektive des Ego-Objekts von dem anderen Objekt abgedeckt wird, in einer kartenähnlichen Abbildung zeigen.
Sensordaten im Sinne der Erfindung sind insbesondere von realen oder simulierten Sensoren, insbesondere Umgebungssensoren, erzeugte Daten, insbesondere in der Form von Signalen, d.h. reale oder simulierte Sensordaten. Die Sensoren sind dabei vorzugsweise dazu eingerichtet, ein Umfeld des Ego-Fahrzeugs zu erfassen und entsprechende Sensordaten zu erzeugen, so dass die Sensordaten das Umfeld des Ego-Fahrzeugs charakterisieren. Bei den Sensordaten handelt es sich vorzugsweise um SensorFusions-Daten, die aus einer Kombination von durch die Sensoren bereitgestellten Signalen erhalten werden und gegebenenfalls bereits, zumindest bis zu einem gewissen Grad, aufbereitet sind.
Ein Ego-Objekt im Sinne der Erfindung ist insbesondere dasjenige Objekt, aus dessen Perspektive das dynamische räumliche Szenario betrachtet wird. Ein Ego-Objekt kann beispielsweise ein (Ego-)Fahrzeug sein, aus dessen Sicht ein Verkehrsszenario erfasst und gegebenenfalls analysiert und/oder bewertet wird, etwa um ein Fahrerassistenzsystem adäquat steuern bzw. auf das erfasste Verkehrsszenario reagieren lassen zu können. Daher werden Sensordaten, die beispielsweise zur weiteren Verarbeitung aufbereitet werden, vorzugsweise von Umgebungssensoren des Ego-Fahrzeugs erzeugt, wobei die Umgebungssensoren wie etwa Ultraschallsensoren, Radarsensoren, Kameras und/oder dergleichen zur Erfassung des Umfelds des Ego-Fahrzeugs eingerichtet sind.
Ein Winkelsektor im Sinne der Erfindung ist insbesondere derjenige Bereich, welcher aus der Perspektive des Ego-Objekts von einem anderen Objekt eingenommen wird. Aus Sicht eines Ego-Fahrzeugs korrespondiert der Winkelsektor beispielsweise mit demjenigen Bereich, der durch ein anderes Fahrzeug abgedeckt wird. Vorzugsweise wird der / 36
PI32129AT
AVL List GmbH
Winkelsektor dabei durch die Querschnittsfläche des Objekts bzw. dessen Kontur definiert. Beispielsweise kann der Winkelsektor durch eine maximale Ausdehnung der Querschnittsfläche bzw. Kontur entlang einer vorgegebenen Richtung, insbesondere in horizontaler Richtung, definiert sein.
Die Erfindung basiert insbesondere auf dem Ansatz, aus Sensordaten ermittelte Information bezüglich eines dynamischen räumlichen Szenarios, etwa einer Verkehrssituation, in einer Darstellung zu codieren. Die Darstellung kann daher auch als Abstraktion des Szenarios aufgefasst werden und dient insbesondere dazu, verschiedene Informationstypen, beispielsweise Positionen, Translationen, Anzahl von Objekten und/oder dergleichen, zusammenzufassen.
Die Darstellung wird vorzugsweise auf Grundlage der zeitlichen Entwicklung eines Winkelsektors erzeugt, in dem das Sichtfeld eines Ego-Objekts von einem anderen Objekt abgedeckt wird. Mit Hilfe des Winkelsektors können dabei insbesondere Konstellation von Objekten in räumlichen Szenen relativ zueinander beschrieben werden. Die Darstellung ist vorzugsweise eine grafische, insbesondere zwei- oder dreidimensionale, Abbildung, die - in abstrakter Weise - sowohl die Position als auch die Bewegung der Objekte relativ zueinander zeigt. Beispielsweise kann die Bewegung eines Objekts in der Abbildung durch eine, insbesondere geometrische, Form repräsentiert werden.
Vorzugsweise kann auf der Grundlage seiner Analyse solch einer Abbildung eine charakteristische Form gefunden werden. Dabei ist die Form insbesondere charakteristisch für das dynamische räumliche Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt. Mit anderen Worten stellt die charakteristische Form ein Muster dar, das z.B. mittels eines künstlichen neuronalen Netzes durch Analyse einer solchen Darstellung, gegebenenfalls auch mehrerer solcher Darstellungen, die auf Basis der Sensordaten erzeugt wurden, gefunden werden kann.
Im Umkehrschluss kann auch, wenn die charakteristischen Formen bzw. Muster für verschiedene dynamische räumliche Szenarien bekannt sind und z.B. als Schablonen vorliegen, anhand einer Auswertung einer Darstellung das entsprechende dynamische räumliche Szenario ermittelt werden.
/ 36
PI32129AT
AVL List GmbH
Die auf der zeitlichen Entwicklung des Winkelsektors basierende Darstellung eines dynamischen räumlichen Szenarios hat den Vorteil, dass ihr Informationsgehalt nicht oder zumindest nur geringfügig von Variationen des Szenarios abhängt. Verschiedene Varianten des Szenarios, etwa ein besonders schnell oder besonders langsam ausgeführtes Fahrmanöver, erzeugen zwar unterschiedliche Abbildungen in der Darstellung, jedoch mit im Wesentlichen gleicher oder zumindest ähnlicher Form.
Beispielsweise erzeugt das Auftragen des Winkelsektors, der bezüglich des Sichtfelds eines Ego-Fahrzeugs von einem anderen Fahrzeug abgedeckt wird und damit die Position des anderen Fahrzeugs relativ zum Ego-Fahrzeug darstellt, gegen die Zeit ein Muster, dessen Form für das vom anderen Fahrzeug durchgeführte Fahrmanöver charakteristisch ist. Entfernt sich das andere Fahrzeug z.B. vom Ego-Fahrzeug, wird der abgedeckte Winkelsektor etwa kleiner, während er sich bei einer Annäherung entsprechend vergrößert. Bewegt sich das andere Fahrzeug z.B. bezüglich der Fahrtrichtung seitlich zum Ego-Fahrzeug, verschiebt sich der abgedeckte Winkelsektor. Das dabei entstehende Muster, das beispielsweise eine charakteristische Krümmung aufweist, kann dann einem Fahrmanöver zuverlässig zugeordnet werden, auch wenn die Abbildung in Abhängigkeit der Durchführung des Fahrmanövers, etwa aggressiv oder defensiv, in der Regel variiert, z.B. gestaucht oder gestreckt ist.
Die Darstellung der zeitlichen Entwicklung des Winkelsektors erlaubt es somit, verschiedene Typen von Information in kompakter Weise zusammenzufassen. Da hierbei ein Zeitablauf dargestellt wird, werden Überlappungen, z.B. von graphischen Elementen, und ein damit verbundener Informationsverlust vermieden oder zumindest reduziert. Zugleich kann in Folge beispielsweise Speicherplatz eingespart und das Auswerten von Sensordaten beschleunigt werden. Gleichzeitig ermöglicht die Darstellung eine zuverlässige Identifikation von dynamischen räumlichen Szenarien.
Gegenüber Gitterkarten hat die Darstellung der zeitlichen Entwicklung des Winkelsektors z.B. den Vorteil, dass die gleiche Information durch eine wesentlich geringere Datenmenge abgebildet werden kann. In einer Gitterkarte tragen einzelne Pixel, die nicht durch ein anderes Fahrzeug belegt sind (d.h. „leere“ Pixel), beispielsweise nicht zum Informationsgehalt, der etwa von einem künstlichen neuronalen Netz genutzt werden kann, bei. Insbesondere kann die benötigte Datenmenge, um ein künstliches neuronales Netz zu / 36
PI32129AT
AVL List GmbH trainieren, durch die Verwendung der Darstellung der zeitlichen Entwicklung des Winkelsektors um einen Faktor 27 reduziert werden.
Insgesamt ermöglicht es die vorliegende Erfindung, die Verarbeitung von Sensordaten weiter zu verbessern. Es kann insbesondere die Aufbereitung von Sensordaten für die Verarbeitung durch ein künstliches neuronales Netz verbessert werden, beispielsweise indem ein Informationsverlust bei der Aufbereitung verhindert oder zumindest reduziert wird.
Nachfolgend werden bevorzugte Ausführungsformen der Erfindung und deren Weiterbildungen beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird, beliebig miteinander sowie mit den im Weiteren beschriebenen Aspekten der Erfindung kombiniert werden können.
In einer bevorzugten Ausführungsform wird die Darstellung an ein künstliches neuronales Netz ausgegeben oder für die Verarbeitung durch das künstliche neuronale Netz bereitgestellt. Beispielsweise kann die Darstellung als Datenpaket, insbesondere als digitales Bild, auf einem Speichermedium gespeichert oder über eine Schnittstelle direkt an das künstliche neuronale Netz übertragen werden. Dadurch können auch große Mengen an Sensordaten zum Trainieren des künstlichen neuronalen Netzes, insbesondere zum Ermitteln von für ein vorgegebenes Szenario charakteristischen Mustern in der Darstellung, wie etwa der Form einer Figur in der Darstellung, herangezogen werden.
Ein zweiter Aspekt der Erfindung betrifft ein Computer-gestütztes Verfahren zum Trainieren eines künstlichen neuronalen Netzes auf der Grundlage von Sensordaten, welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten erzeugt. Die erzeugte Darstellung zusammen wird mit einer Information über das räumliche Szenario dem künstlichen neuronalen Netz zugeführt. Dadurch kann das künstliche neuronale Netz besonders schnell und zuverlässig auf das Erkennen von für verschiedene Szenarios charakteristischen Mustern trainiert werden.
/ 36
PI32129AT
AVL List GmbH
Die Information über das räumliche Szenario enthält dabei in bevorzugter Weise einen Hinweis auf eine Klassifizierung (engl. label) des Szenarios, mit dessen Hilfe das Szenario, vorzugsweise eindeutig, identifiziert werden kann. Die Information kann dabei bereits in den Sensordaten enthalten sein, etwa wenn es sich um simulierte Sensordaten handelt, die von einem Simulator bei der Simulation eines bestimmten Szenarios erzeugt wurden. Alternativ kann die Information dem künstlichen neuronalen Netz aber auch als separater Datenstrom zugeführt werden, etwa wenn die Sensordaten zuvor bereits analysiert und bezüglich wenigstens eines Szenarios klassifiziert wurden. Diese Klassifizierung kann insbesondere manuell durchgeführt worden sein, beispielsweise durch die Analyse eines mit den Sensordaten korrespondierenden Bilderstroms.
Ein dritter Aspekt der Erfindung betrifft ein Computer-gestütztes Verfahren zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten erzeugt. Die erzeugte Darstellung wird mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios verglichen. Dadurch kann anhand eines Sensordatenstroms, wie er beispielsweise von Umgebungssensoren eines Fahrzeugs bereitgestellt wird, ein Vorliegen eines bekannten Szenarios besonders schnell und zuverlässig erkannt werden.
Die vordefinierte Schablone ist in bevorzugter Weise eine generische Darstellung der zeitlichen Entwicklung des Winkelsektors, die z.B. alle wesentlichen charakteristischen Muster eines Szenarios enthält. Beispielsweise kann die vordefinierte Schablone eine Darstellung sein, die wenigstens eine Figur enthält, deren Form charakteristisch für ein Fahrmanöver eines Fahrzeugs ist, das im Rahmen eines Verkehrsszenarios ausgeführt wird.
Vorzugsweise wird die vordefinierte Schablone auf der Grundlage von mehreren Darstellungen, die charakteristisch für das bekannte dynamische räumliche Szenario sind, ermittelt. Insbesondere können die mehreren Darstellungen, die charakteristisch für das bekannte Szenario sind, gemittelt werden. Diese Darstellungen können dabei beispielsweise zuvor aus Sensordaten, die bezüglich des Szenarios klassifiziert wurden, erzeugt / 36
PI32129AT
AVL List GmbH worden sein. Dadurch kann ein hohes Maß an Zuverlässigkeit beim Vergleichen der erzeugten Darstellung mit der vordefinierten Schablone erreicht werden.
In einer bevorzugten Ausführungsform wird das dynamische räumliche Szenario auf der Grundlage des Vergleichens klassifiziert, etwa indem die ermittelte Darstellung der wenigstens einen vordefinierten Schablone zugeordnet wird. Dadurch kann das Szenario zuverlässig identifiziert und gegebenenfalls Reaktionen eines Fahrerassistenzsystem ausgelöst werden.
Vorzugsweise wird beim Vergleichen der erzeugten Darstellung mit der vordefinierten Schablone ein Ähnlichkeitsmaß ermittelt, auf dessen Grundlage das Szenario beispielsweise klassifiziert und die erzeugte Darstellung einem Szenario zugeordnet werden kann. Es ist z.B. denkbar, die erzeugte Darstellung demjenigen Szenario zuzuordnen, auf dessen vordefinierte Schablonen sich die erzeugte Darstellung mittels eines Verfahrens zur elastischen Anpassung (engl. elastic matching oder nonlinear template matching) am besten abbilden lässt, d.h. für die ein durch das Verfahren erhaltenes Ähnlichkeitsmaß maximal wird. Dadurch kann das Szenario besonders zuverlässig identifiziert werden.
In einer weiteren bevorzugten Ausführungsform wird eine Schablone für ein neues dynamischen räumliches Szenarios definiert, wenn die erzeugte Darstellung nicht der wenigstens einen vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zugeordnet werden kann. Dadurch können neue dynamische Szenarien identifiziert, insbesondere klassifiziert, werden. Insbesondere können neue dynamische Szenarien somit im Wesentlichen in Echtzeit identifiziert werden.
Beispielsweise kann eine Schablone für ein neues dynamisches räumliches Szenario definiert werden, wenn ein beim Vergleichen der erzeugten Darstellung ermitteltes Ähnlichkeitsmaß einen vorgegebenen Schwellenwert nicht erreicht. Dadurch kann auf einfache Weise, insbesondere in Echtzeit, ein Katalog von vordefinierten Schablonen von bekannten dynamischen räumlichen Szenarien erzeugt werden.
In einer weiteren bevorzugten Ausführungsform gibt die erzeugte Darstellung des Weiteren einen, insbesondere transversalen, Abstand des Ego-Objekts zu dem anderen Objekt und/oder einer, insbesondere transversalen, Geschwindigkeit des Ego-Objekts wie / 36
PI32129AT
AVL List GmbH der, wobei der Abstand und/oder die Geschwindigkeit ebenfalls aus Sensordaten ermittelt ist oder sind. Dabei ist die entsprechende Abstandsinformation bzw. Geschwindigkeitsinformation vorzugsweise derart in der Darstellung encodiert, dass sie unabhängig wenigstens von der räumlichen Anordnung des anderen Objekts relativ zum Ego-Objekt ausgelesen werden kann. Durch Berücksichtigung des Abstands und/oder der Geschwindigkeit kann ein vorliegendes dynamisches räumliches Szenario besonders zuverlässig identifiziert werden. Insbesondere ermöglicht die Berücksichtigung des Abstands und/oder der Geschwindigkeit auch eine besonders feine Unterscheidung zwischen verschiedenen dynamischen räumlichen Szenarien.
Die Geschwindigkeit des Ego-Objekts kann insbesondere eine Transversalgeschwindigkeit, d.h. eine Geschwindigkeitskomponente im Wesentlichen senkrecht zur dominanten (longitudinalen) Bewegungsrichtung, z.B. einer Fahrtrichtung, des Ego-Objekts, aufweisen. Vorzugsweise ist die in der erzeugten Darstellung wiedergegebene Geschwindigkeit des Ego-Objekts ausschließlich aus der Transversalgeschwindigkeit gebildet.
Bei Geradeausfahrt ist Transversalgeschwindigkeit des Ego-Fahrzeugs beispielsweise Null, während sie bei einem Spurwechsel bis auf einen maximalen Wert anwächst und dann wieder auf Null abfällt.
Anhand der in der Darstellung wiedergegebenen Geschwindigkeit kann z.B. zwischen einem Spurwechsel, der vom Ego-Fahrzeug durchgeführt wird, und einem Spurwechsel, der von einem anderen Fahrzeug durchgeführt wird, unterschieden werden. Da sich diese beiden Fahrmanöver bezüglich der relativen Bewegung des Ego-Fahrzeugs und des anderen Fahrzeugs zueinander nicht unterscheiden, d.h. die Darstellung in beiden Fällen beispielsweise die gleiche Figur zeigt, ermöglicht erst die Berücksichtigung der Transversalgeschwindigkeit des Ego-Fahrzeugs eine zuverlässige Aussage, welches Fahrzeug die Fahrspur wechselt.
Der Abstand des Ego-Objekts zum anderen Objekt kann insbesondere einen Transversalabstand, d.h. eine Abstandskomponente im Wesentlichen senkrecht zur dominanten (longitudinalen) Bewegungsrichtung, z.B. einer Fahrtrichtung, des Ego-Objekts, aufweisen. Vorzugsweise ist der in der erzeugten Darstellung wiedergegebene Abstand des Ego-Objekts zum anderen Objekt ausschließlich aus dem Transversalabstand gebildet.
/ 36
PI32129AT
AVL List GmbH
Wird das Ego-Fahrzeug beispielsweise von einem anderen Fahrzeug auf einer benachbarten Fahrspur überholt, ändert sich der absolute Abstand zwischen dem Ego-Fahrzeug und dem anderen Fahrzeug. Der Transversalabstand bleibt jedoch konstant, solange weder das Ego-Fahrzeug noch andere Fahrzeugs seine jeweilige Fahrspur verlässt. Die Änderung des Transversalabstands erlaubt daher (weitere) Rückschlüsse auf das, etwa im Rahmen eines Szenarios, durchgeführte Manöver.
In einer weiteren bevorzugten Ausführungsform wird der zeitliche Verlauf eines Winkelsektors durch eine Linie dargestellt, deren Breite einen Wert des jeweils vorliegenden Winkelsektors angibt. Alternativ oder zusätzlich wird oder werden ein Abstand des EgoObjekts zu dem anderen Objekt und/oder eine Geschwindigkeit des Ego-Objekts durch einen hinterlegten Wert oder eine Einfärbung an der jeweiligen Stelle der Linie, welche dem Zeitpunkt des Vorliegens des Abstands und/oder der Geschwindigkeit entspricht, dargestellt.
Der hinterlegte Wert bzw. die Einfärbung der Linie kann alternativ oder zusätzlich durch eine, insbesondere generische, Funktion ermittelt werden, in die als Eingangsgrößen z.B. der, insbesondere transversale, Abstand zwischen dem Ego-Objekt und dem anderen Objekt und/oder die, insbesondere transversale, Geschwindigkeit des Ego-Objekts eingehen. Anhand der Funktion kann beispielsweise der Abstand und die Geschwindigkeit, gegebenenfalls unter Berücksichtigung einer Gewichtung, addiert oder multipliziert werden. Insbesondere kann die Geschwindigkeit mit dem Abstand oder der Abstand mit der Geschwindigkeit gewichtet werden. Die dadurch erhalte, in der Darstellung oder durch den hinterlegten Wert wiedergegebene Information ermöglicht eine besonders zuverlässige und detaillierte Unterscheidung von Fahrmanövern bzw. den damit korrespondierenden dynamischen räumlichen Szenarien.
Die Funktion wird dabei vorzugsweise dazu verwendet, um die Wahrnehmung eines künstlichen neuronalen Netzes zu manipulieren. Mit anderen Worten kann die Funktion so gewählt werden, dass die daraus resultierenden Darstellungen das von dem künstlichen neuronalen Netz erkannte Muster beeinflussen. Dadurch können unterschiedliche dynamische räumliche Szenarien besonders zuverlässig unterschieden werden.
Alternativ oder zusätzlich können auch andere Parameter als der Abstand zwischen dem Ego-Objekt und dem anderen Objekt und/oder die Geschwindigkeit des Ego-Objekts als / 36
PI32129AT
AVL List GmbH
Eingangsgrößen der Funktion gewählt werden. Die Parameter können z.B. in Abhängigkeit von dem, insbesondere bekannten, dynamischen räumlichen Szenario gewählt werden. Vorzugsweise werden Parameter als Eingangsgrößen gewählt, die das dynamische räumliche Szenario zumindest teilweise charakterisieren.
Ein vierter Aspekt der Erfindung betrifft ein System zur Datenaufbereitung von dynamischen räumlichen Szenarien, insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz. Das System weist ein Ermittlungsmodul auf, welches dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt wird, aus Sensordaten zu ermitteln. Die Sensordaten sind dabei geeignet, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist zudem ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung des ermittelten zeitlichen Verlaufs zu erzeugen.
Ein fünfter Aspekt der Erfindung betrifft ein System zum Trainieren eines künstlichen neuronalen Netzes auf der Grundlage von Sensordaten, welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines EgoFahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten zu erzeugen. Das System weist zudem eine Schnittstelle auf, die dazu eingerichtet ist, die erzeugte Darstellung zusammen mit einer Information über das räumliche Szenario dem künstlichen neuronalen Netz zuzuführen.
Ein sechster Aspekt der Erfindung betrifft ein System zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein EgoObjekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten zu erzeugen. Das System weist zudem ein Vergleichsmodul auf, welches dazu eingerichtet ist, die erzeugte Dar / 36
PI32129AT
AVL List GmbH
Stellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zu vergleichen.
Die in Bezug auf den ersten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung beschriebenen Merkmale und Vorteile gelten, zumindest wo technisch sinnvoll, auch für den zweiten, dritten, vierten, fünften und sechsten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung sowie umgekehrt.
Weitere Merkmale, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung im Zusammenhang mit den Figuren, in denen durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechende Elemente der Erfindung verwendet werden. Es zeigen wenigstens teilweise schematisch:
Fig. 1 jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems zur Datenaufbereitung und eines erfindungsgemäßen Systems zum Trainieren eines künstlichen neuronalen Netzes;
Fig. 2 ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems zur Analyse von Sensordaten;
Fig. 3 ein Beispiel für das Ermitteln eines Winkelsektors in einem Verkehrsszenario;
Fig. 4 ein erstes Beispiel zur Erläuterung des Zusammenhangs zwischen einer erfindungsgemäßen Darstellung und einem korrespondieren dynamischen räumlichen Szenario;
Fig. 5 ein zweites Beispiel zur Erläuterung des Zusammenhangs zwischen einer erfindungsgemäßen Darstellung und einem korrespondieren dynamischen räumlichen Szenario;
Fig. 6 jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Datenaufbereitung und eines erfindungsgemäßen Verfahrens zum Trainieren eines künstlichen neuronalen Netzes; und / 36
PI32129AT
AVL List GmbH
Fig. 7 ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur
Datenauswertung.
Fig. 1 zeigt jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems 100 zur Datenaufbereitung von dynamischen räumlichen Szenarien und eines erfindungsgemäßen Systems 200 zum Trainieren eines künstlichen neuronalen Netzes 1. Das System 100 zur Datenaufbereitung weist ein Ermittlungsmodul 2 und ein Erzeugungsmodul 3 auf, wobei das Ermittlungsmodul 2 dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors, der aus der Perspektive eines Ego-Objekts durch ein anderes Objekt abgedeckt wird, aus Sensordaten S zu ermitteln, und wobei das Erzeugungsmodul 3 dazu eingerichtet ist, eine Darstellung des ermittelten zeitlichen Verlaufs zu erzeugen. Das System 200 zum Trainieren des künstlichen neuronalen Netzes 1 weist das Erzeugungsmodul 3 und eine Schnittstelle 4 auf, wobei die Schnittstelle 4 dazu eingerichtet ist, die erzeugte Darstellung zusammen mit einer Information über ein dynamisches räumliches Szenario dem künstlichen neuronalen Netz 1 zuzuführen.
Die Sensordaten S werden beispielsweise von Umgebungssensoren eines EgoFahrzeugs beim Erfassen eines Verkehrsszenarios erzeugt und charakterisieren etwa die Anzahl benachbarter Fahrzeuge, die relative Anordnung, insbesondere die relativen Abstände, der anderen Fahrzeuge zum Ego-Fahrzeug, die Geschwindigkeit des EgoFahrzeugs, und/oder dergleichen. Aus diesen Sensordaten S kann das Ermittlungsmodul 2 in bevorzugter Weise ermitteln, wie breit wenigstens ein von den anderen Fahrzeugen verdeckter Winkelsektor im Sichtfeld des Ego-Fahrzeugs ist und in welcher Lage dieser Winkelsektor, beispielsweise relativ zur Fahrtrichtung des Ego-Fahrzeugs, angeordnet ist.
Da die Umgebungssensoren das Umfeld des Ego-Fahrzeugs vorzugsweise kontinuierlich, zumindest aber mit hoher Frequenz, erfassen, kann aus den resultierenden Sensordaten S auch der zeitliche Verlauf des Winkelsektors, insbesondere eine Änderung seiner Breite und/oder seiner Lage aus der Perspektive des Ego-Fahrzeugs ermittelt werden. Der zeitliche Verlauf kann vom Erzeugungsmodul 3 verwendet werden, um eine graphische Darstellung, die das Verkehrsszenario in einer abstrakten Weise abbildet, zu erzeugen. Mit anderen Worten ist das Erzeugungsmodul 3 dazu eingerichtet, die in den Sensordaten S enthaltene Information bezüglich des Verkehrsszenarios in der Darstellung, insbesondere in komprimierter Form, zu encodieren.
/ 36
PI32129AT
AVL List GmbH
Vorzugsweise handelt es sich bei den Sensordaten S in Bezug auf dynamische räumliche Szenarien klassifizierte Sensordaten, d.h. die Sensordaten S sind beispielsweise einer von mehreren Klassen von Verkehrsszenarien, etwa Überholmanövern oder Spurwechselmanövern, zugeordnet. Diese Klassifizierung kann beispielsweise manuell, etwa durch Sichten eines Bilddatenstroms, erfolgt sein. Die auf Grundlage des ermittelten zeitlichen Verlaufs des Winkelsektors erzeugte Darstellung kann daher mit einer Information über das dynamische räumliche Szenario von der Schnittstelle 4 an das künstliche neuronale Netz 1 übermittelt werden.
Das künstliche neuronale Netz 1 ist vorzugsweise dazu eingerichtet, jeweils wenigstens ein Muster in allen Darstellungen, die der gleichen Verkehrsszenarioklasse zugeordnet sind, zu erkennen. Anhand eines solchen erkannten Musters kann eine Schablone definiert werden, die ein bekanntes Verkehrsszenario charakterisiert. Die derart definierten Schablonen können in einer Datenbank 5 zur weiteren Verwendung, etwa zur Auswertung von im regulären Betrieb eines Fahrzeugs erzeugten Sensordaten, gespeichert werden.
Fig. 2 zeigt eine bevorzugte Ausführungsform eines Systems 300 zum Analysieren von Sensordaten S, die geeignet sind, ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System 300 weist ein Erzeugungsmodul 3 auf, welches dazu eingerichtet ist, auf Grundlage der Sensordaten S eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive das Ego-Objekts durch ein anderes Objekt abgedeckt ist, zu erzeugen. Das System 300 weist zudem ein Vergleichsmodul 6 auf, welches dazu eingerichtet ist, die erzeugte Darstellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zu vergleichen. Dazu hat das Vergleichsmodul 6 vorzugsweise Zugriff auf eine Datenbank 5, in der wenigstens eine vordefinierte Schablone gespeichert ist.
Das Ergebnis des Vergleichs wird vom Vergleichsmodul 6 in bevorzugter Weise ausgegeben und kann etwa zum Steuern eines Fahrerassistenzsystems, mit dem ein EgoFahrzeug ausgestattet ist, verwendet werden. Wird zwischen der erzeugten Darstellung und der wenigstens einen vordefinierten Schablone beispielsweise wenigstens ein vorgegebenes Maß an Übereinstimmung festgestellt, etwa durch Analyse eines beim Ver16 / 36
PI32129AT
AVL List GmbH gleichen erzeugten Ähnlichkeitsmaßes, kann darauf geschlossen werden, dass das bekannte Szenario vorliegt, und das Vergleichsmodul 6 kann als Ausgangssignal etwa eine
Szenarioklasse ausgeben. Alternativ oder zusätzlich kann auch der Beginn und/oder das
Ende eines identifizierten Fahrmanövers ausgegeben, insbesondere signalisiert, werden.
Fig. 3 zeigt ein Beispiel für das Ermitteln eines Winkelsektors Φ in einem dynamischen räumlichen Szenario 10, bei dem sich ein Ego-Objekt 11 entlang einer Bewegungsrichtung, hier entlang der x-Achse eines Koordinatensystems, bewegt und von anderen Objekten 12 umgeben ist. Im vorliegenden Beispiel handelt es sich bei dem räumlichen Szenario 10 um einen Verkehrsszenario mit einem Ego-Fahrzeug 11a, das sich in Fahrtrichtung auf einer mittleren Fahrspur bewegt und von anderen Fahrzeugen 12a, 12b auf benachbarten Fahrspuren umgeben ist.
Fig. 3A zeigt das Verkehrsszenario aus der Vogelperspektive, wobei in der gezeigten Darstellung eine zeitliche Abfolge von räumlichen Szenen zusammengefasst ist. Zu verschiedenen Zeitpunkten befinden sich die anderen Fahrzeuge 12a, 12b in verschiedenen Positionen relativ zum Ego-Fahrzeug 11a, die durch unterschiedliche Füllungen der die Fahrzeuge 12a, 12b repräsentierenden Rechtecke angedeutet sind. Dabei korrespondiert eine dichtere Füllung mit einer zeitlich weiter zurückliegenden Position. Wie in dieser Darstellung gut zu erkennen ist, führt ein erstes Fahrzeug 12a einen Spurwechsel von einer äußeren Fahrspur auf die vom Ego-Fahrzeug 11a benutzte Fahrspur aus und schert dabei vor dem Ego-Fahrzeug 11a ein. Ein zweites Fahrzeug 12b, das sich zunächst etwa auf gleicher Höhe mit dem Ego-Fahrzeug 11a in Bezug auf die Bewegungsrichtung befindet, fällt im zeitlichen Verlauf nach hinten ab. Dadurch, dass die Positionsänderung des zweiten Fahrzeugs 12b verhältnismäßig klein ist, überlappen sich die vom zweiten Fahrzeug 12b zu den unterschiedlichen Zeitpunkten eingenommenen Positionen in dieser Darstellung.
Um eine alternative Darstellung des Verkehrsszenarios zu erzeugen, kann für jedes der beiden Fahrzeuge 12a, 12b ein Winkelsektor Φ ermittelt werden, der denjenigen Bereich im Sichtfeld des Ego-Fahrzeugs 11a angibt, der vom jeweiligen Fahrzeug 12a, 12b abgedeckt wird. Dies ist in Fig. 3B beispielhaft für das erste Fahrzeug 12a gezeigt. Die sich in Bezug auf die Perspektive des Ego-Fahrzeugs 11a ergebende Kontur 13 des ersten Fahrzeugs 12a ist als durchgezogene Linie angedeutet und spannt den Winkelsektor Φ auf. Eine Lage φ des Winkelsektors Φ, und damit auch des ersten Fahrzeugs 12a, aus / 36
PI32129AT
AVL List GmbH
Sicht des Ego-Fahrzeugs 11a kann dabei relativ zu einer vorgegebenen Richtung, beispielsweise der Bewegungsrichtung, angegeben werden. Verschiebt sich die Position des Fahrzeugs 12a relativ zum Ego-Fahrzeug 11a, kann sich sowohl die Breite des Winkelsektors Φ als auch seine Lage φ ändern.
Dies ist in Fig. 3C gezeigt. Das dort abgebildete Balkendiagramm, in dem der inverse, in Fig. 3A als schwarzer Pfeil angedeutete Abstand d zwischen dem Egofahrzeug 11a und den anderen Fahrzeugen 12a, 12b gegen die Lage φ des Winkelsektors Φ aufgetragen ist, bildet eine abstrakte Darstellung des in Fig. 3A gezeigten Verkehrsszenarios. Die drei rechts liegenden Balken korrespondieren mit dem vom ersten Fahrzeug 12a abgedeckten Winkelbereich Φ, während die drei links liegenden Balken mit dem vom zweiten Fahrzeug 12b abgedeckten Winkelbereich Φ korrespondieren. Die unterschiedlichen Zeitpunkte sind, wie auch in Fig. 3A, durch die entsprechende Füllung der Balken angedeutet.
Demnach wandert der vom ersten Fahrzeug 12a abgedeckte Winkelbereich Φ beim Einscheren vor dem Ego-Fahrzeug 11a in Richtung einer 0°-Lage, wobei die 0°-Lage des Winkelsektors Φ mit einer Position vor dem Ego-Fahrzeug 11a korrespondiert. In dem Maße, wie der Abstand d zwischen dem ersten Fahrzeug 12a und dem EgoFahrzeug 11a dabei wie in Fig. 3A gezeigt abnimmt, nimmt auch die Breite des vom ersten Fahrzeug 12a abgedeckten Winkelbereichs Φ zu. Neben der Breite des Winkelbereichs Φ ist der Abstand d zwischen dem ersten Fahrzeug 12a und dem EgoFahrzeug 11a auch in der Höhe der Balken encodiert, die mit fortschreitender Zeit zunimmt.
Der vom zweiten Fahrzeug 12b abgedeckte Winkelbereich Φ entfernt sich dagegen von der 0°-Lage in dem Maße, wie das zweite Fahrzeug 12b hinter dem Ego-Fahrzeug 11a zurückfällt. Da sich hierbei der Abstand zwischen dem zweiten Fahrzeug 12b und dem Ego Fahrzeug 11a vergrößert, nimmt auch die Höhe der Balken sowie deren Breite ab.
Fig. 4 zeigt ein erstes Beispiel zur Erläuterung des Zusammenhangs zwischen einem bevorzugten Ausführungsbeispiel einer erfindungsgemäßen Darstellung 20 und einem korrespondierenden dynamischen räumlichen Szenario 10. Dazu zeigt Fig. 4A die Darstellung 20 zeitlicher Verläufe von Winkelsektoren Φa, Φ^ Φ^ die von anderen Objekten aus der Perspektive eines Ego-Objekts, etwa eines Ego-Fahrzeugs 11a, abgedeckt / 36
PI32129AT
AVL List GmbH werden. In der Darstellung 20 ist die Zeit t gegen die Lage φ der Winkelsektoren 0a, 0b,
Φο aufgetragen, wobei die 0°-Lage mit einer Position vor dem Ego-Objekt korrespondiert.
Die zeitlichen Verläufe der Winkelsektoren 0a, 0b, Φο werden als Linien dargestellt, deren Breite mit dem Abstand des jeweiligen Objekts zum Ego-Objekt korrespondiert. Ein erstes Objekt, etwa ein erstes Fahrzeug 12a, befindet sich demnach zu Beginn bei t = 0 in einiger Entfernung vor dem Ego-Objekt. Ein zweites Objekt, etwa ein zweites Fahrzeug 12b, befindet sich zu Beginn dagegen näher am Ego-Objekt, allerdings in einer Position seitlich vom Ego-Objekt. Bei etwa t = 40 ändert das zweite Objekt seine Position und schiebt sich zwischen das Ego-Objekt und das erste Objekt. Der zeitliche Verlauf des Winkelsektors 0b, der vom zweiten Objekt abgedeckt wird, überlappt ab diesem Zeitpunkt den Verlauf des Winkelsektors 0a, der vom ersten Objekt abgedeckt wird.
Bei etwa t = 70 wird ein weiterer Winkelsektor 0c von einem dritten Objekt, etwa einem dritten Fahrzeug 12c, abgedeckt. Das dritte Objekt befindet sich seitlich vom Ego-Objekt, und zwar auf einer Seite des Ego-Objekts, die derjenigen Seite, auf der sich das zweite Objekt bei t = 0 befand, gegenüberliegt. Die Lage φ des vom dritten Objekt abgedeckten Winkelsektors 0c verschiebt sich darauffolgend in Richtung der 0°-Lage. Dieser zeitliche Verlauf kann beispielsweise durch eine Bewegung des dritten Objekts parallel zur Bewegungsrichtung des Ego-Objekts verursacht werden, wobei der Abstand des dritten Objekts zum Ego-Objekt zunimmt.
Derartige zeitliche Verläufe der Winkelsektoren 0a, 0b, 0c können beispielsweise charakteristisch für das in Fig. 4B gezeigte räumliche dynamisches Szenario 10, hier ein Verkehrsszenario, sein. Die zeitliche Entwicklung ist in Fig. 4B durch mit Punkten gekennzeichnete Trajektorien der Fahrzeuge auf der Fahrbahn angedeutet.
Zu Beginn befindet sich das Ego-Fahrzeug 11a an der Position (x = 0, y = 0), und das erste Fahrzeug 12a befindet sich etwa an der Position (x = 60, y = 0). Demnach fährt das erste Fahrzeug 12a dem Ego-Fahrzeug 11a auf einer mittleren Fahrspur etwa im Abstand Δχ = 60 voraus. Das zweite Fahrzeug 12b befindet sich zu Beginn etwa an der Position (x = 45, y = -4), wobei es demnach auf einer Nachbarspur, d.h. bezüglich des Ego-Fahrzeugs 11a seitlich versetzt, zwischen dem Ego-Fahrzeug 11a und dem ersten Fahrzeug 12a fährt.
/ 36
PI32129AT
AVL List GmbH
Im weiteren zeitlichen Verlauf schert das zweite Fahrzeug 12b zwischen das EgoFahrzeug 11a und das erste Fahrzeug 12a auf der mittleren Fahrspur ein. Die Einscherbewegung des zweiten Fahrzeugs 12b beginnt etwa an der Position (x = 100, y = -4) und endet etwa an der Position (x = 150, y = 0). Nach dem einscheren des weiteren Fahrzeugs 12b bewegen sich das Ego-Fahrzeug 11a, das erste Fahrzeug 12a und das zweite Fahrzeug 12b gemeinsam auf der mittleren Fahrspur weiter. Dadurch, dass hierbei das zweite Fahrzeug 12b aus der Perspektive des Ego-Fahrzeugs 11a nun die Sicht auf das erste Fahrzeug 12a verdeckt, ist in der korrespondierenden Darstellung 20 in Fig. 4A nur noch eine Linie in der 0°-Lage sichtbar.
Das dritte Fahrzeug 12c befindet sich zu Beginn hinter dem Ego-Fahrzeug 11a, so dass es, etwa durch Umgebungssensoren des Ego-Fahrzeugs 11a, zunächst nicht erfasst wird. Das dritte Fahrzeug 12c bewegt sich jedoch mit einer höheren Geschwindigkeit als das Ego-Fahrzeug 11a, so dass es das Ego-Fahrzeug 11a im weiteren Verlauf auf einer weiteren Nachbarspur bei y = 4 überholt. Erst ab dem Überholzeitpunkt wird das dritte Fahrzeug 12c für das Ego-Fahrzeug 11a sichtbar, so dass der zeitliche Verlauf des vom dritten Fahrzeug 12c abgedeckten Winkelbereichs 0c in der korrespondierenden Darstellung 20 in Fig. 4A erst ab diesem Zeitpunkt beginnt.
Die durch die zeitlichen Verläufe der Winkelsektoren entstandene Darstellung 20 in Fig. 4A weist ein für das beschriebene räumliche dynamische Szenario 10 charakteristisches Muster auf. Werden auf der Grundlage von Sensordaten, die wiederholt beim Erfassen eines solchen Szenarios gesammelt wurden, viele solcher Darstellungen erzeugt, kann ein künstliches neuronales Netz dieses Muster erlernen bzw. auf das Erkennen dieses Musters trainiert werden. Im regulären Betrieb eines Fahrzeugs kann dann aus den dabei erzeugten Sensordaten im Wesentlichen in Echtzeit der zeitliche Verlauf von Winkelsektoren dargestellt und von dem trainierten künstlichen neuronalen Netz analysiert, insbesondere mit dem erlernten Muster verglichen, werden. Dadurch wird vorzugsweise ermittelt, ob bzw. zu welchem Zeitpunkt ein bekanntes Verkehrsszenario vorliegt.
In Fig. 4C ist dazu das Ergebnis eines solchen Vergleichs, etwa zwischen der in Fig. 4A gezeigten Darstellung 20 und einer entsprechenden Schablone, gezeigt, wobei ein Ausgangssignal a gegen die Zeit t aufgetragen ist. Etwa zum Zeitpunkt t = 30 springt das / 36
PI32129AT
AVL List GmbH
Ausgangssignal a auf den Wert 6, wodurch das Vorliegen des bekannten Verkehrsszenarios, in diesem Fall das Einscheren eines zweiten Fahrzeugs 12b, signalisiert wird.
Etwa zum Zeitpunkt t = 85 fällt das Ausgangssignal a zurück auf den Wert null, wodurch das Ende des Einschermanövers signalisiert wird.
Zusätzlich zu dem Beginn und der Dauer des Fahrmanövers kann durch den Wert des Ausgangssignals a auch die Klassifizierung des Verkehrsszenarios ausgegeben werden. In einem anderen, nicht gezeigten Beispiel könnte der Vergleich der erzeugten Darstellung mit verschiedenen Schablonen etwa die höchste Übereinstimmung mit einer Schablone, die einem Ausschermanöver zugeordnet ist, zeigen und das Ausgangssignal a entsprechend einen anderen Wert annehmen.
Fig. 5 zeigt ein zweites Beispiel zur Erläuterung des Zusammenhangs zwischen einem bevorzugten Ausführungsbeispiel einer erfindungsgemäßen Darstellung 20 und einem korrespondierenden dynamischen räumlichen Szenario 10. Dazu zeigt Fig. 5A eine Szene aus der dem dynamischen räumlichen Szenario 10 entsprechenden Verkehrssituation, in diesem Fall ein durch den Pfeil angedeutetes Einscheren eines EgoFahrzeugs 11a auf eine Fahrspur, auf der bereits ein anderes erstes Fahrzeug 12a fährt. Neben dem ersten Fahrzeug 12a fährt ein weiteres, zweites Fahrzeug 12b auf einer weiteren Fahrspur.
Die zeitliche Entwicklung des dynamischen räumlichen Szenarios 10 ist in Fig. 5B durch anhand von Punkten gekennzeichnete Trajektorien der Fahrzeuge 11a, 12a, 12b gezeigt. Zu Beginn befindet sich das Ego-Fahrzeug 11a etwa an der Position (x = 0, y = 2,5), und das erste Fahrzeug 12a fährt dem Ego-Fahrzeug 11a etwa an der Position (x = 35, y = 0) auf einer mittleren Fahrspur voraus, d.h. etwa im Abstand Ax = 35. Das zweite Fahrzeug 12b befindet sich zu Beginn etwa an der Position (x = 25, y = -2,5).
Im weiteren zeitlichen Verlauf beginnt das Ego-Fahrzeug 11a etwa an der Position (x = 60, y = 2) mit dem Einscheren auf die mittlere Fahrspur und beendet das Fahrmanöver etwa an der Position (x = 100, y = 0). Die anderen beiden Fahrzeuge 12a, 12b fahren dabei mit etwas höherer Geschwindigkeit weiter geradeaus, so dass das EgoFahrzeug 11a langsam weiter zurückfällt.
/ 36
PI32129AT
AVL List GmbH
In Fig. 5C sind die zeitlichen Verläufe der Winkelsektoren Φα, 0b, die jeweils vom ersten
Fahrzeug 12a bzw. zweiten Fahrzeug 12b aus der Perspektive des Ego-Fahrzeugs 11a abgedeckt werden, in einer Darstellung 20 gezeigt. Dabei ist die Zeit t gegen eine Lage φ der Winkelsektoren Φa, Φb aufgetragen. Eine in Fig. 5c eingezeichnete 0°-Lage korrespondiert mit einer Position vor dem Ego-Fahrzeug 11a.
Im zeitlichen Verlauf verschieben sich die Winkelsektoren Φa, Φb in Richtung der 0°Lage, da sich das erste und zweite Fahrzeug 12a, 12b wie vorangehend beschrieben aufgrund ihrer höheren Geschwindigkeit vom Ego-Fahrzeug 11a entfernen. Zum Zeitpunkt des Einscherens des Ego-Fahrzeugs 11a, hier etwa zum Zeitpunkt t = 30, krümmen sich die zeitlichen Verläufe der Winkelsektoren Φa, Φb zusätzlich in Richtung der 0°-Lage. Der durch das erste Fahrzeug 12a abgedeckte Winkelsektor Φa verläuft im Folgenden entlang der 0°-Lage, da wie in Fig. 5A und 5B gezeigt das erste Fahrzeug 12a dem Ego-Fahrzeug 11a auf derselben Fahrspur vorausfährt.
Aufgrund des entstandenen Musters können zunächst nur Aussagen über die relative Bewegung des Ego-Fahrzeugs 11a bezüglich des ersten und zweiten Fahrzeugs 12a, 12b getroffen werden, d.h. es geht aus der Form des zeitlichen Verlaufs der Winkelsektoren Φa, Φb zunächst nicht eindeutig hervor, ob das Ego-Fahrzeug 11a auf die mittlere Fahrspur wechselt oder ob das erste und das zweite Fahrzeug 12a, 12b, insbesondere im Wesentlichen zeitgleich, jeweils einen Fahrspurwechsel durchführen, wobei das erste Fahrzeug 12a auf die Fahrspur des Ego-Fahrzeugs 11a und das zweite Fahrzeug 12b auf die zuvor vom ersten Fahrzeug 12a benutzte Fahrspur einschwenkt.
Um diese beiden Fälle voneinander unterscheiden zu können, zeigt die Darstellung 20 neben den Winkelsektoren Φa, Φb zusätzlich einen Wert, der charakteristisch für den, insbesondere transversalen, Abstand zwischen dem Ego-Fahrzeug 11a und dem jeweils anderen Fahrzeug 12a, 12b und/oder für die, insbesondere transversale, Geschwindigkeit des Ego-Fahrzeugs 11a zur Zeit t ist. Der transversale Abstand oder die transversale Geschwindigkeit beziehen sich hierbei auf eine transversale Komponente des Abstands bzw. der Geschwindigkeit, d.h. der y-Komponenten in der in Fig. 5B gezeigten Darstellung.
Der für den Abstand und/oder die Geschwindigkeit charakteristische Wert ist in der Darstellung 20 als eine durch die Tönung angedeutete Farbgebung des zeitlichen Verlaufs / 36
PI32129AT
AVL List GmbH der Winkelsektoren gezeigt. Dabei korrespondiert eine dunkle Tönung beispielsweise mit einer hohen transversalen Geschwindigkeit des Ego-Fahrzeugs 11a. Somit kann der Darstellung 20 in Fig. 5C entnommen werden, dass das Ego-Fahrzeug etwa zum Zeitpunkt t = 20 eine Transversalbewegung, d.h. eine Bewegung senkrecht zum Fahrspurverlauf, beginnt, wobei das Ego-Fahrzeug 11a bei etwa t = 30 die höchste Transversalgeschwindigkeit erreicht, und die Transversalbewegung bei etwa t = 40 beendet.
Da das Ego-Fahrzeug 11a bei einem durch eines der anderen Fahrzeuge 12a, 12b durchgeführten Spurwechsel seine (transversale) Geschwindigkeit nicht ändert, kann im vorliegenden Fall auf ein Einschwenken des Ego-Fahrzeugs 11a auf die durch das erste Fahrzeug 12a genutzte Fahrspur geschlossen werden.
Fig. 6 zeigt jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens V1 zur Datenaufbereitung und eines erfindungsgemäßen Verfahrens V2 zum Trainieren eines künstlichen neuronalen Netzes.
In einem Verfahrensschritt S1 werden Sensordaten erzeugt, etwa durch sensorisches Erfassen des Umfelds eines Ego-Objekts, und klassifiziert, d.h. verschiedenen dynamischen räumlichen Szenarien zugeordnet. Die Klassifizierung kann beispielsweise manuell durchgeführt werden, etwa durch Auswertung eines Bilddatenstroms. Alternativ können die Sensordaten auch automatisch klassifiziert werden, insbesondere wenn es sich um Sensordaten handelt, die von einem Simulator bei der Simulation verschiedener dynamischer räumlicher Szenarien erzeugt wurden.
Anhand der Sensordaten kann in einem weiteren Verfahrensschritt S2 ein zeitlicher Verlauf eines Winkelsektors, welcher aus der Perspektive des Ego-Objekts durch ein anderes Objekt abgedeckt wird, ermittelt werden. Beispielsweise kann die Kontur, insbesondere die Querschnittsfläche, des anderen Objekts ermittelt und deren Breite im bzw. den Anteil am Sichtfeld des Ego-Objekts bestimmt werden. Zudem kann ein geometrischer Schwerpunkt der Kontur bzw. der Querschnittsfläche ermittelt und dessen Lage im Sichtfeld des Ego-Objekts, insbesondere relativ zur Bewegungsrichtung des Ego-Objekts, bestimmt werden.
In einem weiteren Verfahrensschritt S3 wird aus dem zeitlichen Verlauf des Winkelsektors in bevorzugter Weise eine, insbesondere grafische, Darstellung erzeugt, die den / 36
PI32129AT
AVL List GmbH zeitlichen Verlauf abbildet. In einer solchen Darstellung kann der zeitliche Verlauf des Winkelsektors beispielsweise ein Muster, etwa eine Figur, bilden. Vorzugsweise wird dabei für jeden Zeitpunkt, zu dem Sensordaten erzeugt werden oder zumindest ein von einem anderen Objekt abgedeckter Winkelsektor ermittelt wird, die Breite des Winkelsektors, insbesondere dessen Anteil am Sichtfeld des Ego-Objekts, und dessen Lage im Sichtfeld des Ego-Objekts, insbesondere relativ zur Bewegungsrichtung des EgoObjekts, abgebildet.
In bevorzugter Weise wird im Verfahrensschritt S3 bei der Erzeugung der Darstellung auch eine Geschwindigkeit des Ego-Objekts, insbesondere eine Transversalgeschwindigkeit, und/oder ein Abstand, insbesondere ein Transversalabstand, des Ego-Objekts zum anderen Objekt berücksichtigt. Insbesondere kann, etwa anhand einer Funktion, in die als Eingangsgrößen vorzugsweise das dynamische räumliche Szenario charakterisierende Parameter wie etwa die Geschwindigkeit und/oder der Abstand eingehen, ein Wert ermittelt und hinterlegt werden oder die Darstellung entsprechend eingefärbt werden. Vorzugsweise liefert die erzeugte Darstellung somit Information bezüglich der Breite und Lage des vom anderen Objekt abgedeckten Winkelsektors im Sichtfeld des EgoObjekts und der Geschwindigkeit des Ego-Objekts und/oder des Abstands zum anderen Objekt.
In einem weiteren Verfahrensschritt S4 wird die erzeugte Darstellung, etwa mittels einer Schnittstelle, einem künstlichen neuronalen Netz zugeführt, welches dadurch insbesondere zum Erkennen von Mustern in der erzeugten Darstellung trainiert wird. Zu diesem Zweck wird dem künstlichen neuronalen Netz zudem in bevorzugter Weise eine Information über die dynamischen räumlichen Szenarien, gemäß denen die Sensordaten im Verfahrensschritt S1 klassifiziert wurden, zugeführt, so dass das künstliche neuronale Netz die erzeugte Darstellung bzw. die erkannten Muster jeweils mit einem der dynamischen räumlichen Szenarien korrelieren kann.
Fig. 7 zeigt ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens V3 zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Bei den Sensordaten handelt es sich in bevorzugter Weise um von Umgebungssensoren eines Ego-Fahrzeugs erzeugte Sensordaten.
/ 36
PI32129AT
AVL List GmbH
In Verfahrensschritt S3 wird aus den Sensordaten eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors erzeugt. Der Winkelsektor entspricht dabei dem Bereich im
Sichtfeld des Ego-Objekts, der von dem anderen Objekt abgedeckt wird. Bei einer solchen Darstellung kann es sich beispielsweise um eine Abbildung handeln, in welcher der zeitliche Verlauf des Winkelsektors ein Muster, etwa eine Figur, bildet.
Der zeitliche Verlauf des Winkelsektors kann dabei gegebenenfalls auch in einem separaten, vorangehenden Verfahrensschritt (nicht gezeigt) auf Grundlage der Sensordaten ermittelt werden.
In einem weiteren Verfahrensschritt S5 wird die erzeugte Darstellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios verglichen. Dadurch kann ermittelt werden, in welchem dynamischen räumlichen Szenario sich das Ego-Objekt gegenwärtig befindet und gegebenenfalls ein Fahrerassistenzsystem entsprechend gesteuert werden.
Optional kann in einem weiteren Verfahrensschritt S6 die erzeugte Darstellung als weitere vordefinierte Schablone, beispielsweise in einer Datenbank, gespeichert werden, wenn keine oder zumindest keine ausreichende Übereinstimmung der erzeugten Darstellung mit der wenigstens einen vordefinierten Schablone, die einem bekannten dynamischen räumlichen Szenarios zugeordnet ist, ermittelt werden kann. Auf diese Weise kann ein Katalog mit vordefinierten Schablonen, die zum Identifizieren von dynamischen räumlichen Szenarien geeignet sind, insbesondere im Wesentlichen in Echtzeit, erzeugt werden.
/ 36
PI32129AT
AVL List GmbH
Bezugszeichenliste
1 künstliches neuronales Netz
2 Erzeugungsmodul
3 Ermittlungsmodul
4 Schnittstelle
5 Datenbank
6 Vergleichsmodul
10 räumliches dynamisches Szenario
11 Ego-Objekt
11a Ego-Fahrzeug
12 anderes Fahrzeug
12a erstes Fahrzeug
12b zweites Fahrzeug
12c drittes Fahrzeug
13 Kontur
20 Darstellung
100 System zur Datenaufbereitung
200 System zum Trainieren eines künstlichen neuronalen Netzes
300 System zum Analysieren von Sensordaten
Φ Winkelsektor
φ S Lage des Winkelsektors Sensordaten
y d Bewegungsrichtung Abstand
a Ausgangssignal
V1 Verfahren zur Datenaufbereitung
V2 Verfahren zum Trainieren eines künstlichen neuronalen Netzes
V3 Verfahren zum Analysieren von Sensordaten
/ 36
PI32129AT
AVL List GmbH
S1 - S6 Verfahrensschritte

Claims (11)

1. Verfahren (V1) zur Datenaufbereitung von dynamischen räumlichen Szenarien (10), insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz (1), wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (Φ), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt wird, erzeugt wird (S3), wobei der zeitliche Verlauf aus Sensordaten (S) ermittelt ist (S2) und wobei die Sensordaten (S) geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf das Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren.
2. Verfahren (V1) nach Anspruch 1, wobei die Darstellung an ein künstliches neuronales Netz (1) ausgegeben oder für die Verarbeitung durch das künstliche neuronale Netz (1) bereitgestellt wird.
3. Computer-gestütztes Verfahren (V2) zum Trainieren eines künstlichen neuronalen Netzes (1) auf der Grundlage von Sensordaten (S), welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario (10) in Bezug auf ein EgoObjekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (Φ), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines EgoFahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) erzeugt wird (S3), und wobei die erzeugte Darstellung (20) zusammen mit einer Information über das räumliche Szenario (10) dem künstlichen neuronalen Netz (1) zugeführt wird (S4).
4. Computer-gestütztes Verfahren (V3) zum Analysieren von Sensordaten (S), welche geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (Φ), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines EgoFahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahr-
28 / 36
PI32129AT
AVL List GmbH zeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) erzeugt wird (S3), und die erzeugte Darstellung (20) mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios (10) verglichen wird (S5).
5. Verfahren (V3) nach Anspruch 4, wobei das dynamische räumliche Szenario (10) auf der Grundlage des Vergleichens klassifiziert wird.
6. Verfahren (V3) nach Anspruch 4, wobei eine Schablone für ein neues dynamischen räumliches Szenario (10) definiert wird, wenn die erzeugte Darstellung (10) nicht der wenigstens einen vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios (10) zugeordnet werden kann (S6).
7. Verfahren (V3) nach einem der Ansprüche 1 bis 6, wobei die erzeugte Darstellung (10) des Weiteren einen Abstand (d) des Ego-Objekts (11) zu dem anderen Objekt (12) und/oder einer Geschwindigkeit des Ego-Objekts (11) wiedergibt, wobei der Abstand (d) und/oder die Geschwindigkeit ebenfalls aus Sensordaten (S) ermittelt ist oder sind.
8. Verfahren (V3) nach einem der Ansprüche 1 bis 7, wobei der zeitliche Verlauf eines Winkelsektors (Φ) durch eine Linie dargestellt wird, deren Breite einen Wert des jeweils vorliegenden Winkelsektors (Φ) angibt, und/oder wobei ein Abstand (d) des Ego-Objekts (11) zu dem anderen Objekt (12) und/oder eine Geschwindigkeit des Ego-Objekts (11) durch einen hinterlegten Wert oder eine Einfärbung an der jeweiligen Stelle der Linie, welche dem Zeitpunkt des Vorliegens des Abstands (d) und/oder der Geschwindigkeit entspricht, dargestellt wird oder werden.
9. System (100) zur Datenaufbereitung von dynamischen räumlichen Szenarien (10), insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz (1), aufweisend:
- ein Ermittlungsmodul (2), welches dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors (Φ), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt wird, aus Sensorda29 / 36
PI32129AT
AVL List GmbH ten (S) zu ermitteln, wobei die Sensordaten (S) geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf das Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren; und
- ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) des ermittelten zeitlichen Verlaufs zu erzeugen.
10. System (200) zum Trainieren eines künstlichen neuronalen Netzes (1) auf der Grundlage von Sensordaten (S), welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, aufweisend:
- ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (Φ), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) zu erzeugen;
- eine Schnittstelle (4), die dazu eingerichtet ist, die erzeugte Darstellung (20) zusammen mit einer Information über das räumliche Szenario (10) dem künstlichen neuronalen Netz (1) zuzuführen.
11. System (300) zum Analysieren von Sensordaten (S), welche geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, aufweisend:
- ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (Φ), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) zu erzeugen; und
- ein Vergleichsmodul (6), welches dazu eingerichtet ist, die erzeugte Darstellung (20) mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios (10) zu vergleichen.
ATA50788/2018A 2018-09-14 2018-09-14 Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten AT521647B1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
ATA50788/2018A AT521647B1 (de) 2018-09-14 2018-09-14 Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten
EP19773727.3A EP3850536A1 (de) 2018-09-14 2019-09-13 Analyse dynamisscher räumlicher szenarien
KR1020217010955A KR20210060535A (ko) 2018-09-14 2019-09-13 동적 공간 시나리오의 분석
JP2021514045A JP7511544B2 (ja) 2018-09-14 2019-09-13 動的空間シナリオの分析
PCT/AT2019/060301 WO2020051618A1 (de) 2018-09-14 2019-09-13 Analyse dynamisscher räumlicher szenarien
US17/275,810 US20220237889A1 (en) 2018-09-14 2019-09-13 Analysis of dynamic spatial scenarios
CN201980060057.1A CN112673379A (zh) 2018-09-14 2019-09-13 动态空间场景分析

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50788/2018A AT521647B1 (de) 2018-09-14 2018-09-14 Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten

Publications (2)

Publication Number Publication Date
AT521647A1 true AT521647A1 (de) 2020-03-15
AT521647B1 AT521647B1 (de) 2020-09-15

Family

ID=68062777

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50788/2018A AT521647B1 (de) 2018-09-14 2018-09-14 Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten

Country Status (6)

Country Link
US (1) US20220237889A1 (de)
EP (1) EP3850536A1 (de)
KR (1) KR20210060535A (de)
CN (1) CN112673379A (de)
AT (1) AT521647B1 (de)
WO (1) WO2020051618A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592826B1 (ko) * 2018-10-10 2023-10-23 현대자동차주식회사 근거리 끼어들기 차량 판단 장치 및 그의 판단 방법과 그를 이용하는 차량
CN118215612A (zh) * 2021-11-19 2024-06-18 华为技术有限公司 一种信息处理方法及装置
DE102022126747A1 (de) 2022-10-13 2024-04-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zu einer Generierung von Szenariomodellen bei autonomen Fahrvorgängen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3229206A1 (de) * 2016-04-04 2017-10-11 Xerox Corporation Tiefe datenverknüpfung für mehrklassige online-multiobjektverfolgung
US20180046910A1 (en) * 2016-08-10 2018-02-15 Google Inc. Deep Machine Learning to Predict and Prevent Adverse Conditions at Structural Assets
US20180134288A1 (en) * 2016-11-14 2018-05-17 Nec Laboratories America, Inc. Advanced driver-assistance system using accurate object proposals by tracking detections
US20180164812A1 (en) * 2016-12-14 2018-06-14 Samsung Electronics Co., Ltd. Apparatus and method for generating training data to train neural network determining information associated with road included in image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10141037C1 (de) * 2001-08-20 2003-04-03 Siemens Ag Vorrichtung zur Erkennung eines Hindernisses
CN102307774A (zh) * 2009-02-03 2012-01-04 大陆-特韦斯贸易合伙股份公司及两合公司 用于实施避让行动的方法和装置
CN103530605B (zh) * 2013-09-29 2017-01-25 数基科技(北京)有限公司 一种鲁棒的异常行为检测方法
DE102014213359A1 (de) * 2014-07-09 2016-01-14 Robert Bosch Gmbh Vorrichtung und Verfahren zur akustischen Untersuchung von Umgebungsobjekten eines Fortbewegungsmittels
SE1551370A1 (sv) * 2015-10-22 2017-02-07 Uniquesec Ab Testing method with virtual radar signatures for an automotive safety radar system
US10228693B2 (en) * 2017-01-13 2019-03-12 Ford Global Technologies, Llc Generating simulated sensor data for training and validation of detection models
US10402163B2 (en) * 2017-02-14 2019-09-03 Accenture Global Solutions Limited Intelligent data extraction
WO2019241022A1 (en) * 2018-06-13 2019-12-19 Nvidia Corporation Path detection for autonomous machines using deep neural networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3229206A1 (de) * 2016-04-04 2017-10-11 Xerox Corporation Tiefe datenverknüpfung für mehrklassige online-multiobjektverfolgung
US20180046910A1 (en) * 2016-08-10 2018-02-15 Google Inc. Deep Machine Learning to Predict and Prevent Adverse Conditions at Structural Assets
US20180134288A1 (en) * 2016-11-14 2018-05-17 Nec Laboratories America, Inc. Advanced driver-assistance system using accurate object proposals by tracking detections
US20180164812A1 (en) * 2016-12-14 2018-06-14 Samsung Electronics Co., Ltd. Apparatus and method for generating training data to train neural network determining information associated with road included in image

Also Published As

Publication number Publication date
WO2020051618A1 (de) 2020-03-19
KR20210060535A (ko) 2021-05-26
US20220237889A1 (en) 2022-07-28
CN112673379A (zh) 2021-04-16
JP2022500762A (ja) 2022-01-04
AT521647B1 (de) 2020-09-15
EP3850536A1 (de) 2021-07-21

Similar Documents

Publication Publication Date Title
AT521607B1 (de) Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
DE102016107705A1 (de) Reaktive Pfadplanung für autonomes Fahren
DE102017203838A1 (de) Verfahren und System zur Umfelderfassung
EP3543985A1 (de) Simulieren verschiedener verkehrssituationen für ein testfahrzeug
DE102009006113A1 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102013205882A1 (de) Verfahren und Vorrichtung zum Führen eines Fahrzeugs im Umfeld eines Objekts
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
AT521647B1 (de) Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102015208428A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Umwelteinflüssen und Fahrbahnzustandsinformationen im Fahrzeugumfeld
DE102016224291A1 (de) Verfahren zur rechnergestützten Adaption eines vorgegebenen teilautomatisierten Fahrsystems eines Kraftfahrzeugs
AT523834B1 (de) Verfahren und System zum Testen eines Fahrerassistenzsystems
DE102018122374A1 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
DE102019216206A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Kehrtwendestrategie eines autonomen Fahrzeugs
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102018121866A1 (de) Verfahren zur Tiefenabschätzung von zweidimensionalen Sensordaten
DE102018128535A1 (de) Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102008036219A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
EP3947075B1 (de) Fahrsystem und verfahren zum auswählen einer handlungsoption für ein automatisiertes kraftfahrzeug
DE102017123226A1 (de) Verfahren zum Bestimmen einer kritischen Höhe eines vorausliegenden Streckenabschnitts für ein Fahrzeug, das ein Zugfahrzeug und einen Anhänger umfasst
EP3576013A1 (de) Abschätzen eines verlaufs eines schienenpfads