DE102022206130A1 - Verfahren zum Trainieren und Betreiben einer Bewegungsschätzung von Objekten - Google Patents

Verfahren zum Trainieren und Betreiben einer Bewegungsschätzung von Objekten Download PDF

Info

Publication number
DE102022206130A1
DE102022206130A1 DE102022206130.6A DE102022206130A DE102022206130A1 DE 102022206130 A1 DE102022206130 A1 DE 102022206130A1 DE 102022206130 A DE102022206130 A DE 102022206130A DE 102022206130 A1 DE102022206130 A1 DE 102022206130A1
Authority
DE
Germany
Prior art keywords
sensor data
time
learning model
machine learning
boxes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022206130.6A
Other languages
English (en)
Inventor
Florian Drews
Florian Faion
Lars Rosenbaum
Michael Ulrich
Claudius Glaeser
Fabian Timm
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022206130.6A priority Critical patent/DE102022206130A1/de
Priority to US18/337,111 priority patent/US20230406298A1/en
Priority to CN202310728297.2A priority patent/CN117268413A/zh
Publication of DE102022206130A1 publication Critical patent/DE102022206130A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/589Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/62Sense-of-movement determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration

Abstract

Verfahren 1000 zum Lernen der Extraktion von Bewegungsinformationen aus Sensordaten, zur anschließenden Anwendung in der Ermittlung von Geschwindigkeiten detektierter Objekte, das Verfahren aufweisend die Schritte:- Bereitstellen 100 einer Zeitreihe von Frames 15, 14, 13, 12, 11 von Sensordaten, welche durch physikalische Beobachtung mindestens eines Objekts 10 aufgenommen wurden,- Bereitstellen 200 einer Zeitreihe von Objektbegrenzungsboxen 25, 24, 23, 22, 21, die in Frames von Sensordaten jeweils das mindestens eine Objekt 10 umgrenzen,- Zuführen 300 mindestens der Objektbegrenzungsbox 22 zu einem Zeitpunkt t sowie einer Historie von Sensordaten 15, 14, 13 aus der Zeitreihe von Sensordaten 15, 14, 13, 12, 11, und/oder einer Historie von Objektbegrenzungsboxen 25, 24, 23 aus der Zeitreihe von Objektbegrenzungsboxen 25, 24, 23, 22, 21, vor dem Zeitpunkt t zu einem trainierbaren Machine Learning-Modell 30, das die Entwicklung der Objektbegrenzungsbox 31 für einen Zeitpunkt t+k vorhersagt,- Vergleichen 400 der so vorhergesagten Objektbegrenzungsbox 31 mit einer aus der Zeitreihe von Objektbegrenzungsboxen 25, 24, 23, 22, 21 bezogenen Vergleichs-Box 21 für den gleichen Zeitpunkt t+k,- Bewerten 500 einer Abweichung zwischen der vorhergesagten Objektbegrenzungsbox 31 und der Vergleichs-Box 21 mit einer vorgegebenen Kostenfunktion, und- Optimieren 600 von Parametern 301, die das Verhalten des trainierbaren Machine Learning-Modells 30 charakterisieren, mit dem Ziel, dass sich bei weiteren Vorhersagen von Objektbegrenzungsboxen 31 die Bewertung durch die Kostenfunktion voraussichtlich verbessert.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Lernen der Extraktion von Bewegungsinformationen aus Sensordaten, zur anschließenden Anwendung in der Ermittlung von Geschwindigkeiten detektierter Objekte. Die Erfindung betrifft auch ein Verfahren zur Extraktion von Bewegungsinformationen aus Sensordaten und damit die vorgenannte Anwendung in der Ermittlung von Geschwindigkeiten detektierter Objekte. Die Erfindung betrifft auch ein eines der vorgenannten Verfahren implementierendes Computerprogramm, einen maschinenlesbaren Datenträger mit einem solchen Computerprogramm sowie einen oder mehrere Computer aufweisend das vorgenannte Computerprogramm.
  • Stand der Technik
  • Eine umfassende Erkennung des Fahrzeugumfelds bildet die Grundlage für Fahrerassistenzsysteme und automatisierte Fahrfunktionen. Der Detektion, Klassifikation und Verfolgung - dem Tracking - von Objekten, wie z.B. anderen Verkehrsteilnehmern, kommt dabei eine besondere Bedeutung zu. Heutzutage kann eine Vielzahl an Sensoren zur Erfassung des Fahrzeugumfelds eingesetzt werden.
  • Maschinelle Lernverfahren, insbesondere beispielsweise Deep Learning, gewinnen im Bereich des automatisierten Fahrens zunehmend an Bedeutung. Beispielsweise kommen im Bereich der Umfeldwahrnehmung mit im Fahrzeug verbauten Sensoren verstärkt tiefe neuronale Netze zum Einsatz. Einige dieser Verfahren kombinieren verschiedene Sensormodalitäten, um Objekte im Fahrzeugumfeld zu detektieren oder die Verkehrsszene semantisch zu segmentieren.
  • Objektdetektionsnetze, welche zur Detektion von Objekten im Fahrzeugumfeld oder zur semantischen Segmentierung einer Verkehrsszene ausgebildet sind, werden typischerweise mittels Supervised Learning trainiert, d.h. auf Basis annotierter Umfelddaten. Die Erstellung und insbesondere die Annotation entsprechender Datensätze ist jedoch sehr zeit- und kostenintensiv. Der überwiegende Teil solcher Datensätze beinhaltet Annotationen für Objektbegrenzungsboxen von Objekten verschiedener Klassen. Typischerweise liegen in diesem Zusammenhang keine Annotationen für die Bewegung der Objekte, d.h. beispielsweise für Geschwindigkeiten der Objekte, vor.
  • Offenbarung der Erfindung
  • Die Kenntnis von Geschwindigkeiten unterschiedlicher, im Umfeld eines Fahrzeugs erfasster Objekte besitzt im Zusammenhang des autonomen Fahren sowie des assistenzbasierten Fahrens eine enorme Bedeutung, da in Reaktion auf ermittelte Bewegungen von Objekten in Fahrzeugnähe unter Umständen sicherheitsrelevante und/oder sicherheitskritische Aktionen wie Bremsungen oder Ausweichmanöver ausgelöst werden müssen. Es existieren Verfahren, mittels welcher die Extraktion von Objektparametern wie z.B. Länge, Breite und/oder Objekt-Orientierung aus Sensordaten gelernt werden kann. Dazu können Sensordaten, welche sich auf einen gemeinsamen Messzeitpunkt beziehen, herangezogen werden. Die Extraktion von Geschwindigkeitsinformationen von Objekten aus denselben Sensordaten ist dahingehend anspruchsvoller, da dazu die Berücksichtigung einer zeitlichen Evolution in den Sensordaten notwendig ist.
  • Im Rahmen der Erfindung wurde ein Verfahren zum Lernen der Extraktion von Bewegungsinformationen aus Sensordaten entwickelt. Dieses Verfahren ist auf eine anschließende Anwendung in der Ermittlung von Geschwindigkeiten detektierter Objekte gerichtet. Das Verfahren zum Lernen der Extraktion von Bewegungsinformationen aus Sensordaten weist dabei zumindest die im Folgenden beschriebenen Schritte auf. In einem Verfahrensschritt wird eine Zeitreihe von Frames von Sensordaten bereitgestellt, welche durch physikalische Beobachtung mindestens eines Objekts aufgenommen wurden. Des Weiteren wird in einem folgenden Schritt eine Zeitreihe von Objektbegrenzungsboxen bereitgestellt. Dabei umgrenzen die Objektbegrenzungsboxen in Frames von Sensordaten jeweils das mindestens eine Objekt. In einem folgenden Verfahrensschritt wird mindestens die Objektbegrenzungsbox zu einem Zeitpunkt t sowie eine Historie von Sensordaten aus der Zeitreihe von Sensordaten, und/oder eine Historie von Objektbegrenzungsboxen aus der Zeitreihe von Objektbegrenzungsboxen vor dem Zeitpunkt t einem trainierbaren Machine Learning Modell zugeführt. Das vorgenannte Machine Learning Modell ist dazu ausgebildet, die Entwicklung der Objektbegrenzungsbox für einen Zeitpunkt t+k vorherzusagen. Die daraufhin mittels des Machine Learning Modells vorhergesagte Objektbegrenzungsbox für den Zeitpunkt t+k wird anschließend mit einer aus der Zeitreihe von Objektbegrenzungsboxen bezogenen Vergleichs-Box für den gleichen Zeitpunkt t+k verglichen. In einem folgenden Verfahrensschritt wird eine Abweichung zwischen der vorhergesagten Objektbegrenzungsbox und der Vergleichs-Box mit einer vorgegebenen Kostenfunktion bewertet. In Anschluss daran werden Parameter, die das Verhalten des trainierbaren Machine Learning Modells charakterisieren optimiert. Dies geschieht auf das Ziel hin, dass sich bei weiteren Vorhersagen von Objektbegrenzungsboxen durch das Machine Learning-Modell die Bewertung durch die vorgenannte Kostenfunktion voraussichtlich verbessert.
  • Ein Frame umfasst im hier diskutierten Zusammenhang jeweils Daten - etwa Sensordaten -, die sich auf einen gemeinsamen Zeitpunkt, z.B. einen gemeinsamen Messzeitpunkt, beziehen.
  • Zumindest ein Teil der vorgenannten Objektbegrenzungsboxen kann beispielsweise in Form von Annotationen gegeben sein. Bewegungsinformationen müssen dabei nicht notwendig annotiert sein. Typischerweise verfügbare Datensätze mit Objektbegrenzungsboxen sind ausreichend. Werden die Objektbegrenzungsboxen in Form von Annotationen bereitgestellt, so trägt die Tatsache, dass Geschwindigkeitsinformationen nicht annotiert sein müssen, bereits zu einer signifikanten Zeit- und Kostenersparnis bei. Es ist weiterhin auch möglich, dass ein Teil oder die Gesamtheit der Objektbegrenzungsboxen durch Betrachtung jeweils eines Frames von Sensordaten und Extraktion von Objektparametern aus den jeweiligen Sensordaten ermittelt wird, beispielsweise unter Heranziehung eines Objektdetektors. In diesem Fall entfällt sogar die Notwendigkeit, annotierte Daten bereitzustellen, und es wird direkt mit zur Verfügung gestellten, nicht-annotierten Sensordaten gearbeitet. Dies kann wiederum zu einer erheblichen Reduktion von Zeit- und Kostenaufwand im Training eines Machine Learning-Modells beitragen.
  • Das oben und im Folgenden beschriebene Verfahren erlaubt es, Bewegungsinformationen aus den Sensordaten zu extrahieren, wobei die Bewegungsinformationen dabei unter Umständen beispielsweise nicht direkt durch Umfeld-Sensoren erfasst bzw. gemessen werden können. Direkte Geschwindigkeitsmessungen können etwa beispielsweise auf Grundlage von Messungen von Radarsensoren stattfinden, wobei in diesem Fall im allgemeinen nur eine radiale Geschwindigkeitskomponente einer direkten Messung zugänglich ist. Möglicherweise ist aber eine 2D Geschwindigkeit oder auch eine Gierrate von Bedeutung im Zusammenhang einer präzisen Umfelderfassung einschließlich der Bewegungsvorhersage von Objekten, um Kollisionen etc. durch frühzeitiges einleiten geeigneter (Sicherheits-) Aktionen zu vermeiden. Durch die Kombination bestehender Verfahren zur Geschwindigkeitsermittlung mit dem hier vorgeschlagenen Verfahren kann die Bewegungsschätzung von Objekten insgesamt verbessert und robuster gemacht werden. Dies ist insbesondere vorteilhaft im Fall der Objektverfolgung, d.h. eines Trackings, und erlaubt somit eine genauere und verbesserte Umfeldwahrnehmung.
  • Gemäß einer beispielhaften Ausführungsform wird mindestens ein Teil der Objektbegrenzungsboxen in der Zeitreihe von einem Objektdetektor ermittelt, und zwar unter Heranziehen von jeweils zeitlich korrespondierenden Frames von Sensordaten. In diesem letztgenannten Fall liegen die Objektbegrenzungsboxen demnach zumindest nicht alle in Form bereits annotierter Daten vor. Vielmehr wird zumindest ein Teil der Objektbegrenzungsboxen im Rahmen des Verfahrens selbst aus korrespondierenden Frames von Sensordaten ermittelt. Dadurch kann ein entsprechender Kostenaufwand im Zusammenhang der Erstellung von Annotationen zumindest reduziert werden.
  • Gemäß einer beispielhaften Ausführungsform sagt das Maschine Learning-Modell die zeitliche Entwicklung der Objektbegrenzungsbox unter Heranziehung mindestens eines physikalischen Bewegungsmodells vorher.
  • Beispielsweise kann das vorgenannte physikalische Bewegungsmodell dabei zumindest auf eine der Annahmen einer konstanten Geschwindigkeit, einer konstanten Geschwindigkeit und Fahrtrichtung, und/oder einer konstanten Geschwindigkeit und Dreh-Rate zurückgreifen.
  • Weiterhin ist es möglich, dass Informationen über beispielsweise die Bewegung des Sensoren aufnehmenden Fahrzeugs, d.h. des Fahrzeugs, auf dem die Sensoren installiert sein können, und welche die betrachteten Sensordaten jeweils liefern, genutzt werden, um eine Eigenbewegungskompensation durchzuführen.
  • Gemäß einer beispielhaften Ausführungsform enthalten die Sensordaten Radar-, LiDAR-, Kamera- und /oder Ultraschall-Sensordaten. Im Falle von LiDAR-Sensordaten kann es sich z.B. um entsprechende Daten eines FMCW LiDARs handeln. Dies sind diejenigen Typen von Sensoren, die am häufigsten für die Umfeldüberwachung von Fahrzeugen genutzt werden.
  • Gemäß einer beispielhaften Ausführungsform ist mindestens eine Objektbegrenzungsbox in der Zeitreihe mit mindestens einem Objektparameter annotiert und/oder dieser mindestens eine Objektparameter wird von dem Objektdetektor regressiert. Dabei gibt der vorgenannte mindestens eine Objektparameter eine Pose, eine lineare Geschwindigkeit, eine radiale Geschwindigkeit, eine radiale Beschleunigung, eine 2-dimensionale Geschwindigkeit, eine 2-dimensionale Beschleunigung, eine Winkelgeschwindigkeit und/oder eine Drehrate des Objekts an. Weiterhin ist vorgesehen, dass das Machine Learning-Modell den vorgenannten Objektparameter als zusätzliche Eingabe erhält. Das annotierte, bzw. durch Regression erworbene, Zusatzwissen kann dann genutzt werden, um die Genauigkeit der Vorhersage von Objektbegrenzungsboxen weiter zu verbessern.
  • Gemäß einer beispielhaften Ausführungsform können neben den Merkmalen der vorgenannten Ausführungsform zusätzlich zumindest die im Folgenden genannten vorgesehen sein. Der Objektparameter kann für den Zeitpunkt t+k ebenfalls von dem Machine Learning-Modell vorhergesagt werden und/oder unter Heranziehung der vom Machine Learning-Modell vorhergesagten Objektbegrenzungsbox ermittelt werden. Daraufhin kann eine Abweichung zwischen dem so erhaltenen Objektparameter für den Zeitpunkt t+k und dem vom Objektdetektor regressierten Objektparameter für den Zeitpunkt t+k mit einer weiteren Kostenfunktion bewertet werden. In Reaktion darauf können Parameter, die das Verhalten des Objektdetektors charakterisieren, optimiert werden, und zwar auf das Ziel gerichtet, dass bei weiterer Verarbeitung von Frames von Sensordaten durch den Objektdetektor die Bewertung durch die vorgenannte weitere Kostenfunktion voraussichtlich verbessert wird. Die Prognose auch der Objektparameter kann insbesondere beispielsweise genutzt werden, um das künftige Bewegungsverhalten eines Objekts, und/oder die Absicht, mit der ein solches Objekt gesteuert wird, vorherzusagen.
  • Gemäß einer beispielhaften Ausführungsform können unter Heranziehung von Sensordaten, welche sich auf eine Vielzahl von Reflexionen von Sensorsignalen an dem jeweiligen Objekt beziehen, zusätzlich Bewegungsparameter geschätzt werden. Dies geschieht mit dem Ziel, über eine radiale Geschwindigkeit des Objekts hinausgehende Geschwindigkeitsinformationen zu erhalten. Diese Schätzung der Bewegungsparameter kann dem Machine Learning-Modell ebenfalls als Eingabe zugeführt werden.
  • Aus Sensordaten kann typischerweise ein Ort, d.h. eine Distanz, ein Azimuthwinkel, sowie gegebenenfalls eine Elevation, extrahiert werden. Als weitere Attribute lassen sich unter Umständen eine 2D Geschwindigkeit und/oder eine Gierrate aus einer Vielzahl von erfassten (beispielsweise Radar-) Reflexionen an dem Objekt ermitteln.
  • Gemäß einer beispielhaften Ausführungsform können zusätzliche Informationen zur Eigenbewegung der die Sensordaten liefernden Sensoren genutzt werden, um eine Eigenbewegungskompensation durchzuführen und/oder um ebenfalls dem Machine Learning-Modell als Eingaben zugeführt zu werden. Jede solche Zusatzinformation kann die Genauigkeit verbessern, mit der Objektbegrenzungsboxen vorhergesagt werden können.
  • Gemäß einer beispielhaften Ausführungsform wird dem trainierten Machine Learning Modell eine Objektbegrenzungsbox zu einem aktuellen Zeitpunkt zugeführt, sowie weiterhin eine von diesem aktuellen Zeitpunkt ausgehende Historie von Sensordaten und/oder Objektbegrenzungsboxen. Daraufhin kann in einem weiteren Verfahrensschritt anhand von mit dem Machine Learning Modell vorhergesagten Objektbegrenzungsboxen für spätere Zeitpunkte eine künftige Bewegung mindestens eines Objekts vorhergesagt werden. Die so erhaltene Vorhersage kann beispielsweise genutzt werden, um das Verhalten eines eigenen Fahrzeugs auf die vorhergesagte Bewegung abzustimmen.
  • Im vorgenannten Fall können beispielsweise Sensordaten gewählt werden, die von mindestens einem an oder in einem Fahrzeug mitgeführten Sensor aufgenommen wurden.
  • In einer beispielhaften Ausführungsform können weiterhin die im Folgenden beschriebenen Verfahrensschritte vorgesehen sein. In einem weiteren Verfahrensschritt kann ein Ansteuersignal in Antwort auf die ermittelte Vorhersage der künftigen Bewegung des mindestens einen Objekts erzeugt werden. Daraufhin kann in einem weiteren Verfahrensschritt das Fahrzeug - das die Sensoren beherbergt, welche die durch das Machine Learning-Modell verarbeiteten Sensordaten liefern - mit dem Ansteuersignal angesteuert werden, um das Fahrzeug zu einer Bremsung, Beschleunigung, Weiterfahrt mit konstanter Geschwindigkeit und/oder einem Ausweichmanöver zu veranlassen. In diesem Kontext hat die hier vorgeschlagene Vorhersage von Objektbegrenzungsboxen die Wirkung, dass die vom Fahrzeug auf Grund der Ansteuerung mit dem Ansteuersignal ausgeführte Aktion mit einer größeren Wahrscheinlichkeit der durch die Umfeldüberwachung erfassten Situation angemessen ist.
  • Weiterhin bezieht sich die Erfindung auf ein Computerprogramm mit maschinenlesbaren Anweisungen, welche, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, eines der zuvor und im folgenden beschriebenen erfindungsgemäßen Verfahren auszuführen. Ebenfalls umfasst die Erfindung einen maschinenlesbaren Datenträger, auf welchem das vorstehende Computerprogramm gespeichert ist, sowie einen mit vorgenanntem Computerprogramm oder vorgenanntem maschinenlesbaren Datenträger ausgerüsteten Computer.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 ein Ausführungsbeispiel betreffend ein Verfahren zum Lernen der Extraktion von Bewegungsinformationen aus Sensordaten;
    • 2 ein weiteres Ausführungsbeispiel hinsichtlich des Verfahrens zum Lernen der Extraktion von Bewegungsinformationen.
  • 1 zeigt ein Ausführungsbeispiel eines Verfahrens 1000 zum Lernen der Extraktion von Bewegungsinformationen aus Sensordaten. Die Sensordaten können dabei beispielsweise Radar-, LiDAR-, Kamera-, und/oder Ultraschall-Sensordaten enthalten. Das Lernen hat eine anschließende Anwendung zum Ziel, die der Ermittlung von Geschwindigkeiten von in den Sensordaten detektierten Objekten dient. In einem ersten Verfahrensschritt 100 wird im Zuge des Lernens bzw. Trainings eine Zeitreihe von Frames 15, 14, 13, 12, 11 - in 1 bezogen auf aufeinanderfolgende, voranschreitende Zeitpunkte t-n, t-m, t-I, t und t+k - bereitgestellt. Die Frames 15, 14, 13, 12, 11 sind dabei jeweils durch physikalische Beobachtung mindestens eines Objekts 10 aufgenommen worden. Bei dem Objekt kann es sich, wie beispielhaft in 1 gezeigt, um ein Fahrzeug handeln. Das Objekt kann jedoch beispielsweise auch durch einen Fußgänger, Radfahrer, Motorradfahrer oder einen Quadfahrer, also allgemein beispielsweise durch einen Verkehrsteilnehmer gegeben sein.
  • In Verfahrensschritt 200 wird daraufhin eine Zeitreihe von Objektbegrenzungsboxen 25, 24, 23, 22, 21 bereitgestellt, wobei die vorgenannten Objektbegrenzungsboxen in Frames von Sensordaten jeweils das mindestens eine Objekt 10 umgrenzen. Wie auch die korrespondierenden Frames 15, 14, 13, 12, 11 beziehen sich die Objektbegrenzungsboxen 25, 24, 23, 22, 21 in 1 auf aufeinanderfolgende, voranschreitende Zeitpunkte t-n, t-m, t-l, t und t+k. Es ist beispielsweise möglich, das mindestens ein Teil der Objektbegrenzungsboxen 25, 24, 23, 22, 21 in der Zeitreihe von einem Objektdetektor 20 aus den jeweils zeitlich korrespondierenden Frames 15, 14, 13, 12, 11 von Sensordaten ermittelt wird. Die Frames, in denen die Objektbegrenzungsboxen 25, 24, 23, 22, 21 auftreten, können damit beispielsweise insbesondere mit den Frames 15, 14, 13, 12, und 11 übereinstimmen. Gegenüber den Frames 15, 14, 13, 12 und 11 können die die Objektbegrenzungsboxen 25, 24, 23, 22 und 21 beinhaltenden Frames jedoch beispielsweise auch vereinfacht sein, d.h. z.B. als Hintergrund erkannte, für die zu bearbeitende Aufgabe irrelevante Bereiche, unscharf oder auch in einer bestimmten Farbe eingefärbt anzeigen. Für das vorstehend und im Folgenden beschriebene Verfahren ist das Vorhandensein eines Objektdetektors 20 jedoch optional und nicht notwendig. Ein Objektdetektor 20 kann herangezogen werden, um mindestens einen Teil der Objektbegrenzungsboxen 25, 24, 23, 22, 21 aus den jeweils zeitlich korrespondierenden Frames von Sensordaten, 15, 14, 13, 12, 11 zu ermitteln. Die Objektbegrenzungsboxen sowie die diese beinhaltenden Frames müssen im Zuge des hier beschriebenen Verfahrens jedoch nicht durch einen Objektdetektor ermittelt worden sein. Dies kann beispielsweise auch vor Beginn des hier beschriebenen Verfahrens stattgefunden haben.
  • Einem trainierbaren Machine Learning-Modell 30, welches die zeitliche Entwicklung von Objektbegrenzungsboxen vorhersagt, wird daraufhin in einem Verfahrensschritt 300 mindestens eine Objektbegrenzungsbox 22 korrespondierend zu einem Zeitpunkt t zugeführt. Weiterhin wird dem Machine Learning-Modell 30 eine Historie von Sensordaten 15, 14, 13 korrespondierend zu Zeitpunkten t-n, t-m, t-l vor dem Zeitpunkt t zugeführt und/oder eine Historie von Objektbegrenzungsboxen 25, 24, 23 - ebenfalls korrespondierend zu Zeitpunkten t-n, t-m, t-l vor dem Zeitpunkt t - aus der Zeitreihe von Objektbegrenzungsboxen 25, 24, 23, 22, 21. Unter Nutzung der zugeführten Informationen - Sensordaten und/oder Objektbegrenzungsboxen - sagt das Machine Learning-Modell daraufhin vorher, wie sich die Objektbegrenzungsbox 22 zum Zeitpunkt t+k entwickelt haben wird; d.h. es wird eine Vorhersage einer Objektbegrenzungsbox 31 für den Zeitpunkt t+k angegeben. Diese Vorhersage kann beispielsweise insbesondere unter Heranziehung mindestens eines physikalischen Bewegungsmodells durch das Machine Learning-Modell 30 getroffen werden. Das vorgenannte Bewegungsmodell kann dabei beispielsweise zumindest auf eine der Annahmen einer konstanten Geschwindigkeit, einer konstanten Geschwindigkeit und Fahrtrichtung, und/oder einer konstanten Geschwindigkeit und Dreh-Rate zurückgreifen.
  • Es ist beispielsweise weiterhin möglich, dass mindestens eine der Objektbegrenzungsboxen 25, 24, 23 und 22 in der Zeitreihe mit mindestens einem Objektparameter (v; vr; a; ω) annotiert ist und/oder dieser Objektparameter von dem Objektdetektor - insoweit dieser vorhanden ist - unter Nutzung zumindest eines der Frames von Sensordaten 15, 14, 13, 12 regressiert wird. Der vorgenannte Objektparameter kann dabei eine Pose, lineare Geschwindigkeit, radiale Geschwindigkeit, radiale Beschleunigung, 2-dimensionale Geschwindigkeit, 2-dimensionale Beschleunigung, Winkelgeschwindigkeit und/oder Drehrate des Objekts angeben. Der Objektparameter (v; vr; a; ω) kann dem Machine Learning-Modell 30 insbesondere als eine zusätzliche Eingabe zugeführt werden.
  • Im folgenden Verfahrensschritt 400 wird daraufhin die vorgenannte, vorhergesagte Objektbegrenzungsbox 31 mit einer Objektbegrenzungsbox 21, welche aus der Zeitreihe von Objektbegrenzungsboxen 25, 24, 23, 22, 21 bezogen wird und sich auf den gleichen Zeitpunkt t+k bezieht, verglichen. In Verfahrensschritt 500 erfolgt eine Bewertung einer Abweichung zwischen der vorhergesagten Objektbegrenzungsbox 31 und der Vergleichs-Box 21 mit einer vorgegebenen Kostenfunktion. Im Anschluss werden in Schritt 600 Parameter 301, welche des Verhalten des trainierbaren Machine Learning-Modells 30 charakterisieren, optimiert, mit dem Ziel, dass sich bei weiteren Vorhersagen von Objektbegrenzungsboxen in Analogie zur Vorhersage der Objektbegrenzungsbox 31 die Bewertung durch die vorgenannte Kostenfunktion voraussichtlich verbessert.
  • Ist ein Objektparameter (v; vr; a; ω) als Annotation gegeben oder im Rahmen des Verfahrens zuvor regressiert worden, so kann ein korrespondierender Objektparameter für den Zeitpunkt t+k ebenfalls von dem Machine Learning-Modell 30 vorhergesagt werden (v'; vr'; a'; ω') und/oder unter Heranziehung der vom Machine Learning-Modell 30 vorhergesagten Objektbegrenzungsbox 31 ermittelt werden (v''; vr''; a''; ω''). Daraufhin kann eine Abweichung zwischen dem vorhergesagten Objektparameter (v'; vr'; a'; ω') für den Zeitpunkt t+k und dem vom Objektdetektor regressierten Objektparameter (v''; vr''; a''; ω'') für den Zeitpunkt t+k mit einer weiteren Kostenfunktion bewertet werden. Daraufhin kann eine Optimierung von Parametern 201, welche das Verhalten des Objektdetektors 20 charakterisieren, durchgeführt werden. Die Optimierung ist auf das Ziel hin gerichtet, dass bei weiterer Verarbeitung von Frames 15, 14, 13, 12, 11 von Sensordaten durch den Objektdetektor 20 die Bewertung durch diese weitere Kostenfunktion voraussichtlich verbessert wird.
  • Wie ebenfalls in 1 dargestellt, können unter Heranziehung von Sensordaten 40 optional zusätzliche Bewegungsparameter 41 geschätzt werden, welche sich auf eine Vielzahl von Reflexionen von Sensorsignalen an dem jeweiligen Objekt 10 beziehen. Beispielsweise lassen sich aus (Radar-) Sensorsignalen typischerweise eine Distanz, ein Azimuthwinkel, ggf. eine Elevation, sowie eine radiale Geschwindigkeit eines Objekts ermitteln. Aus einer Vielzahl von z.B. Radar-Sensorsignalen an einem Objekt 10 lassen sich unter Umständen zusätzlich eine 2D Geschwindigkeit und/oder eine Gierrate ermitteln bzw. schätzen. Ziel ist es in diesem Zusammenhang, über eine radiale Geschwindigkeit des Objekts 10 hinausgehende Geschwindigkeitsinformationen zu erhalten. Die entsprechende Schätzung der Bewegungsparameter 41 kann dem Machine Learning-Modell 30 beispielsweise ebenfalls als Eingabe zugeführt werden.
  • Zusätzliche Informationen zur Eigenbewegung der die Sensordaten liefernden Sensoren 2, in 1 beispielsweise also das den Sensor 2 beherbergende Fahrzeug, können beispielsweise genutzt werden, um eine Eigenbewegungskompensation durchzuführen und/oder ebenfalls dem Machine Learning-Modell 30 als Eingaben zugeführt werden.
  • Mittels des in 1 dargestellten Ausführungsbeispiels kann ebenfalls nachvollzogen werden, wie Schritte zur Extraktion von Bewegungsinformationen mittels des bereits trainierten Machine Learning-Modells 30 aussehen. Dazu wird dem trainierten Machine-Learning-Modell 30 eine Objektbegrenzungsbox 22 zu einem aktuellen Zeitpunkt (in 1 dargestellt: dem Zeitpunkt t), sowie eine von diesem aktuellen Zeitpunkt ausgehende Historie von Sensordaten 13, 14, 15 und/oder Objektbegrenzungsboxen 23, 24,25 zugeführt. Anhand von mit dem trainierten Machine Learning-Modell 30 vorhergesagten Objektbegrenzungsboxen 31 für spätere Zeitpunkte (in Fig.: Zeitpunkt t+k) wird eine künftige Bewegung mindestens eines Objekts 10 vorhergesagt. In diesem Zusammenhang der angewandten Extraktion von Bewegungsinformationen werden typischer Sensordaten gewählt werden, die von mindestens einem an oder in einem Fahrzeug 1 mitgeführten Sensor 2 aufgenommen wurden. Das hier vorgeschlagene Verfahren verbessert und erweitert damit die Umfelderfassung durch ein teilautonomes oder fahrerassistenzbasiertes Fahrzeug.
  • Im vorgenannten Zusammenhang können damit beispielsweise die folgenden weiteren Verfahrensschritt 700 und 800 vorgesehen sein. In Schritt 700 wird ein Ansteuersignal in Antwort auf die ermittelte Vorhersage für die künftige Bewegung des mindestens einen Objekts 10 ermittelt. Daraufhin wird in Schritt 800 das Fahrzeug 1 mit dem Ansteuersignal angesteuert, um das Fahrzeug 1 zu einer Bremsung, Beschleunigung, Weiterfahrt mit konstanter Geschwindigkeit und/oder einem Ausweichmanöver zu veranlassen.
  • 2 zeigt beispielhaft einige Aspekte einer Ausführungsform des hier vorgestellten Verfahrens. Ein Frame von Sensordaten 12 zum Zeitpunkt t wird hier einem Objektdetektor 20 zugeführt. Dieser detektiert in den Sensordaten 12 ein Objekt O und umfasst dieses mit einer Objektbegrenzungsbox 22 korrespondierend zum Zeitpunkt t. Ein Machine Learning-Modell 30 mit einem entsprechenden Transformationsmodul überführt die Objektbegrenzungsbox 22 in eine Objektbegrenzungsbox 31. Dies kann - wie oben bereits beschrieben - auf Basis geschätzter Bewegungsparameter und/oder physikalischer Bewegungsmodelle geschehen. Die Objektbegrenzungsbox 31 wird daraufhin verglichen mit beispielsweise einer Objektbegrenzungsbox 21. Letztere Objektbegrenzungsbox 21 umfasst das Objekt O in Sensordaten, welche sich auf den Zeitpunkt t+k beziehen. Insbesondere sind dazu Sensordaten 11, welche sich auf den Zeitpunkt t+k beziehen, einem Objektdetektor 20 zugeführt worden, welcher in diesen Daten dasselbe Objekt O detektiert und dieses entsprechend mit der Objektbegrenzungsbox 21 umfasst hat. Die Abweichungen zwischen den Objektbegrenzungsboxen 31 und 21 können mittels einer Kostenfunktion bewertet werden und auf Basis dieser Bewertung können Parameter des Machine Learning-Modells 30 optimiert werden, auf das Ziel hin, dass eine neuerliche Bewertung durch die Kostenfunktion sich voraussichtlich verbessert. Dies wird in 2 durch die Punkt-Strich-Linie angedeutet, welche auf das Machine Learning-Modell 30 weist. Zusätzlich oder alternativ zum Vergleich der Objektbegrenzungsboxen 31 und 21 kann ein Vergleich zwischen den Objektbegrenzungsboxen 31 und 31' durchgeführt und dieser durch eine weitere Kostenfunktion bewertet werden. Bei Objektbegrenzungsbox 31' handelt es sich dabei um eine Annotation. Auf Basis der vorgenannten Bewertung können Parameter des Machine Learning-Modells 30 und/oder des Objektdetektors optimiert werden, auf das Ziel hin, dass eine neuerliche Bewertung durch die weitere Kostenfunktion sich voraussichtlich verbessert. Dies wird in 2 durch die Wellen-Linie angedeutet, welche auf das Machine Learning-Modell 30 und den Objektdetektor 20 weist. Weiterhin angedeutet ist in 2, dass zur Verbesserung des Objektdetektors 20 neben den vorgenannten Optimierungsmöglichkeiten auch ein Vergleich zwischen der Objektbegrenzungsbox 20 zum Zeitpunkt t und einer korrespondierenden Annotation 22' durchgeführt werden kann, und auf Basis der Bewertung des Vergleichs Parameter des Objektdetektors 20 angepasst werden können.

Claims (15)

  1. Verfahren (1000) zum Lernen der Extraktion von Bewegungsinformationen aus Sensordaten, zur anschließenden Anwendung in der Ermittlung von Geschwindigkeiten detektierter Objekte, das Verfahren aufweisend die Schritte: - Bereitstellen (100) einer Zeitreihe von Frames (15, 14, 13, 12, 11) von Sensordaten, welche durch physikalische Beobachtung mindestens eines Objekts (10) aufgenommen wurden, - Bereitstellen (200) einer Zeitreihe von Objektbegrenzungsboxen (25, 24, 23, 22, 21), die in Frames von Sensordaten jeweils das mindestens eine Objekt (10) umgrenzen, - Zuführen (300) mindestens der Objektbegrenzungsbox (22) zu einem Zeitpunkt t sowie einer Historie von Sensordaten (15, 14, 13) aus der Zeitreihe von Sensordaten (15, 14, 13, 12, 11), und/oder einer Historie von Objektbegrenzungsboxen (25, 24, 23) aus der Zeitreihe von Objektbegrenzungsboxen (25, 24, 23, 22, 21), vor dem Zeitpunkt t zu einem trainierbaren Machine Learning-Modell (30), das die Entwicklung der Objektbegrenzungsbox (31) für einen Zeitpunkt t+k vorhersagt, - Vergleichen (400) der so vorhergesagten Objektbegrenzungsbox (31) mit einer aus der Zeitreihe von Objektbegrenzungsboxen (25, 24, 23, 22, 21) bezogenen Vergleichs-Box (21) für den gleichen Zeitpunkt t+k, - Bewerten (500) einer Abweichung zwischen der vorhergesagten Objektbegrenzungsbox (31) und der Vergleichs-Box (21) mit einer vorgegebenen Kostenfunktion, und - Optimieren (600) von Parametern (301), die das Verhalten des trainierbaren Machine Learning-Modells (30) charakterisieren, mit dem Ziel, dass sich bei weiteren Vorhersagen von Objektbegrenzungsboxen (31) die Bewertung durch die Kostenfunktion voraussichtlich verbessert.
  2. Verfahren (1000) nach Anspruch 1, wobei mindestens ein Teil der Objektbegrenzungsboxen (25, 24, 23, 22, 21) in der Zeitreihe von einem Objektdetektor (20) aus den jeweils zeitlich korrespondierenden Frames (15, 14, 13, 12, 11) von Sensordaten ermittelt wird.
  3. Verfahren (1000) nach einem der Ansprüche 1 bis 2, wobei das Machine Learning-Modell (30) die Entwicklung der Objektbegrenzungsbox (31) unter Heranziehung mindestens eines physikalischen Bewegungsmodells vorhersagt.
  4. Verfahren (1000) nach Anspruch 3, wobei das Bewegungsmodell zumindest auf eine der Annahmen einer konstanten Geschwindigkeit, einer konstanten Geschwindigkeit und Fahrtrichtung, und/oder einer konstanten Geschwindigkeit und Dreh-Rate zurückgreift.
  5. Verfahren (1000) nach einem der Ansprüche 1 bis 4, wobei die Sensordaten Radar-, LiDAR-, Kamera- und/oder Ultraschall-Sensordaten enthalten.
  6. Verfahren (1000) nach einem der vorhergehenden Ansprüche, wobei • mindestens eine Objektbegrenzungsbox (25; 24; 23; 22; 21) in der Zeitreihe mit mindestens einem Objektparameter (v; vr; a; ω), der eine Pose, lineare Geschwindigkeit, radiale Geschwindigkeit, radiale Beschleunigung, 2-dimensionale Geschwindigkeit, 2-dimensionale Beschleunigung, Winkelgeschwindigkeit und/oder Drehrate des Objekts angibt, annotiert ist, und/oder dieser Objektparameter (v; vr; a; ω) von dem Objektdetektor (20) regressiert wird, und • das Machine Learning-Modell (30) diesen Objektparameter (v; vr; a; ω) als zusätzliche Eingabe erhält.
  7. Verfahren (1000) nach Anspruch 6, wobei • der Objektparameter für den Zeitpunkt t+k ebenfalls von dem Machine Learning-Modell (30) vorhergesagt wird (v'; vr'; a'; ω'), und/oder unter Heranziehung der vom Machine Learning-Modell (30) vorhergesagten Objektbegrenzungsbox (31) ermittelt wird (v''; vr''; a''; ω'') , • eine Abweichung zwischen dem so erhaltenen Objektparameter (v'; vr'; a'; ω') für den Zeitpunkt t+k und dem vom Objektdetektor regressierten Objektparameter (v''; vr''; a''; ω'') für den Zeitpunkt t+k mit einer weiteren Kostenfunktion bewertet wird, und • Parameter (201), die das Verhalten des Objektdetektors(20) charakterisieren, optimiert werden mit dem Ziel, dass bei weiterer Verarbeitung von Frames (11, 12, 13) von Sensordaten durch den Objektdetektor (20) die Bewertung durch diese weitere Kostenfunktion voraussichtlich verbessert wird.
  8. Verfahren (1000) nach einem der vorhergehenden Ansprüche, wobei zusätzlich Bewegungsparameter (41) geschätzt werden unter Heranziehung von Sensordaten (40), welche sich auf eine Vielzahl von Reflexionen von Sensorsignalen an dem jeweiligen Objekt (10) beziehen, mit dem Ziel über eine radiale Geschwindigkeit des Objekts (10) hinausgehende Geschwindigkeitsinformationen zu erhalten, und wobei diese Schätzung der Bewegungsparameter (41) dem Machine Learning-Modell (30) ebenfalls als Eingabe zugeführt wird.
  9. Verfahren (1000) nach einem der vorhergehenden Ansprüche, wobei zusätzliche Informationen zur Eigenbewegung der die Sensordaten liefernden Sensoren (2) • genutzt werden, um eine Eigenbewegungskompensation durchzuführen, und/oder • ebenfalls dem Machine Learning-Modell (30) als Eingaben zugeführt werden.
  10. Verfahren (1000) nach einem der vorhergehenden Ansprüche, wobei • dem trainierten Machine Learning-Modell (30) eine Objektbegrenzungsbox (22) zu einem aktuellen Zeitpunkt sowie eine von diesem aktuellen Zeitpunkt ausgehende Historie von Sensordaten (13, 14, 15) und/oder Objektbegrenzungsboxen (23, 24, 25) zugeführt werden; und • anhand von mit dem Machine Learning-Modell (30) vorhergesagten Objektbegrenzungsboxen (31) für spätere Zeitpunkte eine künftige Bewegung mindestens eines Objekts (10) vorhergesagt wird.
  11. Verfahren (1000) nach Anspruch 10, wobei Sensordaten gewählt werden, die von mindestens einem an oder in einem Fahrzeug (1) mitgeführten Sensor (2) aufgenommen wurden.
  12. Verfahren (1000) nach Anspruch 11, weiterhin umfassend die Schritte: - Erzeugen (700) eines Ansteuersignals in Antwort auf die ermittelte Vorhersage für die künftige Bewegung des mindestens einen Objekts (10), - Ansteuern (800) des Fahrzeugs (1) mit dem Ansteuersignal, um das Fahrzeug (1) zu einer Bremsung, Beschleunigung, Weiterfahrt mit konstanter Geschwindigkeit und/oder einem Ausweichmanöver zu veranlassen.
  13. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 12 auszuführen.
  14. Maschinenlesbarer Datenträger mit dem Computerprogramm nach Anspruch 12
  15. Ein oder mehrere Computer, ausgerüstet mit dem Computerprogramm nach Anspruch 13 und/oder dem maschinenlesbaren Datenträger nach Anspruch 14.
DE102022206130.6A 2022-06-20 2022-06-20 Verfahren zum Trainieren und Betreiben einer Bewegungsschätzung von Objekten Pending DE102022206130A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022206130.6A DE102022206130A1 (de) 2022-06-20 2022-06-20 Verfahren zum Trainieren und Betreiben einer Bewegungsschätzung von Objekten
US18/337,111 US20230406298A1 (en) 2022-06-20 2023-06-19 Method for Training and Operating Movement Estimation of Objects
CN202310728297.2A CN117268413A (zh) 2022-06-20 2023-06-19 训练和运行对象的运动估计的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022206130.6A DE102022206130A1 (de) 2022-06-20 2022-06-20 Verfahren zum Trainieren und Betreiben einer Bewegungsschätzung von Objekten

Publications (1)

Publication Number Publication Date
DE102022206130A1 true DE102022206130A1 (de) 2023-12-21

Family

ID=88974734

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022206130.6A Pending DE102022206130A1 (de) 2022-06-20 2022-06-20 Verfahren zum Trainieren und Betreiben einer Bewegungsschätzung von Objekten

Country Status (3)

Country Link
US (1) US20230406298A1 (de)
CN (1) CN117268413A (de)
DE (1) DE102022206130A1 (de)

Also Published As

Publication number Publication date
CN117268413A (zh) 2023-12-22
US20230406298A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
AT521607B1 (de) Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem
DE112010000079B4 (de) Verfahren zur automatischen Erkennung eines Fahrmanövers eines Kraftfahrzeugs und ein dieses Verfahren umfassendes Fahrerassistenzsystem
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE112014006071T5 (de) Fahrzeugumgebungssitutation-Abschätzvorrichtung
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
EP3789926A1 (de) Verfahren zum erkennen einer adversarialen störung in eingangsdaten eines neuronalen netzes
DE102020112686A1 (de) Adaptives autonomes Notbremssystem unter Berücksichtigung des Lenkwegs und Steuerverfahren für selbiges
WO2018019454A1 (de) Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld
DE102020124633A1 (de) Kontextsensitive anpassung einer geländeblickzeit
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
WO2020051618A1 (de) Analyse dynamisscher räumlicher szenarien
EP4176378A1 (de) Verfahren zur umgebungserfassung mit wenigstens zwei unabhängigen bildgebenden umgebungserfassungssensoren, vorrichtung zur durchführung des verfahrens, fahrzeug sowie entsprechend ausgelegtes computerprogramm
DE102019106122A1 (de) Automatisiertes Fahrsystem
DE102019217723A1 (de) Fahrsicherheits-steuersystem unter verwendung von umgebungsgeräuschen und steuerverfahren dafür
WO2021165077A1 (de) Verfahren und vorrichtung zur bewertung eines bildklassifikators
DE102020129802A1 (de) Fahrzeugbetriebskennzeichnung
DE112020007538T5 (de) Fahrunterstützungsvorrichtung, Lernvorrichtung, Fahrunterstützungsverfahren, Fahrunterstützungsprogramm, Gelerntes-Modellerzeugungsverfahren und Datenträger mit Gelerntes-Modellerzeugungsprogramm
DE102022206130A1 (de) Verfahren zum Trainieren und Betreiben einer Bewegungsschätzung von Objekten
DE102019129904A1 (de) Automatische Fahrkompetenzanalyse
DE102019209457A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm, maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
EP4211599A1 (de) Computerimplementiertes verfahren zur umfelderkennung für ein automatisiertes fahrsystem, maschinenlernverfahren, steuergerät für ein automatisiertes fahrsystem und computerprogramm für ein derartiges steuergerät
DE102020122853A1 (de) Verfahren und Vorrichtung zur Vorhersage des Abbruchs einer automatisierten Fahrfunktion