DE102021208371A1 - Computerimplementiertes Verfahren und Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems und Umfeldwahrnehmungssystem eines Fahrsystems - Google Patents

Computerimplementiertes Verfahren und Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems und Umfeldwahrnehmungssystem eines Fahrsystems Download PDF

Info

Publication number
DE102021208371A1
DE102021208371A1 DE102021208371.4A DE102021208371A DE102021208371A1 DE 102021208371 A1 DE102021208371 A1 DE 102021208371A1 DE 102021208371 A DE102021208371 A DE 102021208371A DE 102021208371 A1 DE102021208371 A1 DE 102021208371A1
Authority
DE
Germany
Prior art keywords
data
environment perception
sensor
environment
perception
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021208371.4A
Other languages
English (en)
Inventor
Frank Hafner
Mark Schutera
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102021208371.4A priority Critical patent/DE102021208371A1/de
Publication of DE102021208371A1 publication Critical patent/DE102021208371A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • B60W2050/065Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot by reducing the computational load on the digital processor of the control computer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Computerimplementiertes Verfahren zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems (1) umfassend die Schritte: Erhalten von ersten Daten (10) eines ersten Umfeldwahrnehmungssensors (11) in einer ersten Frequenz und analoges Erhalten von zweiten Daten (20) (V1); Prozessieren der ersten Daten (10) mit einem ersten Umfeldwahrnehmungsalgorithmus (12), sobald die ersten Daten (10) jeweils verfügbar sind, und Erhalten von ersten Umfeldmerkmalen (13) und analoges Prozessieren der zweiten Daten (20) (V2); Zwischenspeichern der ersten Umfeldmerkmale (13) zusammen mit Zeitstempeln der jeweiligen ersten Daten (10), aus denen die ersten Umfeldmerkmale (13) erhalten wurden, in einem ersten Zwischenspeicher (14), der jeweils die ersten Umfeldmerkmale (13) einer ersten Anzahl der ersten Daten (10) umfasst, und analoges Zwischenspeichern der zweiten Umfeldmerkmale (23) (V3); Prozessieren eines dritten Umfeldwahrnehmungsalgorithmus (30) in einer dritten Frequenz entkoppelt von der ersten und zweiten Frequenz mit den Daten desjenigen Zwischenspeichers (14, 24), der in dem jeweiligen Ausführungszeitpunkt des dritten Umfeldwahrnehmungsalgorithmus (30) verfügbar ist (V4).

Description

  • Die Erfindung betrifft ein computerimplementiertes Verfahren und ein Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems. Ferner betrifft die Erfindung ein Umfeldwahrnehmungssystem eines Fahrsystems.
  • Sensorfusion ist ein Forschungsgebiet der Robotik, umfassend autonome Fahrsysteme. Die Fusion von Tiefen- und Farbinformationen, beispielsweise aus Lidar-Sensoren und Kamerabildern, wird dabei oft betrachtet.
  • Bekannt sind verschiedene Fusionsverfahren wie Early-, Middle-, und Late-Fusion. Beispielsweise offenbart Xu, Danfei, Dragomir Anguelov, and Ashesh Jain. „Pointfusion: Deep sensor fusion for 3d bounding box estimation.“ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018 ein Verfahren, in dem Informationen aus mehreren Sensoren in einem künstlichen neuronalen Netzwerk verarbeitet werden. Ein Problem dabei ist die Grundannahme, dass Kamera- und Lidar Daten synchronisiert zur Verfügung stehen und folglich die Verarbeitung basierend auf Daten durchgeführt werden kann, die parallel und in gleicher Frequenz aufgenommen werden. Diese Annahme impliziert, dass die Verarbeitung immer auf Basis des Sensors durchgeführt wird, welcher mit einer geringeren Frequenz aufzeichnet. Beispielsweise wurde im KITTI Datensatz, siehe Geiger, Andreas, et al. „Vision meets robotics: The kitti dataset.“ The International Journal of Robotics Research 32.11 (2013): 1231-1237 eine Aufzeichnung der Daten in 10 Hz vorgenommen, entsprechend der Lidar-Rate, obwohl die Kameras eine deutlich höhere Datenfrequenz zulassen würden. Dadurch gehen potenziell wichtige Informationen der Umfeldwahrnehmung, auch Umfeldperzeption genannt, verloren. Darüber hinaus ist die exakte zeitliche Synchronisierung mehrerer Sensoren eine große technische Herausforderung insbesondere in deterministischen Echtzeitsystemen.
  • Alternativ werden in der Praxis Kamera und Lidar mit separaten neuronalen Netzen oder anderen Algorithmen verarbeitet und anschließend mit einem weiteren Algorithmus, künstliches neuronales Netzwerk oder klassischer Algorithmus möglich, kombiniert. Ein Problem dabei ist, dass ein Gradientenfluss zwischen Fusion und Input-Daten hier nicht mehr möglich ist.
  • Existierende Algorithmen zur Sensorfusion von Kamera-Lidar-Daten können entweder nicht end-to-end trainiert werden oder benötigen für Training und Inferenz synchronisierte Daten.
  • Aufgabe der Erfindung war es, eine Sensorfusion mit neuronalen Netzen bereitzustellen, in welcher unterschiedliche Datenfrequenzen möglich sind und welche gleichzeitig end-to-end trainierbar ist.
  • Die Gegenstände der Ansprüche 1, 7 und 8 lösen jeweils diese Aufgabe.
  • Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, der Zeichnung und der Beschreibung bevorzugter Ausführungsbeispiele.
  • Nach einem Aspekt stellt die Erfindung ein computerimplementiertes Verfahren bereit zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems. Das Verfahren umfasst die Schritte
    • • Erhalten von ersten Daten eines ersten Umfeldwahrnehmungssensors in einer ersten Frequenz und Erhalten von zweiten Daten eines zweiten Umfeldwahrnehmungssensors in einer zweiten Frequenz;
    • • Prozessieren der ersten Daten mit einem ersten Umfeldwahrnehmungsalgorithmus, sobald die ersten Daten jeweils verfügbar sind, und Erhalten von ersten Umfeldmerkmalen und Prozessieren der zweiten Daten mit einem zweiten Umfeldwahrnehmungsalgorithmus, sobald die zweiten Daten jeweils verfügbar sind, und Erhalten von zweiten Umfeldmerkmalen;
    • • Zwischenspeichern der ersten Umfeldmerkmale zusammen mit Zeitstempeln der jeweiligen ersten Daten, aus denen die ersten Umfeldmerkmale erhalten wurden, in einem ersten Zwischenspeicher, der jeweils die ersten Umfeldmerkmale einer ersten Anzahl der ersten Daten umfasst, und Zwischenspeichern der zweiten Umfeldmerkmale zusammen mit Zeitstempeln der jeweiligen zweiten Daten, aus denen die zweiten Umfeldmerkmale erhalten wurden, in einem zweiten Zwischenspeicher, der jeweils die zweiten Umfeldmerkmale einer zweiten Anzahl der zweiten Daten umfasst;
    • • Prozessieren eines dritten Umfeldwahrnehmungsalgorithmus in einer dritten Frequenz entkoppelt von der ersten und zweiten Frequenz mit den Daten desjenigen Zwischenspeichers, der in dem jeweiligen Ausführungszeitpunkt des dritten Umfeldwahrnehmungsalgorithmus verfügbar ist.
  • Nach einem weiteren Aspekt stellt die Erfindung ein Computerprogramm bereit zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems. Das Computerprogramm umfasst Befehle, die einen Computer veranlassen, die Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn das Computerprogramm von dem Computer ausgeführt wird.
  • Die Befehle des erfindungsgemäßen Computerprogramms umfassen Maschinenbefehle, Quelltext oder Objektcode geschrieben in Assemblersprache, einer objektorientierten Programmiersprache, beispielsweise C++, oder in einer prozeduralen Programmiersprache, beispielsweise C. Das Computerprogramm ist nach einem Aspekt der Erfindung ein Hardware unabhängiges Anwendungsprogramm, das beispielsweise über einen Datenträger oder ein Datenträgersignal, nach einem Aspekt mittels Software Over The Air Technologie, für eine beliebige Hardware bereitgestellt wird, beispielsweise über eine Middleware. Nach einem weiteren Aspekt ist das Computerprogramm ein Hardware abhängiges Programm, beispielsweise eine Firmware eines Steuermoduls eines autonomen Fahrsystems. Der Datenträger umfasst flüchtige Speicher, beispielsweise RAM, DRAM, SRAM, und nichtflüchtige Speicher, beispielsweise ROM, Flash-EEPROM. Die Datenträger sind beispielsweise Flash-Speicherkarten, USB-Sticks. Nach einem Aspekt der Erfindung wird der Datenträger an ein In/Out System eines Fahrsystems, beispielsweise eines Mikrocontrollers, des Fahrsystems angeschlossen und überträgt das Computerprogramm in den Mikrocontroller.
  • Durch Ausführung des Verfahrens, des Computerprogramms, Einlesen des Datenträgers und/oder Übertragen, Empfangen und Verarbeiten des Datenträgersignals wird eine End-To-End trainierbare Sensorfusion ohne Sensorsynchronisation realisiert.
  • Nach einem weiteren Aspekt stellt die Erfindung ein Umfeldwahrnehmungssystem eines Fahrsystems bereit. Das Umfeldwahrnehmungssystem umfasst wenigstens einen ersten und einen zweiten Umfeldwahrnehmungssensor und wenigstens eine anwendungsspezifische Hardwareeinheit. Die anwendungsspezifische Hardwareeinheit umfasst wenigstens eine erste Schnittstelle zu dem ersten Umfeldwahrnehmungssensor und eine zweite Schnittstelle zu dem zweiten Umfeldwahrnehmungssensor. Die anwendungsspezifische Hardwareeinheit ist konfiguriert, das erfindungsgemäße und/oder das erfindungsgemäße Computerprogramm auszuführen und ein Umfeld des Fahrsystems aus einer entkoppelten Sensorfusion wahrzunehmen.
  • Fahrsystem bezeichnet die Komponenten und Funktionalitäten eines Fahrzeuges auf Systemebene als auch das Fahrzeug als solches. Nach einem Aspekt ist das Fahrsystem ein autonomes Fahrsystem. Autonomes Fahrsystem bezeichnet die Komponenten und Funktionalitäten eines autonom betreibbaren Fahrzeuges, beispielsweise hoch- oder vollautomatisiert, auf Systemebene als auch das autonom betriebene Fahrzeug als solches. Die Erfindung kann sowohl im manuellen als auch im automatisierten Zustand eingesetzt werden.
  • Das Umfeldwahrnehmungssystem nimmt das Umfeld, die Umgebung, wahr. Basierend auf dieser Wahrnehmung plant das Fahrsystem die Bewegung eines Ego-Fahrzeuges und prädiziert die Bewegungen weiterer Objekte, beispielsweise Fremd-Fahrzeugen. Basierend auf dieser Planung und Prädiktion bestimmt das Fahrsystem Regel- und/oder Steuersignale für Aktuatoren des Ego-Fahrzeuges zur Längs- und oder Querführung. Das Umfeldwahrnehmungssystem kann statische und/oder dynamische Objekte erkennen, klassifizieren, lokalisieren und/oder diese über die Zeit verfolgen, auch tracking genannt. Das Umfeldwahrnehmungssystem umfasst Software- und Hardwaremodule. Die Softwaremodule umfassen Umfeldwahrnehmungsalgorithmen umfassend Erkennungs-, Klassifizierungs-, Lokalisierungs- und/oder Trackingalgorithmen für einzelne Umfelderfassungssensoren und/oder für Datenfusion. Die Algorithmen umfassen nach einem Aspekt Maschinenlernmodelle, beispielsweise künstliche neuronale Netzwerke für Objekterkennung, beispielsweise Faltungsnetzwerke oder Transformernetzwerke. Die Hardwaremodule umfassen Umfelderfassungssensoren, beispielsweise Kamera-, Lidar-, Radar-, Ultraschall-, Infrarot-, Akustik-, Geruchs-, GPS- und/oder Inertialsensoren, und integrierte Schaltungselemente und Schaltkreise, beispielsweise ICs, ASICs, FPGAs, CPUs, GPUs, systems on chips oder Hochleistungscomputer zur Signalverarbeitung. Die integrierte Schaltungselemente und Schaltkreise, beispielsweise ICs, ASICs, FPGAs, CPUs, GPUs, systems on chips oder Hochleistungscomputer zur Signalverarbeitung bilden die anwendungsspezifische Hardwareeinheit des Umfeldwahrnehmungssystem und die anwendungsspezifische Hardwareeinheit des eingebetteten Systems.
  • Die Größe der Zwischenspeicher, auch Datenbuffer genannt, ist beispielsweise auf die extrahierten Umfeldmerkmale der letzten fünf Sensorinputs festgelegt. Nach einem Aspekt der Erfindung ist der erste Datenbuffer gleich dem zweiten Datenbuffer, das heißt es gibt nur einen Datenbuffer.
  • Die Zeitstempel ermöglichen eine zeitliche Einordnung der Daten für den dritten Umfeldwahrnehmungsalgorithmus.
  • Nach einem Aspekt werden die ersten Daten von einem ersten Umfeldwahrnehmungssensor einer ersten Sensortechnologie und die zweite Daten von einem zweiten Umfeldwahrnehmungssensor einer zweiten, von der ersten verschiedenen Sensortechnologie erhalten werden. Die erste und zweite Sensortechnologie umfassen optische Sensoren, Radarsensoren, Infrarotsensoren, Ultraschallsensoren, Akustiksensoren und Geruchssensoren. Die Sensortechnologien unterscheiden sich unter anderem in der Frequenz, in der Daten aufgenommen werden können. Die Erfindung hat den Vorteil, dass die Daten erhalten mit den unterschiedlichen Sensortechnologien nicht synchronisiert werden müssen. Erfindungsgemäß erfolgt eine entkoppelte Sensorfusion.
  • Nach einem weiteren Aspekt ist der erste Umfeldwahrnehmungssensor ein Kamerasensor und der zweite Umfeldwahrnehmungssensor ein Lidarsensor. Der Kamerasensor erhält beispielsweise 30 Bilder, auch Frames, genannt, pro Sekunde, das heißt nimmt Daten in einer Frequenz von 30 Hz auf. Der Lidarsensor erhält beispielsweise 10 Frames pro Sekunde, das heißt nimmt Daten in einer Frequenz von 10 Hz. Der dritte Umfeldwahrnehmungsalgorithmus prozessiert die Daten beispielsweise mit einer Frequenz von 20 Hz. Mittels der Zwischenspeicher und des dritten Umfeldwahrnehmungsalgorithmus müssen die Daten damit nicht in der Frequenz des Lidarsensors aufgenommen werden, da eine Synchronisation entfällt durch die erfindungsgemäße Entkopplung. Es können mehr Daten der Umfeldwahrnehmung, insbesondere mehr Kameradaten, ausgewertet werden.
  • Nach einem weiteren Aspekt umfassen der erste und/oder der zweite Umfeldwahrnehmungsalgorithmus jeweils Sensor spezifische Maschinenlernalgorithmen, umfassend künstliche neuronale Netzwerke. Für den Fall, dass der erste Umfeldwahrnehmungssensor ein Kamerasensor ist, umfasst der erste Umfeldwahrnehmungsalgorithmus beispielsweise ein vortrainiertes Faltungsnetzwerk, das Pixeldaten einliest und verarbeitet. Für den Fall, dass der zweite Umfeldwahrnehmungssensor ein Lidarsensor ist, umfasst der zweite Umfeldwahrnehmungsalgorithmus beispielsweise ein künstliches neuronales Netzwerk, das Punktewolken einlesen und verarbeiten kann, beispielsweise PointNet. Das jeweilige künstliche neuronale Netzwerk speist die jeweiligen Daten vorwärts sobald die Daten jeweils bereitstehen. Für den ersten und zweiten Umfeldwahrnehmungsalgorithmus können bekannte künstliche neuronale Netzwerke zur Merkmalsextraktion aus den jeweiligen Sensordaten eingesetzt werden.
  • Nach einem weiteren Aspekt umfasst der dritte Umfeldwahrnehmungsalgorithmus einen Maschinenlernalgorithmus, umfassend ein künstliches neuronales Netzwerk. Das künstliche neuronale Netzwerk des dritten Maschinenlernalgorithmus löst die Downstream-Aufgabe und ist in seiner Ausführungsfrequenz entkoppelt von dem ersten und zweiten Umfeldwahrnehmungsalgorithmus.
  • Nach einem weiteren Aspekt wird durch Interpolation zwischen gekennzeichneten ersten und gekennzeichneten zweiten Daten ein gekennzeichnetes Top-View-Umfeldmodell generiert und das Umfeldwahrnehmungssystem wird basierend auf dem Top-View-Umfeldmodell End-To-End trainiert. Eine Herausforderung, welche der erfindungsgemäße entkoppelte Aufbau der Perzeption mit sich bringt, ist dass das Kennzeichnen oder Labelling der Daten nicht mehr wie üblich auf Frame-Basis basieren kann, zum Beispiel 3D Bounding Boxes und/oder Objekte in der Pointcloud. Vielmehr muss die tatsächliche Verkehrssituation gelabelt werden. Die Grundlage hierfür bildet das Top-View Umfeldmodell. Dieses kann beispielsweise durch Interpolation zwischen gelabelten Frames aus Kamera und Lidar generiert werden. Damit wird eine Synchronisation umgangen und gleichzeitig ein End-To-End trainierbarer Umfeldwahrnehmungsalgorithmus, insbesondere ein End-To-End trainierbares künstliches neuronales Netzwerk, bereitgestellt.
  • Die Erfindung wird in dem folgenden Ausführungsbeispiel verdeutlicht. 1 zeigt ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens, das mit einem Ausführungsbeispiel eines Umfeldwahrnehmungssystems 1 durchgeführt wird.
  • Das Umfeldwahrnehmungssystem 1 umfasst wenigstens einen ersten Umfeldwahrnehmungssensors 11, beispielsweise einen Kamerasensor, der erste Daten 10 in einer ersten Frequenz, beispielsweise 30 Frames pro Sekunde, ausgibt. Ferner umfasst das Umfeldwahrnehmungssystem 1 einen zweiten Umfeldwahrnehmungssensor 21, beispielsweise einen Lidarsensor, der zweite Daten 20 in einer zweiten Frequenz, beispielsweise 10 Frames pro Sekunde, ausgibt. In einem Verfahrensschritt V1 werden die ersten Daten 10 und die zweiten Daten 20 erhalten.
  • In einem Verfahrensschritt V2 werden die der ersten Daten 10 mit einem ersten Umfeldwahrnehmungsalgorithmus 12 prozessiert, sobald die ersten Daten 10 jeweils verfügbar sind. Der erste Umfeldwahrnehmungsalgorithmus ist beispielsweise ein künstliches neuronales Netzwerk, das Pixeldaten des Kamerasensors einliest und erste Umfeldmerkmale 13, beispielsweise erkannte Fremd-Fahrzeuge 3 und/oder Spurmarkierungen, extrahiert. Die zweiten Daten 20 werden mit einem zweiten Umfeldwahrnehmungsalgorithmus 22 prozessiert, sobald die zweiten Daten 20 jeweils verfügbar sind. Der zweite Umfeldwahrnehmungsalgorithmus ist beispielsweise ein künstliches neuronales Netzwerk, das Daten in Form von Punktwolken des Lidarsensors einliest und zweite Umfeldmerkmale 14 umfassend Tiefeninformationen extrahiert.
  • In einem Verfahrensschritt V3 werden die ersten Umfeldmerkmale 13 zusammen mit Zeitstempeln in einem ersten Zwischenspeicher 14 zwischengespeichert. Der erste Zwischenspeicher 14 umfasst die ersten Umfeldmerkmale 13 einer ersten Anzahl der ersten Daten 10. Die erste Anzahl ist beispielsweise gleich fünf. Die zweiten Umfeldmerkmale 23 werden zusammen mit Zeitstempeln in einem zweiten Zwischenspeicher 24 zwischengespeichert. Der zweite Zwischenspeicher 24 umfasst die zweiten Umfeldmerkmale 23 einer zweiten Anzahl der zweiten Daten 20. Die zweite Anzahl ist beispielsweise gleich der ersten Anzahl.
  • In einem Verfahrensschritt V4 wird ein dritter Umfeldwahrnehmungsalgorithmus 30 in einer dritten Frequenz, entkoppelt von der ersten und zweiten Frequenz, mit den Daten desjenigen Zwischenspeichers 14, 24 prozessiert, der in dem jeweiligen Ausführungszeitpunkt des dritten Umfeldwahrnehmungsalgorithmus 30 verfügbar ist.
  • Anstatt wie im bekannten Stand der Technik die Daten 10, 20 der unterschiedlichen Sensoren 11, 21 zu synchronisieren und dann gemeinsam zu evaluieren, wird jeweils ein sensorspezifisches Netz 12, 22 evaluiert, sobald Daten 10, 20 eines Sensors 11, 21 verfügbar sind. Die extrahierten Merkmale 13, 23 dieser Netze 12, 22 werden in einem Datenbuffer 14, 24 abgelegt. Die Größe des Datenbuffers 14, 24 muss festgelegt werden und kann beispielsweise die extrahierten Merkmale 13, 23 der letzten fünf Sensorinputs enthalten. Darüber hinaus wird zu jedem Datenbuffer 14, 24 ein Zeitstempel abgelegt, um eine zeitliche Einordnung für das Netz 30.
  • Das neuronale Netz 30 ist entkoppelt von der Datenfrequenz und wird in einem vorher festgelegten, regelmäßigen Intervall, beispielsweise 20 Frames pro Sekunde, evaluiert. Der Input für dieses Netzwerk 30 ist jeweils der zur Evaluationszeit verfügbare Datenbuffer 14, 24 inklusive Zeitstempel.
  • Eine Herausforderung, welche dieser Aufbau der Perzeption mit sich bringt, ist dass das Labelling der Daten nicht mehr wie üblich auf Frame-Basis basieren kann, beispielsweise 3D Bounding Boxes und/oder Objekte in der Pointcloud. Vielmehr muss die tatsächliche Verkehrssituation gelabelt werden, siehe Top-View-Umfeldmodell 31 umfassend ein Ego-Fahrzeug 2 und drei Fremd-Fahrzeuge 3. Die Objekte werden in dem Top-View-Umfeldmodell 31 entsprechend als Ego-Fahrtzeug 2 und Fremd-Fahrzeug 3 gelabelt. Damit wird eine Entkopplung von Ausführungszeitpunkten der verschiedenen Netze 12, 22 erreicht und damit eine Synchronisation der Daten 10, 20 umgangen. Gleichzeitig bleibt das Netzwerk 12, 22, 30 End-To-End trainierbar.
  • Bezugszeichenliste
  • 1
    Umfeldwahrnehmungssystem
    2
    Ego-Fahrzeug
    3
    Fremd-Fahrzeug
    10
    erste Daten
    11
    erster Umfeldwahrnehmungssensor
    12
    erster Umfeldwahrnehmungsalgorithmus
    13
    erste Umfeldmerkmale
    14
    erster Zwischenspeicher
    20
    zweite Daten
    21
    zweiter Umfeldwahrnehmungssensor
    22
    zweiter Umfeldwahrnehmungsalgorithmus
    23
    zweite Umfeldmerkmale
    24
    zweiter Zwischenspeicher
    30
    dritte Umfeldwahrnehmungsalgorithmus
    31
    Top-View-Umfeldmodell
    V1-V4
    Verfahrensschritte

Claims (8)

  1. Computerimplementiertes Verfahren zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems (1) umfassend die Schritte • Erhalten von ersten Daten (10) eines ersten Umfeldwahrnehmungssensors (11) in einer ersten Frequenz und Erhalten von zweiten Daten (20) eines zweiten Umfeldwahrnehmungssensors (21) in einer zweiten Frequenz (V1); • Prozessieren der ersten Daten (10) mit einem ersten Umfeldwahrnehmungsalgorithmus (12), sobald die ersten Daten (10) jeweils verfügbar sind, und Erhalten von ersten Umfeldmerkmalen (13) und Prozessieren der zweiten Daten (20) mit einem zweiten Umfeldwahrnehmungsalgorithmus (22), sobald die zweiten Daten (20) jeweils verfügbar sind, und Erhalten von zweiten Umfeldmerkmalen (23) (V2); • Zwischenspeichern der ersten Umfeldmerkmale (13) zusammen mit Zeitstempeln der jeweiligen ersten Daten (10), aus denen die ersten Umfeldmerkmale (13) erhalten wurden, in einem ersten Zwischenspeicher (14), der jeweils die ersten Umfeldmerkmale (13) einer ersten Anzahl der ersten Daten (10) umfasst, und Zwischenspeichern der zweiten Umfeldmerkmale (23) zusammen mit Zeitstempeln der jeweiligen zweiten Daten (20), aus denen die zweiten Umfeldmerkmale (23) erhalten wurden, in einem zweiten Zwischenspeicher (24), der jeweils die zweiten Umfeldmerkmale (23) einer zweiten Anzahl der zweiten Daten (20) umfasst (V3); • Prozessieren eines dritten Umfeldwahrnehmungsalgorithmus (30) in einer dritten Frequenz entkoppelt von der ersten und zweiten Frequenz mit den Daten desjenigen Zwischenspeichers (14, 24), der in dem jeweiligen Ausführungszeitpunkt des dritten Umfeldwahrnehmungsalgorithmus (30) verfügbar ist (V4).
  2. Verfahren nach Anspruch 1, wobei die ersten Daten (10) von einem ersten Umfeldwahrnehmungssensor (11) einer ersten Sensortechnologie und die zweite Daten (20) von einem zweiten Umfeldwahrnehmungssensor (21) einer zweiten, von der ersten verschiedenen Sensortechnologie erhalten werden.
  3. Verfahren nach einem der vorangehenden Ansprüche, wobei der erste Umfeldwahrnehmungssensor (11) ein Kamerasensor und der zweite Umfeldwahrnehmungssensor (21) ein Lidarsensor ist.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei der erste und/oder der zweite Umfeldwahrnehmungsalgorithmus (12, 22) jeweils Sensor spezifische Maschinenlernalgorithmen, umfassend künstliche neuronale Netzwerke, umfassen.
  5. Verfahren nach einem der vorangehenden Ansprüche, wobei der dritte Umfeldwahrnehmungsalgorithmus (30) einen Maschinenlernalgorithmus, umfassend ein künstliches neuronales Netzwerk, umfasst.
  6. Verfahren nach einem der vorangehenden Ansprüche, wobei durch Interpolation zwischen gekennzeichneten ersten und gekennzeichneten zweiten Daten (10, 20) ein gekennzeichnetes Top-View-Umfeldmodell (31) generiert wird und das Umfeldwahrnehmungssystem (1) basierend auf dem Top-View-Umfeldmodell End-To-End trainiert wird.
  7. Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems (1) umfassend Befehle, die einen Computer veranlassen, die Schritte des Verfahrens nach einem der vorangehenden Ansprüchen auszuführen, wenn das Computerprogramm von dem Computer ausgeführt wird.
  8. Umfeldwahrnehmungssystem (1) eines Fahrsystems umfassend wenigstens einen ersten und einen zweiten Umfeldwahrnehmungssensor (11, 21) und wenigstens eine anwendungsspezifische Hardwareeinheit umfassend wenigstens eine erste Schnittstelle zu dem ersten Umfeldwahrnehmungssensor (11) und eine zweite Schnittstelle zu dem zweiten Umfeldwahrnehmungssensor (21), wobei die anwendungsspezifische Hardwareeinheit konfiguriert ist, das Verfahren nach einem der Ansprüche 1 bis 6 und/oder das Computerprogramm nach Anspruch 7 auszuführen und ein Umfeld des Fahrsystems aus einer entkoppelten Sensorfusion wahrzunehmen.
DE102021208371.4A 2021-08-03 2021-08-03 Computerimplementiertes Verfahren und Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems und Umfeldwahrnehmungssystem eines Fahrsystems Pending DE102021208371A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021208371.4A DE102021208371A1 (de) 2021-08-03 2021-08-03 Computerimplementiertes Verfahren und Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems und Umfeldwahrnehmungssystem eines Fahrsystems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021208371.4A DE102021208371A1 (de) 2021-08-03 2021-08-03 Computerimplementiertes Verfahren und Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems und Umfeldwahrnehmungssystem eines Fahrsystems

Publications (1)

Publication Number Publication Date
DE102021208371A1 true DE102021208371A1 (de) 2023-02-09

Family

ID=84975300

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021208371.4A Pending DE102021208371A1 (de) 2021-08-03 2021-08-03 Computerimplementiertes Verfahren und Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems und Umfeldwahrnehmungssystem eines Fahrsystems

Country Status (1)

Country Link
DE (1) DE102021208371A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018106353A1 (de) 2017-03-20 2018-09-20 GM Global Technology Operations LLC Vorübergehende datenzuordnungen zum betreiben von autonomen fahrzeugen
US10627512B1 (en) 2018-11-29 2020-04-21 Luminar Technologies, Inc. Early fusion of lidar return data with camera information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018106353A1 (de) 2017-03-20 2018-09-20 GM Global Technology Operations LLC Vorübergehende datenzuordnungen zum betreiben von autonomen fahrzeugen
US10627512B1 (en) 2018-11-29 2020-04-21 Luminar Technologies, Inc. Early fusion of lidar return data with camera information

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GEIGER, A. ; LENZ, P. ; URTASUN, R.: Vision meets robotics: The KITTI dataset. In: The International Journal of Robotics Research, Bd. 32, 2013, H. 11, S. 1231-1237. - ISSN 1741-3176 (E); 0278-3649 (P). DOI: 10.1177/0278364913491297. URL: https://journals.sagepub.com/doi/pdf/10.1177/0278364913491297 [abgerufen am 2021-10-08].
XU, Danfei ; ANGUELOV, Dragomir ; JAIN, Ashesh: PointFusion: Deep sensor fusion for 3D bounding box estimation. In: IEEE: Conference on Computer Vision and Pattern Recognition - 18-23 June 2018 - Salt Lake City, UT, USA, 2018, S. 244-253. - ISBN 978-1-5386-6421-6 (P); 978-1-5386-6420-9 (E). DOI: 10.1109/CVPR.2018.00033. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8578131 [abgerufen am 2021-10-08].

Similar Documents

Publication Publication Date Title
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
DE102018117660A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE102018219984B3 (de) Verfahren und System zum Unterstützen eines automatisiert fahrenden Fahrzeugs
DE112020001103T5 (de) Multitasking-Wahrnehmungsnetzwerk mit Anwendungen für ein Szenenverständnis und ein fortschrittliches Fahrerassistenzsystem
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
WO2018215031A1 (de) Verfahren zur erkennung von objekten in einem bild einer kamera
AT521647B1 (de) Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten
DE102019209560A1 (de) Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks
DE102021002798A1 (de) Verfahren zur kamerabasierten Umgebungserfassung
DE102021203440A1 (de) Computerimplementiertes Verfahren, Computerprogramm und Anordnung zum Vorhersagen und Planen von Trajektorien
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
EP2381207B1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
DE112018005749T5 (de) Fahrbahnmarkierungsbestimmungsvorrichtung zum automatisierten Fahren
DE102021208371A1 (de) Computerimplementiertes Verfahren und Computerprogramm zum Entkoppeln von Ausführzeitpunkten von Datenverarbeitungsprozessen eines Umfeldwahrnehmungssystems und Umfeldwahrnehmungssystem eines Fahrsystems
DE102019220335A1 (de) Semantische segmentierung unter verwendung von fahreraufmerksamkeitsinformationen
DE102018132627A1 (de) Verfahren zum Erfassen einer Umgebung eines Kraftfahrzeugs mittels zeitlicher Fusion von Bildern durch ein künstliches neuronales Netz; Steuereinheit, Fahrerassistenzsystem; Computerprogrammprodukt
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102022202548B3 (de) Verfahren zum Trainieren eines Computerprogrammprodukts
DE102021200643B3 (de) Verfahren zur Umfelderkennung für teilautonome oder autonome Fahrfunktionen eines Kraftfahrzeugs mittels eines neuronalen Netzes
DE102021202933A1 (de) Verfolgung mehrerer Objekte in Zusammenarbeit mehrerer neuronaler Netzwerke
DE102018201909A1 (de) Verfahren und Vorrichtung zur Objekterkennung
DE102017215505A1 (de) Verfahren und Vorrichtung zum Prognostizieren einer baustellenbedingten Fahrstreckenänderung einer Fahrstrecke für ein Fahrzeug
DE102020200875A1 (de) Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs
DE102018221625A1 (de) Transfer von Zusatzinformation zwischen Kamerasystemen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed