DE102022118631A1 - Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) - Google Patents

Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) Download PDF

Info

Publication number
DE102022118631A1
DE102022118631A1 DE102022118631.8A DE102022118631A DE102022118631A1 DE 102022118631 A1 DE102022118631 A1 DE 102022118631A1 DE 102022118631 A DE102022118631 A DE 102022118631A DE 102022118631 A1 DE102022118631 A1 DE 102022118631A1
Authority
DE
Germany
Prior art keywords
sensors
adas
module
ads
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022118631.8A
Other languages
German (de)
Inventor
David Hermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102022118631.8A priority Critical patent/DE102022118631A1/en
Publication of DE102022118631A1 publication Critical patent/DE102022118631A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft Verfahren zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien, wobei ein Szenario ein Verkehrsgeschehen in einer zeitlichen Sequenz darstellt, umfassend:- Erfassen von realen Sensordaten (250) einer Umgebung eines sich bewegenden Objekts (10) mittels Sensoren (22) einer Sensoreinrichtung (20) des sich bewegenden Objekts (10);- Generieren zumindest eines Szenarios aus den realen Sensordaten (250);- Festlegen einer bestimmten Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren (22);- Generieren einer Simulationsumgebung (340), wobei die Simulationsumgebung (340) zumindest das generierte Szenario, ein virtuelles Modell des Objekts (10) und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) umfasst;- Simulieren von virtuellen Sensordaten (350) für die generierte Simulationsumgebung (340);- Übermitteln der virtuellen Sensordaten (350) an ein ADAS/ADS-Modul (30) des sich bewegenden Objekts (10);- Validieren, Testen und/oder Trainieren von zumindest einer Funktion des ADAS/ADS-Systems.The invention relates to methods for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a variety of scenarios, wherein a scenario represents a traffic situation in a temporal sequence, comprising: - Acquiring real sensor data (250) of an environment moving object (10) by means of sensors (22) of a sensor device (20) of the moving object (10); - generating at least one scenario from the real sensor data (250); - determining a specific configuration of a parameterizable virtual model of the sensor device (20 ) by selecting parameters such as the number, the sensor types and the installation positions of the sensors (22); - Generating a simulation environment (340), the simulation environment (340) containing at least the generated scenario, a virtual model of the object (10) and the specified Configuration of the parameterizable virtual model of the sensor device (20) includes; - simulating virtual sensor data (350) for the generated simulation environment (340); - transmitting the virtual sensor data (350) to an ADAS/ADS module (30) of the moving object (10);- Validating, testing and/or training at least one function of the ADAS/ADS system.

Description

Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS).The invention relates to a method, a system and a computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS).

Moderne Fahrzeuge sind mit einer Vielzahl von Fahrassistenzsystemen bzw. automatisierten Fahrassistenzfunktionen ausgestattet, um den Fahrer beim Fahren zu unterstützen und seine Sicherheit zu erhöhen. Fahrassistenzsysteme unterstützen beispielsweise die Geschwindigkeits- und Abstandsregelung sowie Spurhalte- und Spurwechselfunktionen. Hierbei kann eine bestimmte maximale Geschwindigkeit eingestellt werden, die nicht überschritten wird, solange die Geschwindigkeitsbegrenzungsfunktion aktiviert ist. Für die Abstandsregelung, bei der ein bestimmter Abstand insbesondere zu einem vorausfahrenden Fahrzeug eingestellt wird, werden Radar, aber auch Kamerasysteme eingesetzt. Hierdurch kann der Abstand zu vorausfahrenden Fahrzeugen, aber auch zu Fahrzeugen im Seitenbereich überwacht werden. Dies führt zu einem verbesserten Fahrkomfort und einer höheren Sicherheit insbesondere bei Fahrten auf der Autobahn und bei Überholmanövern.Modern vehicles are equipped with a variety of driving assistance systems or automated driving assistance functions to support the driver while driving and increase his safety. Driving assistance systems support, for example, speed and distance control as well as lane keeping and lane changing functions. A specific maximum speed can be set, which will not be exceeded as long as the speed limit function is activated. Radar and camera systems are used for distance control, in which a certain distance is set, especially to a vehicle in front. This allows the distance to vehicles in front, but also to vehicles in the side area, to be monitored. This leads to improved driving comfort and greater safety, especially when driving on the motorway and during overtaking maneuvers.

Dieser Trend zu Fahrerassistenzsystemen (engl. Advanced Driver Assistance System, ADAS) und automatisierten Fahrsystemen (Automated Driving Systems, ADS) bei Kraftfahrzeugen, aber auch bei Luftfahrzeugen oder Wasserfahrzeugen erfordert jedoch umfangreiche Absicherungsstrategien, da die Verantwortung über die Fahrzeugführung nicht mehr uneingeschränkt beim Fahrer liegt, sondern aktive Funktionen von Rechnereinheiten im Fahrzeug übernommen werden. Daher muss sichergestellt werden, dass autonom sich bewegende Objekte eine sehr geringere Fehlerrate beim Fahrverhalten aufweisen. Die Erkennung und Klassifizierung von Objekten und die Interpretation von Verkehrsszenarien im Umfeld eines Fahrzeugs sind wichtige Voraussetzungen für eine sichere Funktionsfähigkeit von ADAS/ADS-Systemen. Hierfür ist das gezielte Testen und Trainieren der Fahrerassistenzsysteme und automatisierten Fahrsysteme sowohl mit Extrem- und Ausnahmesituationen (engl. Corner-Cases) als auch mit alltäglichen Situationen erforderlich.However, this trend towards driver assistance systems (Advanced Driver Assistance System, ADAS) and automated driving systems (ADS) in motor vehicles, but also in aircraft or watercraft, requires extensive security strategies, since responsibility for driving the vehicle no longer lies entirely with the driver , but active functions are taken over by computer units in the vehicle. Therefore, it must be ensured that autonomously moving objects have a very low error rate in driving behavior. The detection and classification of objects and the interpretation of traffic scenarios in the area around a vehicle are important prerequisites for the safe functionality of ADAS/ADS systems. This requires targeted testing and training of driver assistance systems and automated driving systems both in extreme and exceptional situations (corner cases) as well as in everyday situations.

Mit der zunehmenden Leistungsfähigkeit von ADAS/ADS-Systemen steigt auch die Anzahl der Fahrszenarien, die von den Systemen im Straßenverkehr bewältigt werden müssen. Für die Sicherstellung eines sicheren, komfortablen und effizienten Verhaltens von ADAS/ADS-Systemen durchlaufen daher einzelne Funktionen und das Gesamtsystem während der Fahrzeugentwicklung einen Validierungsprozess.As the performance of ADAS/ADS systems increases, the number of driving scenarios that the systems have to handle in road traffic also increases. To ensure safe, comfortable and efficient behavior of ADAS/ADS systems, individual functions and the entire system go through a validation process during vehicle development.

Allerdings stellt eine solche Validierung eine große Herausforderung bei der Integration moderner ADAS/ADS-Systemen in ein Fahrzeug dar aufgrund eines funktionalen Spezifikationsdefizits von Fahrassistenzsystemen. Während in der Automobilindustrie für konventionelle Systeme ein anforderungsbasierter Testprozess etabliert ist, bei dem Testfälle anhand von Testspezifikationen implementiert werden, fehlt dies bisher für ADAS/ADA-Systeme, da im Gegensatz zu konventionellen Systemen eine wesentlich größere Anzahl von Einflussgrößen zu berücksichtigen ist, wie insbesondere die Fahrumgebung, die mittels Sensoren erfasst wird.However, such validation represents a major challenge when integrating modern ADAS/ADS systems into a vehicle due to a functional specification deficit of driving assistance systems. While a requirements-based test process has been established for conventional systems in the automotive industry, in which test cases are implemented based on test specifications, this is currently missing for ADAS/ADA systems because, in contrast to conventional systems, a significantly larger number of influencing variables have to be taken into account, such as in particular the driving environment, which is recorded using sensors.

Aufgrund der Herausforderungen bei der Validierung von ADAS/ADS-Systemen werden neben den bekannten Methoden daher neue Ansätze benötigt, um den Fahrzeugentwicklungsprozess mit vertretbarem Aufwand und Kosten durchzuführen. Es ist daher erstrebenswert, zunehmend virtuelle Verfahren zur Simulation der Validierung von ADAS/ADS-Systemen zu verwenden und diese virtuelle Simulationsverfahren in einer Weise zu gestalten, dass eine objektive Vergleichbarkeit von verschiedenen ADAS/ADS-Systemen mit sich unterscheidenden Funktionalitäten hinsichtlich der Leistungsfähigkeit und Sicherheit möglich ist. Mittels Datensimulationen kann beispielsweise ein Autobahnabschnitt in der realen Welt simuliert werden, der für das Training datengetriebener KI-Modelle eignet ist. Außerdem kann bei den durch Simulation erzeugten Daten automatisch eine Datenannotation vorgenommen werden.Due to the challenges in validating ADAS/ADS systems, new approaches are required in addition to the known methods in order to carry out the vehicle development process with reasonable effort and costs. It is therefore desirable to increasingly use virtual methods to simulate the validation of ADAS/ADS systems and to design these virtual simulation methods in a way that enables objective comparability of different ADAS/ADS systems with different functionalities in terms of performance and safety is possible. Data simulations can be used, for example, to simulate a section of highway in the real world that is suitable for training data-driven AI models. In addition, data annotation can be automatically carried out on the data generated by simulation.

Für die Entwicklung und Funktionsfähigkeit von ADAS/ADS-Systemen spielt die Sensorik des sich bewegenden Objekts bzw. des Fahrzeugs zur Wahrnehmung seiner Umgebung eine entscheidende Rolle. Allerdings sind in der frühen Entwicklungsphase eines ADAS/ADS-Systems beispielsweise für ein Fahrzeugmodell die zu verwendenden Sensortypen sowie deren Sensorpositionierung am Fahrzeug noch nicht festgelegt oder nur mit einem hohen Toleranzwert bestimmt. Bestehende Sensorsysteme für andere Fahrzeugmodelle können zwar verwendet werden, sind allerdings nur eingeschränkt für eine Validierung eines ADAS/ADS-Systems für ein neues Fahrzeugmodell nutzbar, beispielsweise aufgrund des vom Sensortyp und der Einbauposition des Sensors abhängigen Blickfeldes (engl. field of view). Zudem ist die Anbringung, die Justierung und die Verkabelung eines Sensorsystems an einem Testfahrzeug mit einem hohen Aufwand verbunden. Des Weiteren ist neben einer virtuellen Simulation von Sensorsets in Verbindung mit ADAS/ADS-Systemen eine Bewertung durch einen realen Fahrer insbesondere bezogen auf das längs- und querdynamische Fahrverhalten eines Fahrzeugs erforderlich. Da reale Fahrmanöver mit einem Fahrer zeit- und kostenintensiv sind, ist es erstrebenswert, diese Fahrmanöver mit einem Fahrzeug durchzuführen, das bereits über eine optimale Sensorik für das zu testende ADAS/ADS-System verfügt.The sensors of the moving object or vehicle to perceive its surroundings play a crucial role in the development and functionality of ADAS/ADS systems. However, in the early development phase of an ADAS/ADS system, for example for a vehicle model, the sensor types to be used and their sensor positioning on the vehicle have not yet been determined or are only determined with a high tolerance value. Existing sensor systems for other vehicle models can be used, but their use is limited for validating an ADAS/ADS system for a new vehicle model, for example due to the field of view depending on the sensor type and the installation position of the sensor. In addition, attaching, adjusting and wiring a sensor system to a test vehicle requires a lot of effort. Furthermore, in addition to a virtual simulation of sensor sets in conjunction with ADAS/ADS systems, an evaluation by a real driver is required, particularly with regard to the longitudinal and lateral dynamic driving behavior of a vehicle. Since real driving maneuvers with a driver are time-consuming and cost-intensive, it is desirable to do this driving maneuvers with a vehicle that already has optimal sensors for the ADAS/ADS system being tested.

Die US 2021/0350046 A1 offenbart ein Verfahren zum Testen von multimodalen Transportdiensten, beispielsweise ein Luftfahrzeug oder ein Bodenfahrzeug, mittels Simulationen. Das System ermittelt Szenariodaten einschließlich einer Szenariodefinition und erzeugt eine Simulationsumgebung auf der Grundlage der Szenariodaten.The US 2021/0350046 A1 discloses a method for testing multimodal transport services, for example an aircraft or a ground vehicle, using simulations. The system determines scenario data, including a scenario definition, and creates a simulation environment based on the scenario data.

Die DE 102020/202650 A1 offenbart ein Verfahren zur Routenberechnung für ein autonomes Kraftfahrzeug, wobei eine Simulationsumgebung bereitgestellt wird, die Kartendaten eines realen Einsatzgebietes aufweist.The DE 102020/202650 A1 discloses a method for route calculation for an autonomous motor vehicle, wherein a simulation environment is provided that has map data of a real area of operation.

Die DE 102021/100696 A1 offenbart ein Verfahren zum Sammeln und zur Analyse von Echtzeit-Streaming-Rohsignaldaten von einer Flotte verbundener Kraftfahrzeuge mit Sensorsystemen im Rahmen eines Crowdsourcings. Hierdurch kann beispielsweise die Sensorfähigkeiten des Sensorsystems ergänzt oder eine gezielte Verwendung von einem oder mehreren Sensoren bei einem einzelnen Fahrzeug vorgesehen werden.The DE 102021/100696 A1 discloses a method for crowdsourcing and analyzing real-time streaming raw signal data from a fleet of connected motor vehicles with sensor systems. This can, for example, supplement the sensor capabilities of the sensor system or provide for the targeted use of one or more sensors in a single vehicle.

Die DE 112020/000413 T5 offenbart ein Verfahren zur Erkennung von Orientierungspunkten in einer Umgebung für autonomes Fahren. Hierbei können zum Trainieren einer künstlichen Intelligenz simulierte virtuelle Umgebungssensordaten verwendet werden.The DE 112020/000413 T5 discloses a method for recognizing landmarks in an autonomous driving environment. Simulated virtual environmental sensor data can be used to train an artificial intelligence.

Die US 2020/0209858 A1 offenbart ein Verfahren zur Erzeugung von Umgebungsparametern mittels eines Modells mit Algorithmen der künstlichen Intelligenz (KI). Das KI-Modell kann mit realen und/oder virtuellen Umgebungssensordaten trainiert werden.The US 2020/0209858 A1 discloses a method for generating environmental parameters using a model with artificial intelligence (AI) algorithms. The AI model can be trained with real and/or virtual environmental sensor data.

Eine Aufgabe der vorliegenden Erfindung besteht daher darin, Möglichkeiten zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) anzugeben, so dass der Validierungsprozess weniger Zeit benötigt und mit einer verbesserten Effizienz durchgeführt werden kann, um die Sicherheit von ADAS/ADS-Systemen zu erhöhen und Ressourcen sowie Kosten einsparen zu können.An object of the present invention is therefore to provide options for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) so that the validation process requires less time and can be carried out with improved efficiency in order to ensure the safety of ADAS/ ADS systems and to be able to save resources and costs.

Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 11, und hinsichtlich eines Computerprogrammprodukt durch die Merkmale des Patentanspruchs 15 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.This object is achieved according to the invention with regard to a method by the features of patent claim 1, with regard to a system by the features of patent claim 11, and with regard to a computer program product by the features of patent claim 15. The further claims relate to preferred embodiments of the invention.

Gemäß einem ersten Aspekt betrifft die Erfindung ein Verfahren zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien, wobei ein Szenario ein Verkehrsgeschehen in einer zeitlichen Sequenz darstellt, umfassend:

  • - Erfassen von realen Sensordaten einer Umgebung eines sich bewegenden Objekts mittels Sensoren einer Sensoreinrichtung des sich bewegenden Objekts;
  • - Übermitteln der realen Sensordaten an ein Szenarienmodul;
  • - Generieren zumindest eines Szenarios aus den realen Sensordaten für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts mittels einer Softwareapplikation des Szenarienmoduls;
  • - Übermitteln des generierten Szenarios an ein Simulationsmodul;
  • - Festlegen einer bestimmten Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren;
  • - Generieren einer Simulationsumgebung, wobei die Simulationsumgebung zumindest das generierte Szenario, ein virtuelles Modell des Objekts und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung umfasst;
  • - Simulieren von virtuellen Sensordaten für die generierte Simulationsumgebung;
  • - Übermitteln der virtuellen Sensordaten an ein ADAS/ADS-Modul des sich bewegenden Objekts, wobei das ADAS/ADS-Modul zumindest ein ADAS/ADS-System umfasst;
  • - Validieren, Testen und/oder Trainieren von zumindest einer Funktion des ADAS/ADS-Systems.
According to a first aspect, the invention relates to a method for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a plurality of scenarios, wherein a scenario represents a traffic event in a temporal sequence, comprising:
  • - Acquiring real sensor data of an environment of a moving object using sensors of a sensor device of the moving object;
  • - Transmitting the real sensor data to a scenario module;
  • - Generating at least one scenario from the real sensor data for traffic events in the area surrounding the moving object using a software application of the scenario module;
  • - Transmitting the generated scenario to a simulation module;
  • - Determining a specific configuration of a parameterizable virtual model of the sensor device by selecting parameters such as the number, the sensor types and the installation positions of the sensors;
  • - Generating a simulation environment, the simulation environment comprising at least the generated scenario, a virtual model of the object and the specified configuration of the parameterizable virtual model of the sensor device;
  • - Simulating virtual sensor data for the generated simulation environment;
  • - transmitting the virtual sensor data to an ADAS/ADS module of the moving object, the ADAS/ADS module comprising at least one ADAS/ADS system;
  • - Validate, test and/or train at least one function of the ADAS/ADS system.

In einer Weiterentwicklung ist vorgesehen, das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems bezogen auf die virtuellen Sensordaten durch Sensoren wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren zu messen und die Messdaten der Sensoren an ein Bewertungsmodul weiterzugeben.In a further development, it is planned to measure the behavior of the respective function of the ADAS/ADS system in relation to the virtual sensor data using sensors such as, in particular, acceleration sensors, speed sensors, capacitive sensors, inductive sensors, speed sensors, torque sensors, voltage sensors and to transmit the measurement data from the sensors Pass on the evaluation module.

In einer vorteilhaften Ausführungsform ist vorgesehen, dass das Bewertungsmodul eine Softwareapplikation umfasst, die aus den Messdaten Testergebnisse ableitet und diese bewertet.In an advantageous embodiment it is provided that the evaluation module includes a software application that derives test results from the measurement data and evaluates them.

In einer weiteren Ausführungsform ist vorgesehen, dass die Softwareapplikation Optimierungsalgorithmen umfasst, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung eine optimale Konfiguration der Sensoreinrichtung für eine hohe Anzahl an Szenarien berechnet werden kann.In a further embodiment, it is provided that the software application includes optimization algorithms with which an optimal configuration of the sensor device for a large number of scenarios can be calculated from the test results for the various configurations of the sensor device.

Insbesondere ist vorgesehen, dass die Sensoren der Sensoreinrichtung ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich und/oder im IR-Bereich und/oder im UV-Bereich, und/oder GPS-Systeme umfassen.In particular, it is provided that the sensors of the sensor device include one or more radar systems with one or more radar sensors, one or more LIDAR systems for optical distance and speed measurement, one or more image-recording 2D/3D cameras in the visible range and/or in the IR Range and/or in the UV range, and/or GPS systems.

Vorteilhafterweise umfasst die Softwareapplikation des Szenarienmoduls Algorithmen der Künstlichen Intelligenz und des Maschinenlernens, insbesondere Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV), zur Generierung von Szenarien aus den aufgenommenen realen Sensordaten.Advantageously, the software application of the scenario module includes algorithms of artificial intelligence and machine learning, in particular deep learning with, for example, at least one convolutional neural network and/or at least one reinforcement learning agent (LV) for generation of scenarios from the recorded real sensor data.

In einer weiteren Ausführungsform ist vorgesehen, dass die Softwareapplikation des Simulationsmoduls Algorithmen der Künstlichen Intelligenz und des Maschinenlernens, insbesondere Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV), zur Generierung der Simulationsumgebung und der virtuellen Sensordaten umfasst.In a further embodiment it is provided that the software application of the simulation module uses algorithms of artificial intelligence and machine learning, in particular deep learning with, for example, at least one convolutional neural network and/or at least one reinforcement learning agent , LV), for generating the simulation environment and the virtual sensor data.

In einer Weiterentwicklung ist vorgesehen, dass das virtuelle Modell des Objekts und/oder das parametrisierbare virtuelle Modell der Sensoreinrichtung als digitaler Zwilling ausgebildet ist/sind.In a further development it is provided that the virtual model of the object and/or the parameterizable virtual model of the sensor device is/are designed as a digital twin.

Insbesondere sind das Szenarienmodul und das Simulationsmodul in einer Cloud-Computing-Infrastruktur integriert.In particular, the scenario module and the simulation module are integrated in a cloud computing infrastructure.

Vorteilhafterweise ist für die Kommunikation der Sensoreinrichtung mit dem Szenarienmodul bzw. der Cloud-Computing-Infrastruktur eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung vorgesehen für eine Datenübermittlung in Echtzeit.Advantageously, a 5G mobile connection or 6G mobile connection is provided for the communication of the sensor device with the scenario module or the cloud computing infrastructure for data transmission in real time.

Gemäß einem zweiten Aspekt stellt die Erfindung ein System zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien bereit. Ein Szenario stellt ein Verkehrsgeschehen in einer zeitlichen Sequenz dar. Das System umfasst ein sich bewegendes Objekt mit einer Sensoreinrichtung und einem ADAS/ADS-Modul, ein Szenarienmodul und ein Simulationsmodul. Die Sensoreinrichtung ist ausgebildet, reale Sensordaten einer Umgebung des sich bewegenden Objekts mittels Sensoren zu erfassen und die realen Sensordaten an das Szenarienmodul zu übermitteln, wobei das Szenarienmodul ausgebildet ist, zumindest ein Szenario aus den realen Sensordaten für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts mittels einer Softwareapplikation zu generieren und das generierte Szenario an ein Simulationsmodul zu übermitteln. Das Simulationsmodul ist ausgebildet, eine bestimmte Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren festzulegen und eine Simulationsumgebung zu generieren, wobei die Simulationsumgebung zumindest das generierte Szenario, ein virtuelles Modell des Objekts und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung umfasst. Des Weiteren ist das Simulationsmodul ausgebildet, virtuelle Sensordaten für die generierte Simulationsumgebung zu simulieren und die virtuellen Sensordaten an das ADAS/ADS-Modul des sich bewegenden Objekts zu übermitteln. Das ADAS/ADS-Modul umfasst zumindest ein ADAS/ADS-System und ist ausgebildet, zumindest eine Funktion des ADAS/ADS-Systems zu validieren, zu testen und/oder zu trainieren.According to a second aspect, the invention provides a system for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a variety of scenarios. A scenario represents a traffic event in a temporal sequence. The system includes a moving object with a sensor device and an ADAS/ADS module, a scenario module and a simulation module. The sensor device is designed to detect real sensor data of an environment of the moving object using sensors and to transmit the real sensor data to the scenario module, wherein the scenario module is designed to contain at least one scenario from the real sensor data for the traffic situation in the area of the moving object to be generated using a software application and to transmit the generated scenario to a simulation module. The simulation module is designed to determine a specific configuration of a parameterizable virtual model of the sensor device by selecting parameters such as the number, the sensor types and the installation positions of the sensors and to generate a simulation environment, the simulation environment containing at least the generated scenario, a virtual model of the object and includes the specified configuration of the parameterizable virtual model of the sensor device. Furthermore, the simulation module is designed to simulate virtual sensor data for the generated simulation environment and to transmit the virtual sensor data to the ADAS/ADS module of the moving object. The ADAS/ADS module includes at least one ADAS/ADS system and is designed to validate, test and/or train at least one function of the ADAS/ADS system.

In einer Weiterentwicklung ist vorgesehen, dass das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems bezogen auf die virtuellen Daten durch Sensoren wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren gemessen wird und die Messdaten der Sensoren an ein Bewertungsmodul weitergegeben werden.In a further development it is provided that the behavior of the respective function of the ADAS/ADS system is measured in relation to the virtual data by sensors such as in particular acceleration sensors, speed sensors, capacitive sensors, inductive sensors, speed sensors, torque sensors, voltage sensors and the measurement data of the sensors passed on to an evaluation module.

In einer vorteilhaften Ausführungsform ist vorgesehen, dass das Bewertungsmodul eine Softwareapplikation umfasst, die aus den Messdaten Testergebnisse ableitet und diese bewertet, wobei die Softwareapplikation Optimierungsalgorithmen umfasst, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung eine optimale Konfiguration der Sensoreinrichtung für eine hohe Anzahl an Szenarien berechnet werden kann.In an advantageous embodiment, it is provided that the evaluation module comprises a software application which derives test results from the measurement data and evaluates them, the software application comprising optimization algorithms with which an optimal configuration of the sensor device for a high number of test results for the different configurations of the sensor device of scenarios can be calculated.

In einer weiteren Ausführungsform ist vorgesehen, dass die Sensoren der Sensoreinrichtung ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich und/oder im IR-Bereich und/oder im UV-Bereich, und/oder GPS-Systeme umfassen.In a further embodiment it is provided that the sensors of the sensor device have one or more radar systems with one or more radar sensors, one or more LIDAR systems for optical distance and speed ness measurement, one or more image-recording 2D/3D cameras in the visible range and/or in the IR range and/or in the UV range, and/or GPS systems.

Gemäß einem dritten Aspekt betrifft die Erfindung ein Computerprogrammprodukt, umfassend einen ausführbaren Programmcode, der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.According to a third aspect, the invention relates to a computer program product comprising an executable program code which, when executed, carries out the method according to the first aspect.

Nachfolgend wird die Erfindung anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert.The invention is explained in more detail below using an exemplary embodiment shown in the drawing.

Dabei zeigt:

  • 1 ein Blockdiagramm zur Erläuterung eines Ausführungsbeispiels eines erfindungsgemäßen Systems;
  • 2 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte eines erfindungsgemäßen Verfahrens;
  • 3 ein Computerprogrammprodukt gemäß einer Ausführungsform des dritten Aspekts der Erfindung.
This shows:
  • 1 a block diagram to explain an exemplary embodiment of a system according to the invention;
  • 2 a flowchart to explain the individual method steps of a method according to the invention;
  • 3 a computer program product according to an embodiment of the third aspect of the invention.

Zusätzliche Merkmale, Aspekte und Vorteile der Erfindung oder ihrer Ausführungsbeispiele werden durch die ausführliche Beschreibung in Verbindung mit den Ansprüchen ersichtlich.Additional features, aspects and advantages of the invention or its embodiments will become apparent from the detailed description taken in conjunction with the claims.

Für das Testen, Trainieren und Validieren von Fahrerassistenzsystemen (ADAS) und automatisierten Fahrsystemen (ADS) werden zunehmend simulierte Verkehrsszenarien, die durch Programmierung erstellt werden, verwendet. Als Szenario wird im Rahmen der Erfindung ein Verkehrsgeschehen in einer zeitlichen Sequenz bezeichnet. Ein Beispiel für ein Szenario ist das Befahren einer Autobahnbrücke, das Abbiegen auf einer Abbiegespur, das Durchfahren eines Tunnels, das Einbiegen in einen Kreisverkehr oder das Halten vor einem Fußgängerübergang.Simulated traffic scenarios created through programming are increasingly being used to test, train and validate driver assistance systems (ADAS) and automated driving systems (ADS). In the context of the invention, a scenario is a traffic event in a temporal sequence. An example of a scenario is driving on a highway bridge, turning in a turning lane, driving through a tunnel, turning into a roundabout or stopping in front of a pedestrian crossing.

Um Fahrerassistenzsysteme (ADAS) und automatisierte Fahrsysteme (ADS) in einem Kraftfahrzeug einsetzen zu können, müssen diese für einen verlässlichen Einsatz validiert werden. Ziel der Validierung ist es, die Zuverlässigkeit und Robustheit eines Fahrerassistenzsystems (ADAS) bzw. eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Verkehrssituationen und Verkehrsszenarien nachzuweisen und anschließend eine Freigabe zu erteilen.In order to be able to use driver assistance systems (ADAS) and automated driving systems (ADS) in a motor vehicle, they must be validated for reliable use. The aim of validation is to demonstrate the reliability and robustness of a driver assistance system (ADAS) or an automated driving system (ADS) for a variety of traffic situations and traffic scenarios and then to grant approval.

1 zeigt ein erfindungsgemäßes System 100 für die Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS). Das System 100 umfasst ein sich bewegendes Objekt 10, das insbesondere als Kraftfahrzeug ausgebildet ist, und mehrere Module, die sowohl integrierte oder zugeordnete Prozessoren und/oder Speichereinheiten umfassen können. Insbesondere kann es sich bei dem sich bewegenden Objekt um ein autonom fahrendes Kraftfahrzeug, ein landwirtschaftliches Fahrzeug wie einen Mähdrescher, einen Roboter in der Produktion oder in Service- und Pflegeeinrichtungen, oder um ein Wasserfahrzeug oder um ein Flugobjekt wie ein Flugzeug oder eine Drohne handeln. 1 shows a system 100 according to the invention for validating a driver assistance system (ADAS) and/or an automated driving system (ADS). The system 100 includes a moving object 10, which is designed in particular as a motor vehicle, and several modules, which can include both integrated or assigned processors and/or memory units. In particular, the moving object can be an autonomous motor vehicle, an agricultural vehicle such as a combine harvester, a robot in production or in service and care facilities, or a watercraft or a flying object such as an airplane or a drone.

Unter einem „Modul“ kann daher im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Beispielsweise ist das Modul speziell dazu eingerichtet, die Programmbefehle derart auszuführen, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren oder zu realisieren.In connection with the invention, a “module” can therefore be understood to mean, for example, a processor and/or a memory unit for storing program instructions. For example, the module is specifically set up to execute the program commands in order to implement or realize the method according to the invention or a step of the method according to the invention.

Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung oder ein leistungsfähiger Computer verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU), einen Mikroprozessor oder einen Mikrocontroller, beispielsweise eine anwendungsspezifische integrierte Schaltung oder einen digitalen Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. Auch kann unter einem Prozessor ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, der Komponente, der Module, oder anderer Aspekte und/oder Teilaspekte der Erfindung realisiert. Außerdem können hochparallele Recheneinheiten und leistungsfähige Grafikmodule vorgesehen sein.In connection with the invention, a “processor” can be understood to mean, for example, a machine or an electronic circuit or a powerful computer. A processor can in particular be a main processor (Central Processing Unit, CPU), a microprocessor or a microcontroller, for example an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc . A processor can also be understood as a virtualized processor, a virtual machine or a soft CPU. For example, it can also be a programmable processor that is equipped with configuration steps for carrying out the said method according to the invention or is configured with configuration steps in such a way that the programmable processor has the features of the method, the component, the modules, or other aspects and/or other aspects according to the invention. or partial aspects of the invention are realized. In addition, highly parallel computing units and powerful graphics modules can be provided.

Unter einer „Speichereinheit“ oder „Speichermodul“ und dergleichen kann im Zusammenhang mit der Erfindung beispielsweise ein flüchtiger Speicher in Form von Arbeitsspeicher (engl. Random-Access Memory, RAM) oder ein dauerhafter Speicher wie eine Festplatte oder ein Datenträger oder z. B. ein wechselbares Speichermodul verstanden werden. Es kann sich bei dem Speichermodul aber auch um eine cloudbasierte Speicherlösung handeln.In connection with the invention, a “memory unit” or “memory module” and the like can, for example, be a volatile memory in the form of random access memory (RAM) or a permanent memory such as a hard drive or a data carrier or, for example. B. a replaceable memory module can be understood. The storage module can also be a cloud-based storage solution.

Das sich bewegende Objekt 10 umfasst eine Sensoreinrichtung 20 mit Sensoren 22, die reale Sensordaten 250 von der Umgebung des Objekts 10 wie Straßenmarkierungen, Fahrzeuge, Personen, Leitplanken, etc. erfassen und an ein Szenarienmodul 200 übermitteln. Neben der Sensoreinrichtung 20 weist das Objekt 10 ein ADAS/ADS-Modul 30 auf, das Softwareapplikationen und Speichereinheiten für ADAS/ADS-Systeme umfasst.The moving object 10 includes a sensor device 20 with sensors 22 that are real Sensor data 250 from the surroundings of the object 10 such as road markings, vehicles, people, guardrails, etc. are recorded and transmitted to a scenario module 200. In addition to the sensor device 20, the object 10 has an ADAS/ADS module 30, which includes software applications and storage units for ADAS/ADS systems.

Unter Sensordaten 250 sind im Zusammenhang mit der Erfindung sowohl Rohdaten als auch bereits aufbereitete Daten aus den Messergebnissen der Sensoren 22 sowie gegebenenfalls weiteren Datenquellen zu verstehen.In connection with the invention, sensor data 250 means both raw data and already processed data from the measurement results of the sensors 22 and, if necessary, other data sources.

Die Sensoren 22 der Sensoreinrichtung 20 können insbesondere ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme (engl.: Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich, aber auch im IR- und UV-Bereich, und/oder GPS-Systeme umfassen.The sensors 22 of the sensor device 20 can in particular have one or more radar systems with one or more radar sensors, one or more LIDAR systems (Light Detection and Ranging) for optical distance and speed measurement, one or more image-recording 2D/3D cameras visible range, but also in the IR and UV range, and/or GPS systems.

Insbesondere ist die 2D/3D-bildaufnehmende Kamera als RGB-Kamera im sichtbaren Bereich mit den Grundfarben Blau, Grün und Rot ausgebildet. Es kann aber auch noch zusätzlich eine UV-Kamera im ultravioletten Bereich und/oder eine IR-Kamera im infraroten Bereich vorgesehen sein. Die sich durch ihr Aufnahmespektrum unterscheidenden Kameras können somit unterschiedliche Lichtverhältnisse in dem Aufnahmebereich Modellen. Des Weiteren ist vorgesehen, dass eine 3D-Kamera als Stereokamera ausgebildet ist.In particular, the 2D/3D image-recording camera is designed as an RGB camera in the visible range with the primary colors blue, green and red. However, a UV camera in the ultraviolet range and/or an IR camera in the infrared range can also be provided. The cameras, which differ in their recording spectrum, can therefore model different lighting conditions in the recording area. Furthermore, it is envisaged that a 3D camera is designed as a stereo camera.

Die Aufnahmefrequenz der Sensoreinrichtung 20 ist insbesondere für schnelle Geschwindigkeiten des Objekts 10 ausgelegt und kann Sensordaten 250 mit einer hohen Bildaufnahmefrequenz aufzunehmen. Des Weiteren kann die Sensoreinrichtung 20 für die Erfassung von akustischen Signalen mit einem Mikrofon ausgestattet sein. Hierdurch können Abrollgeräusche der Reifen oder Motorgeräusche aufgenommen werden.The recording frequency of the sensor device 20 is designed in particular for fast speeds of the object 10 and can record sensor data 250 with a high image recording frequency. Furthermore, the sensor device 20 can be equipped with a microphone for detecting acoustic signals. This allows tire rolling noise or engine noise to be recorded.

Zudem kann vorgesehen sein, dass die Sensoreinrichtung 20 automatisch den Bildaufnahmeprozess dann startet, wenn sich eine flächenmäßig signifikante Änderung im Aufnahmebereich der Sensoreinrichtung 20 ergibt, beispielsweise wenn eine deutliche Änderung einer Verkehrssituation erkennbar ist. Hierdurch wird ein selektiver Datenerfassungsprozess ermöglicht und nur relevante Sensordaten 250 werden von dem Szenarienmodul 200 verarbeitet. Hierdurch können Rechenkapazitäten effizienter genutzt werden.In addition, it can be provided that the sensor device 20 automatically starts the image recording process when there is a significant change in area in the recording area of the sensor device 20, for example when a clear change in a traffic situation is recognizable. This enables a selective data collection process and only relevant sensor data 250 is processed by the scenario module 200. This allows computing capacity to be used more efficiently.

Insbesondere ist vorgesehen, als Kameratyp für eine oder mehrere Kameras eine wetterfeste Action-Kamera zu verwenden, die insbesondere im Außenbereich des Objekts 10 angeordnet sein kann. Eine Action-Kamera verfügt über weitwinkelige Fischaugen-Objektive, wodurch es möglich ist, einen sichtbaren Radius von ca. 180° zu erreichen. Hierdurch kann eine vorausliegende Fahrbahn umfassend abgebildet werden. Action-Kameras können üblicherweise Videos in Full HD (1.920 x 1.080 Pixel) aufzeichnen, jedoch können auch Action-Kameras in Ultra HD bzw. 4K (mindestens 3.840 x 2.160 Pixel) eingesetzt werden, wodurch sich eine deutliche Qualitätssteigerung in der Bildqualität ergibt. Die Bildaufnahmefrequenz beträgt üblicherweise 60 Bilder pro Sekunde in 4K und bis zu 240 pro Sekunde in Full HD. Außerdem kann noch ein integrierter Bildstabilisator vorgesehen sein. Zudem sind Action-Kameras häufig mit einem integrierten Mikrofon ausgestattet. Um Hintergrundgeräusche gezielt auszublenden, können darüber hinaus Verfahren der differentiellen Signalverarbeitung verwendet werden.In particular, it is intended to use a weatherproof action camera as the camera type for one or more cameras, which can be arranged in particular in the outside area of the object 10. An action camera has wide-angle fisheye lenses, making it possible to achieve a visible radius of approximately 180°. This allows the road ahead to be comprehensively mapped. Action cameras can usually record videos in Full HD (1,920 x 1,080 pixels), but action cameras can also be used in Ultra HD or 4K (at least 3,840 x 2,160 pixels), which results in a significant increase in image quality. The image capture rate is typically 60 frames per second in 4K and up to 240 per second in Full HD. An integrated image stabilizer can also be provided. In addition, action cameras are often equipped with an integrated microphone. Differential signal processing methods can also be used to specifically block out background noise.

Die Anbringungsposition einer Kamera an dem Objekt 10 bestimmt, welcher Aufnahmebereich von der Kamera aufgenommen werden kann. Es kann insbesondere vorgesehen sein, dass die Aufnahmebereiche von zwei oder mehr Kameras sich überlappen, um beispielsweise im Rahmen der weiteren Bildverarbeitung eine Panoramadarstellung zu erzeugen. Hierdurch kann die räumliche Umgebung eines sich bewegenden Objekts 10 umfassend erfasst werden. Neben dem anzustrebenden Aufnahmebereich sind allerdings bei einem Objekt 10 wie einem Fahrzeug auch die technisch möglichen Anbringungspositionen bzw. Fragen bezogen auf eine sinnvolle Integration in das Design einer Karosserie zu berücksichtigen.The attachment position of a camera on the object 10 determines which recording area can be recorded by the camera. In particular, it can be provided that the recording areas of two or more cameras overlap in order, for example, to generate a panoramic display as part of further image processing. This allows the spatial surroundings of a moving object 10 to be comprehensively recorded. In addition to the desired recording area, however, in the case of an object 10 such as a vehicle, the technically possible attachment positions and questions relating to sensible integration into the design of a body must also be taken into account.

Radarsensoren können für längere Strecken bis zu 250 Meter verwendet werden und haben den Vorteil, gegenüber Wetter- und Lichtverhältnissen unabhängig zu sein. Die Leistungsfähigkeit eines Radars hängt von vielen Faktoren ab wie den gewählten Hardwarekomponenten, der Softwareverarbeitung und dem Radarecho. So ist beispielsweise die Radargenauigkeit bei einem geringeren Signal-Rausch-Verhältnis weniger präzise als bei einem hohen Signal-Rausch-Verhältnis. Zudem ist die Einbauposition entscheidend für eine hohe Leistungsfähigkeit eines Radarsensors, da sich Effekte wie eine Mehrwegeausbreitung und eine Verzerrung durch Abdeckungen auf die Detektionsgenauigkeit auswirken. Beispielsweise erscheint bei einer Ungenauigkeit der Azimutmessung die Position eines Zielobjekts gegenüber der tatsächlichen Position versetzt. So ergibt sich durch einen Azimutmessfehler von 1° bei einem hundert Meter entfernten Zielobjekt bereits ein seitlicher Versatz von 1,75 m gegenüber der tatsächlichen Position. Hierdurch kann bei einem autonom fahrenden Fahrzeug ein Fahrmanöver ausgelöst werden, dass der realen Verkehrssituation nicht entspricht. Es ist daher von Bedeutung, dass der Winkelmessfehler eines eingesetzten Radarsensors sehr klein ist.Radar sensors can be used for longer distances of up to 250 meters and have the advantage of being independent of weather and lighting conditions. The performance of a radar depends on many factors such as the selected hardware components, software processing and the radar echo. For example, radar accuracy is less precise with a lower signal-to-noise ratio than with a high signal-to-noise ratio. In addition, the installation position is crucial for the high performance of a radar sensor, as effects such as multipath propagation and distortion caused by covers affect the detection accuracy. For example, if the azimuth measurement is inaccurate, the position of a target object appears offset from the actual position. An azimuth measurement error of 1° for a target object one hundred meters away results in a lateral offset of 1.75 m compared to the actual position. This can result in a driving maneuver in an autonomous vehicle be solved that does not correspond to the real traffic situation. It is therefore important that the angle measurement error of a radar sensor used is very small.

Typischerweise werden Radarsensoren im Stoßfänger eines Fahrzeugs eingebaut. Allerdings kann es durch die Transmissions- und Absorptionseigenschaften des verwendeten Materials zu Verzerrungen des Radarsignals kommen. Daher ist neben dem räumlichen Einbauort auch die Materialumgebung eines Radarsensors wie ein bestimmtes Kunststoff- oder Metallmaterial sowie eine bestimmte Lackierung von Bedeutung. Zudem kann die geometrische Formgebung einer Ummantelung eine Rolle spielen. Insbesondere wird als Einbauort für Fernbereichsradare häufig der Bereich von Markenemblemen gewählt. Da diese jedoch häufig aus Metall bestehen, können sie aufgrund ihrer elektromagnetischen Eigenschaften die Performance eines Radarsensors beeinflussen.Typically, radar sensors are installed in the bumper of a vehicle. However, the transmission and absorption properties of the material used can lead to distortions in the radar signal. Therefore, in addition to the spatial installation location, the material surroundings of a radar sensor, such as a specific plastic or metal material and a specific paint finish, are also important. The geometric shape of a casing can also play a role. In particular, the area of brand emblems is often chosen as the installation location for long-range radars. However, since these are often made of metal, their electromagnetic properties can influence the performance of a radar sensor.

Neben bildaufnehmenden Kameras und Radarsensoren stellen LIDAR-Sensoren einen wichtigen Sensortyp für die Wahrnehmung der Umgebung für hochautomatisiertes und autonomes Fahren dar. Wie mit Kameras und Radarsensoren kann das Umfeld aufgenommen werden und Abstände zu Objekten gemessen werden. Insbesondere 3D-LIDAR-Sensoren können detaillierte Informationen über ein Objekt aufnehmen durch eine hohe Abtastrate. Im Vergleich zu Radarsensoren zeichnen sich LIDAR-Sensoren durch eine höhere Orts- und Tiefenauflösung aus. Bei LIDAR-Sensoren wird zwischen einem mechanischem Scanning-LIDAR mit mechanisch rotierenden Bauteilen für das Scannen eines Laserstrahls und einem SSL-LIDAR (engl. Solid State Lidar) ohne bewegliche Komponenten unterschieden. Ein SLL-LIDAR-System besteht typischerweise aus einer Laserquelle bzw. einer Laserdiode, optischen Elementen wie Linsen und Diffusoren, Strahlsteuerungselementen, Photodetektoren und Signalverarbeitungseinheiten. Der Aufnahmebereich von SLL-LIDAR ist kleiner, aber die Kosten sind geringer und die Zuverlässigkeit ist höher. Ein Der Laserstrahl wird bei SLL-LIDAR mittels mikroelektromechanischer Systeme (MEMS) gesteuert. Zudem wird bei SLL-LIDAR-Systemen noch zwischen Flash-LIDAR mit einer Ausleuchtung des gesamten Aufnahmebereichs für eine Kurz- und Mittelbereichsdetektion und MEMS-basiertem Scanning-LIDAR mit Mikrospiegeln zur Strahlablenkung für die Ferndetektion bzw. Weitwinkeldetektion unterschieden. Flash-LIDAR-Systeme sind hinsichtlich ihrer Reichweite begrenzt und detektieren Objekte in unmittelbarer Nähe eines Fahrzeugs, während Scanning-LIDAR-Systeme für Abstands- und Geschwindigkeitsmessungen von weiter entfernten Objekten geeignet sind. Für die Leistungsfähigkeit eines LIDAR-Systems sind die Reichweite, die Auflösung, das Sichtfeld und die zuverlässige Detektion des reflektierten Lichts entscheidende Parameter.In addition to image-recording cameras and radar sensors, LIDAR sensors are an important type of sensor for perceiving the environment for highly automated and autonomous driving. As with cameras and radar sensors, the environment can be recorded and distances to objects can be measured. In particular, 3D LIDAR sensors can record detailed information about an object through a high sampling rate. Compared to radar sensors, LIDAR sensors are characterized by a higher spatial and depth resolution. When it comes to LIDAR sensors, a distinction is made between a mechanical scanning LIDAR with mechanically rotating components for scanning a laser beam and an SSL LIDAR (Solid State Lidar) without moving components. An SLL LIDAR system typically consists of a laser source or laser diode, optical elements such as lenses and diffusers, beam control elements, photodetectors and signal processing units. The recording range of SLL-LIDAR is smaller, but the cost is lower and the reliability is higher. On The laser beam in SLL-LIDAR is controlled using microelectromechanical systems (MEMS). In addition, SLL LIDAR systems differentiate between flash LIDAR with illumination of the entire recording area for short and medium-range detection and MEMS-based scanning LIDAR with micromirrors for beam deflection for long-range or wide-angle detection. Flash LIDAR systems are limited in range and detect objects in the immediate vicinity of a vehicle, while scanning LIDAR systems are suitable for distance and speed measurements of more distant objects. The range, resolution, field of view and reliable detection of reflected light are crucial parameters for the performance of a LIDAR system.

Des Weiteren ist vorteilhafterweise eine GPS-Verbindung vorgesehen, um den geographischen Standort des Objekts 10 zu ermitteln und diesen den aufgenommenen Sensordaten 250 zuzuordnen.Furthermore, a GPS connection is advantageously provided in order to determine the geographical location of the object 10 and to assign this to the recorded sensor data 250.

Die von der Sensoreinrichtung 20 erfassten realen Sensordaten 250 der Umgebung des Objekts 10 werden an ein Szenarienmodul 200 weitergegeben, um aus den realen Sensordaten 250 ein Szenario abzuleiten. Die von den Sensoren 800 aufgenommenen Daten werden mittels Kommunikationsverbindungen an das Szenarienmodul 200 weitergeleitet. Insbesondere ist eine drahtlose Kommunikationsverbindung vorgesehen, die beispielsweise als Mobilfunkverbindung und/oder einer Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet sein kann.The real sensor data 250 of the environment of the object 10 recorded by the sensor device 20 are passed on to a scenario module 200 in order to derive a scenario from the real sensor data 250. The data recorded by the sensors 800 is forwarded to the scenario module 200 via communication connections. In particular, a wireless communication connection is provided, which can be designed, for example, as a mobile radio connection and/or a near-field communication connection such as Bluetooth® , Ethernet, NFC (near field communication) or Wi-Fi®.

Da ein schnelles Berechnungsergebnis angestrebt wird, um Fahrassistenzsysteme und automatisierte Fahrfunktionen schnell testen und trainieren zu können, ist für die Vielzahl von Rechenoperationen in dem Szenarienmodul 200 die Rechengeschwindigkeit entscheidend. Um eine Durchführung der Rechenoperationen in Echtzeit zu ermöglichen, ist die Verwendung einer Cloud-Computing-Infrastruktur 400 vorteilhaft. Hierdurch kann eine schnelle Berechnung gewährleistet werden, da cloudbasierte Lösungen den Vorteil von hohen und damit schnellen Rechenleistungen bieten. Für die Kommunikation der Sensoreinrichtung 20 mit dem Szenarienmodul 200 bzw. der Cloud-Computing-Infrastruktur 400 wird insbesondere eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung verwendet, da auf diese Weise eine Datenübermittlung in Echtzeit erfolgen kann. Die Sensoreinrichtung 20 ist hierfür mit den entsprechenden Mobilfunkmodulen ausgestattet.Since a fast calculation result is sought in order to be able to quickly test and train driving assistance systems and automated driving functions, the calculation speed is crucial for the large number of calculation operations in the scenario module 200. In order to enable the computing operations to be carried out in real time, the use of a cloud computing infrastructure 400 is advantageous. This ensures fast calculations, as cloud-based solutions offer the advantage of high and therefore fast computing performance. For the communication of the sensor device 20 with the scenario module 200 or the cloud computing infrastructure 400, a 5G mobile phone connection or 6G mobile phone connection is used in particular, since data transmission can take place in real time in this way. For this purpose, the sensor device 20 is equipped with the corresponding mobile radio modules.

5G ist der Mobilfunkstandard der fünften Generation und zeichnet sich im Vergleich zum 4G-Mobilfunkstandard durch höhere Datenraten bis zu 10 Gbit/sec, der Nutzung höherer Frequenzbereiche wie beispielsweise 2100, 2600 oder 3600 Megahertz, eine erhöhte Frequenzkapazität und damit einen erhöhten Datendurchsatz und eine Echtzeitdatenübertragung aus, da bis zu eine Million Geräte pro Quadratkilometer gleichzeitig ansprechbar sind. Die Latenzzeiten betragen wenige Millisekunden bis unter 1 ms, so dass Echtzeitübertragungen von Daten und von Berechnungsergebnissen möglich sind. Daher können die von der Sensoreinrichtung 20 aufgenommenen Sensordaten 250 in Echtzeit an das Szenarienmodul 200 weitergeleitet werden.5G is the fifth generation mobile communications standard and, compared to the 4G mobile communications standard, is characterized by higher data rates of up to 10 Gbit/sec, the use of higher frequency ranges such as 2100, 2600 or 3600 megahertz, increased frequency capacity and thus increased data throughput and real-time data transmission because up to a million devices per square kilometer can be addressed simultaneously. The latency times range from a few milliseconds to less than 1 ms, so that real-time transmission of data and calculation results is possible. Therefore, the sensor data 250 recorded by the sensor device 20 can be forwarded to the scenario module 200 in real time.

Durch die Integration des Szenarienmoduls 200 in einer Cloud-Computing-Infrastruktur 400 in Verbindung mit einer 5G-Mobilfunkverbindung kann somit eine Verarbeitung der von der Sensoreinrichtung 20 aufgenommenen Sensordaten 250 in Echtzeit sichergestellt werden. Um die Verbindung zu der Cloud-Computing-Infrastruktur 400 mittels einer Mobilfunkverbindung zu schützen, sind insbesondere kryptographische Verschlüsselungsverfahren vorgesehen.By integrating the scenario module 200 in a cloud computing infrastructure 400 in conjunction with a 5G mobile radio connection, processing of the sensor data 250 recorded by the sensor device 20 can be ensured in real time. In order to protect the connection to the cloud computing infrastructure 400 using a mobile radio connection, cryptographic encryption methods are provided in particular.

Das Szenarienmodul 200 weist eine Softwareapplikation 220 auf, die aus den realen Sensordaten 250 ein Szenario erstellt. Als Szenario wird im Rahmen der Erfindung ein Verkehrsgeschehen in einer zeitlichen Sequenz bezeichnet. Ein Beispiel für ein Szenario ist das Befahren einer Autobahnbrücke, das Abbiegen auf einer Abbiegespur, das Durchfahren eines Tunnels, das Einbiegen in einen Kreisverkehr oder das Halten vor einem Fußgängerübergang. Darüber hinaus können spezifische Sichtverhältnisse beispielsweise aufgrund der Dämmerung oder einer hohen Sonnenlichteinstrahlung sowie Umweltbedingungen wie das Wetter und die Jahreszeit, das Verkehrsaufkommen sowie bestimmte geographische topographische Verhältnisse ein Szenario beeinflussen. Beispielsweise kann ein Überholvorgang als ein Szenario beschrieben werden, bei dem ein erstes Fahrzeug sich zunächst hinter einem anderen Fahrzeug befindet, dann einen Spurwechsel auf die andere Fahrbahn durchführt und die Geschwindigkeit erhöht, um das andere Fahrzeug zu überholen. Zudem kann die Jahreszeit eine Rolle spielen, da ein Überholmanöver bei Starkregen und Glätte anders aussieht als bei Sonnenschein.The scenario module 200 has a software application 220 that creates a scenario from the real sensor data 250. In the context of the invention, a scenario is a traffic event in a temporal sequence. An example of a scenario is driving on a highway bridge, turning in a turning lane, driving through a tunnel, turning into a roundabout or stopping in front of a pedestrian crossing. In addition, specific visibility conditions, for example due to twilight or high levels of sunlight, as well as environmental conditions such as the weather and season, traffic volume and certain geographical topographical conditions can influence a scenario. For example, an overtaking operation can be described as a scenario in which a first vehicle is initially behind another vehicle, then changes lanes to the other lane and increases speed in order to overtake the other vehicle. The time of year can also play a role, as an overtaking maneuver looks different in heavy rain and slippery conditions than in sunshine.

Ein Szenario kann beispielsweise durch verschiedene Parameter und zugehörige Parameterwerte definiert werden. Die Parameterwerte legen den Wertebereich eines Parameters fest. Die Parameter umfassen beispielsweise ein bewegliches Objekt wie ein Kraftfahrzeug, ein unbewegliches Objekt wie ein Gebäude, eine Straßenkonfiguration wie eine Autobahn, eine Geschwindigkeit, ein Straßenschild, eine Ampel, einen Tunnel, einen Kreisverkehr, eine Abbiegespur, eine Beschleunigung, eine Richtung, einen Winkel, einen Radius, einen Ort, ein Verkehrsaufkommen, eine topographische Struktur wie eine Steigung, eine Uhrzeit, eine Temperatur, einen Niederschlagswert, eine Witterung, eine Jahreszeit.For example, a scenario can be defined by various parameters and associated parameter values. The parameter values determine the value range of a parameter. The parameters include, for example, a moving object such as a motor vehicle, an immovable object such as a building, a road configuration such as a highway, a speed, a street sign, a traffic light, a tunnel, a roundabout, a turning lane, an acceleration, a direction, an angle , a radius, a location, a traffic volume, a topographical structure such as a slope, a time, a temperature, a precipitation value, a weather condition, a season.

Die Softwareapplikation 220 umfasst insbesondere Algorithmen der künstlichen Intelligenz und der maschinellen Bildanalyse, um die realen Sensordaten 250 zu selektieren und zu klassifizieren. Vorteilhaftweise verwendet die Softwareapplikation 220 Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV) zur Erstellung von Szenarien aus den aufgenommenen Sensordaten 250.The software application 220 includes in particular artificial intelligence and machine image analysis algorithms in order to select and classify the real sensor data 250. Advantageously, the software application 220 uses algorithms from the field of machine learning, preferably deep learning with, for example, at least one convolutional neural network and/or at least one reinforcement learning agent (LV) to create scenarios the recorded sensor data 250.

Ein neuronales Netzwerk besteht aus Neuronen, die in mehreren Schichten angeordnet und unterschiedlich miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außerhalb oder von einem anderen Neuron entgegenzunehmen, die Information in einer bestimmten Art zu bewerten und sie in veränderter Form am Neuronen-Ausgang an ein weiteres Neuron weiterzuleiten oder als Endergebnis auszugeben. Hidden-Neuronen sind zwischen den Input-Neuronen und Output-Neuronen angeordnet. Je nach Netzwerktyp können mehrere Schichten von Hidden-Neuronen vorhanden sein. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben dieses an die Außenwelt aus. Durch die unterschiedliche Anordnung und Verknüpfung der Neuronen entstehen verschiedene Typen von neuronalen Netzwerken wie vorwärtsgerichtete Netzwerke (engl. Feedforward Networks), rückwärtsgerichtete Netzwerke (eng. Recurrent Networks) oder gefaltete neuronale Netzwerke (engl. Convolutional Neural Networks). Die Netzwerke lassen sich durch unbeaufsichtigtes oder überwachtes Lernen trainierenA neural network consists of neurons arranged in several layers and connected to each other in different ways. A neuron is able to receive information from outside or from another neuron at its input, evaluate the information in a certain way and forward it in a modified form to another neuron at the neuron output or output it as the end result. Hidden neurons are located between the input neurons and output neurons. Depending on the network type, there may be multiple layers of hidden neurons. They ensure the forwarding and processing of the information. Output neurons ultimately deliver a result and output it to the outside world. The different arrangement and connection of the neurons creates different types of neural networks such as feedforward networks, recurrent networks or convolutional neural networks. The networks can be trained using unsupervised or supervised learning

Das Convolutional Neural Network (CNN) besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich der Bild- und Spracherkennung sehr gut geeignet. Die Funktionsweise eines Convolutional Neural Networks ist in einer gewissen Weise biologischen Vorgängen nachempfunden und der Aufbau ist vergleichbar der Sehrinde des Gehirns. Herkömmliche neuronale Netzwerke bestehen aus voll- oder teilverknüpften Neuronen in mehreren Ebenen und diese Strukturen stoßen bei der Verarbeitung von Bildern an ihre Grenzen, da eine der Pixelanzahl entsprechende Zahl an Eingängen vorhanden sein müsste. Das Convolutional Neural Network setzt sich aus verschiedenen Schichten zusammen und ist vom Grundprinzip ein zum Teil lokal verknüpftes neuronales Feedforward-Netzwerk. Die einzelnen Schichten des CNN sind die Convolutional-Schicht, die Pooling-Schicht und die vollständig verknüpfte Schicht. Die Convolutional-Schicht ist die eigentliche Faltungsebene und in der Lage, in den Eingabedaten einzelne Merkmale zu erkennen und zu extrahieren. Bei der Bildverarbeitung können dies Merkmale wie Linien, Kanten oder bestimmte Formen sein. Die Verarbeitung der Eingabedaten erfolgt in Form von Tensoren wie einer Matrix oder Vektoren. Die Pooling-Schicht, auch Subsampling-Schicht genannt, verdichtet und reduziert die Auflösung der erkannten Merkmale durch passende Filterfunktionen. Durch das reduzierte Datenaufkommen erhöht sich die Berechnungsgeschwindigkeit.The Convolutional Neural Network (CNN) has several convolution layers and is very well suited for machine learning and applications with artificial intelligence (AI) in the area of image and speech recognition. The way a convolutional neural network works is to a certain extent modeled on biological processes and the structure is comparable to the visual cortex of the brain. Conventional neural networks consist of fully or partially connected neurons in several levels and these structures reach their limits when processing images, as there would have to be a number of inputs corresponding to the number of pixels. The convolutional neural network is made up of different layers and is basically a partially locally linked feedforward neural network. The individual layers of the CNN are the convolutional layer, the pooling layer and the fully connected layer. The convolutional layer is the actual convolution layer and is able to recognize and extract individual features in the input data. In image processing, these can be features such as lines, edges or certain shapes. The input data is processed in the form of tensors such as a matrix or vectors. The pooling layer, also called the subsampling layer, compresses and reduces the resolution of the recognized features through appropriate filter functions. The reduced data volume increases the calculation speed.

Das Convolutional Neural Network (CNN) eignet sich daher für maschinelles Lernen und Anwendungen der Künstlichen Intelligenz mit großen Mengen an Eingabedaten wie in der Bilderkennung. Das Netzwerk arbeitet zuverlässig und ist gegenüber Verzerrungen oder anderen optischen Veränderungen unempfindlich. Das CNN kann unter verschiedenen Lichtverhältnissen und in unterschiedlichen Perspektiven aufgenommene Bilder verarbeiten. Es erkennt dennoch die typischen Merkmale eines Bildes. Da das CNN mehrere lokale teilverknüpfte Schichten umfasst, hat es einen wesentlich geringeren Speicherplatzbedarf als vollverknüpfte neuronale Netze, da durch die Faltungsschichten die Speicheranforderungen erheblich reduziert werden. Zudem verkürzt sich hierdurch die Trainingszeit eines CNN, insbesondere bei der Verwendung von modernen Grafikprozessoren.The Convolutional Neural Network (CNN) is therefore suitable for machine learning and artificial intelligence applications with large amounts of input data, such as in image recognition. The network works reliably and is insensitive to distortions or other optical changes. The CNN can process images captured under different lighting conditions and from different perspectives. It still recognizes the typical features of an image. Since the CNN includes several local partially connected layers, it has a significantly lower storage space requirement than fully connected neural networks, as the convolutional layers significantly reduce the storage requirements. This also shortens the training time of a CNN, especially when using modern graphics processors.

Das von der Softwareapplikation 220 erstellte Szenario wird an ein Simulationsmodul 300 weitergeleitet. Das Simulationsmodul 300 umfasst eine Softwareapplikationen 320, die für das übermittelte Szenario eine Simulationsumgebung 340 generiert. Als Simulationsumgebung 340 wird im Rahmen der Erfindung eine virtuelle Umgebung bezeichnet, die das jeweilige generierte Szenario, ein virtuelles Modell des Objekts 10 und ein parametrierbares virtuelles Modell der Sensoreinrichtung 20 umfasst. Das virtuelle Modell des Objekts 10 ist insbesondere als digitaler Zwilling (engl. Digital Twin) ausgebildet und in der Lage, die gleichen Bewegungen wie das reale Objekt 10 durchzuführen. Ein digitaler Zwilling ist eine virtuelle Darstellung eines realen physischen Produkts oder eines Prozesses und beinhaltet geometrische, kinematisch und sonstige Prozessinformationen. Zudem ist das virtuelle Modell des Objekts 10 mit dem parametrierbaren virtuellen Modell der Sensoreinrichtung 20 verknüpft. Das parametrierbare virtuelle Modell der Sensoreinrichtung 20 ist vorzugsweise ebenfalls als digitaler Zwilling ausgebildet. Die Parameter des parametrierbaren virtuellen Modells der Sensoreinrichtung 20 beziehen sich insbesondere auf die ausgewählte Anzahl, die Sensortypen und die jeweilige Positionierung der Sensoren 22 an dem Objekt 10. Durch eine Änderung von einem oder mehreren Parametern können somit unterschiedliche Konfigurationen der Sensoreinrichtung 20 erstellt werden.The scenario created by the software application 220 is forwarded to a simulation module 300. The simulation module 300 includes a software application 320 that generates a simulation environment 340 for the transmitted scenario. In the context of the invention, a simulation environment 340 refers to a virtual environment that includes the respective generated scenario, a virtual model of the object 10 and a parameterizable virtual model of the sensor device 20. The virtual model of the object 10 is designed in particular as a digital twin and is able to carry out the same movements as the real object 10. A digital twin is a virtual representation of a real physical product or process and includes geometric, kinematic and other process information. In addition, the virtual model of the object 10 is linked to the parameterizable virtual model of the sensor device 20. The parameterizable virtual model of the sensor device 20 is preferably also designed as a digital twin. The parameters of the parameterizable virtual model of the sensor device 20 relate in particular to the selected number, the sensor types and the respective positioning of the sensors 22 on the object 10. By changing one or more parameters, different configurations of the sensor device 20 can thus be created.

Die Daten bzw. Skripte für das virtuelle Modell des Objekts 10 und das parametrierbare virtuelle Modell der Sensoreinrichtung 20 können in einer Datenbank 370 gespeichert sein, aus der sie von dem Simulationsmodul 300 abgerufen werden. Insbesondere können virtuelle Modelle bzw. digitale Zwillinge für verschiedene Objekte 10, wie insbesondere für verschiedene Fahrzeugmodelle gespeichert sein. Zudem sind die Parameter für verschiedene Sensortypen der Sensoren 22 in der Datenbank 370 gespeichert. Des Weiteren können in der Datenbank 370 historische Daten in Form von Bildern, Graphiken, Zeitreihen, Kenngrößen, etc. abgelegt sein. Hierbei können Zielgrößen und Zielwerte einen Sicherheitsstandard definieren. Unter „Datenbank“ ist sowohl ein Speicheralgorithmus als auch die Hardware in Form einer Speichereinheit zu verstehen. Insbesondere kann die Datenbank 370 ebenfalls in der Cloud-Computing-Infrastruktur 400 integriert sein.The data or scripts for the virtual model of the object 10 and the parameterizable virtual model of the sensor device 20 can be stored in a database 370, from which they are retrieved by the simulation module 300. In particular, virtual models or digital twins can be stored for different objects 10, in particular for different vehicle models. In addition, the parameters for different sensor types of the sensors 22 are stored in the database 370. Furthermore, 370 historical data in the form of images, graphics, time series, parameters, etc. can be stored in the database. Target variables and target values can define a security standard. “Database” means both a storage algorithm and the hardware in the form of a storage unit. In particular, the database 370 can also be integrated into the cloud computing infrastructure 400.

Nach der Generierung der Simulationsumgebung 340 werden von der Softwareapplikation 320 virtuelle Sensordaten 350 für diese Simulationsumgebung 340 extrahiert. Diese virtuellen Sensordaten 350 simulieren diejenigen realen Sensordaten, die von der Umgebung des sich bewegenden Objekts 10 aufgenommen würden, wenn diese mit Sensoren 22 entsprechend der ausgewählten Sensorkonfiguration der Sensoreinrichtung 20 erfasst worden wäre.After the simulation environment 340 has been generated, the software application 320 extracts virtual sensor data 350 for this simulation environment 340. This virtual sensor data 350 simulates the real sensor data that would be recorded from the environment of the moving object 10 if it had been recorded with sensors 22 in accordance with the selected sensor configuration of the sensor device 20.

Es handelt sich somit um einen inversen Vorgang zu der Erstellung der Simulationsumgebung 340 aus den realen Sensordaten 250. Da die Simulationsumgebung 340 aus dem mittels der realen Sensordaten 250 erstellten Szenario und einem virtuellen Modell des Objekts 10 sowie einer ausgewählten Konfiguration der Sensoreinrichtung 20 generiert wurde, können die virtuellen Sensordaten 350 von den realen Sensordaten 250 abweichen.It is therefore an inverse process to the creation of the simulation environment 340 from the real sensor data 250. Since the simulation environment 340 was generated from the scenario created using the real sensor data 250 and a virtual model of the object 10 as well as a selected configuration of the sensor device 20, The virtual sensor data 350 can differ from the real sensor data 250.

Die Softwareapplikation 320 umfasst ebenfalls insbesondere Algorithmen der künstlichen Intelligenz und der maschinellen Bildanalyse, um die Simulationsumgebung 340 zu erstellen. Vorteilhaftweise verwendet die Softwareapplikation 320 Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV). Insbesondere sind die neuronalen Netzwerke in einer umgekehrten Reihenfolge angeordnet, da nun aus der Simulationsumgebung 340 die virtuellen Sensordaten 350 extrahiert werden.The software application 320 also includes, in particular, artificial intelligence and machine image analysis algorithms to create the simulation environment 340. Advantageously, the software application 320 uses algorithms from the field of machine learning, preferably deep learning with at least one convolutional neural network and/or at least one reinforcement learning agent (LV). In particular, the neural networks are arranged in a reverse order, since the virtual sensor data 350 are now extracted from the simulation environment 340.

Diese virtuell generierten Sensordaten 350 werden von dem Simulationsmodul 300 an das ADAS/ADS-Modul 30 weitergegeben, um die verschiedenen Funktionen eines oder mehrerer ADAS/ADS-Systeme zu testen, zu trainieren und zu validieren. Für die Kommunikation des Simulationsmoduls 300 mit dem ADAS/ADS-Modul 30 wird wiederum insbesondere eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung verwendet, da auf diese Weise eine Datenübermittlung in Echtzeit erfolgen kann. Aufgrund der Echtzeitberechnung hat sich das augenblickliche Szenario kaum geändert, so dass eine oder mehrere Funktionen des ADAS/ADS-Systems für dieses Szenario getestet bzw. validiert werden kann/können.This virtually generated sensor data 350 is passed from the simulation module 300 to the ADAS/ADS module 30 to test, train and validate the various functions of one or more ADAS/ADS systems. For the communication of the simulation module 300 with the ADAS/ADS module 30, in particular a 5G mobile radio connection or 6G mobile radio connection is used, since this is the case Way data transmission can take place in real time. Due to the real-time calculation, the current scenario has hardly changed, so that one or more functions of the ADAS/ADS system can be tested or validated for this scenario.

Das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems kann durch Sensoren 24 wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren gemessen werden. Diese Messdaten für die jeweilige Konfiguration der Sensoreinrichtung 20 können an ein Bewertungsmodul 500 weitergegeben werden. Das Bewertungsmodul 500 umfasst eine Softwareapplikation 550, die aus den Messdaten Testergebnisse ableitet und diese bewertet.The behavior of the respective function of the ADAS/ADS system can be measured by sensors 24 such as, in particular, acceleration sensors, speed sensors, capacitive sensors, inductive sensors, speed sensors, torque sensors, voltage sensors. These measurement data for the respective configuration of the sensor device 20 can be passed on to an evaluation module 500. The evaluation module 500 includes a software application 550 that derives test results from the measurement data and evaluates them.

Zudem können Optimierungsalgorithmen vorgesehen sein, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung 20 eine optimale Konfiguration der Sensoreinrichtung 20, die für eine hohe Anzahl von Szenarien geeignet ist, berechnet werden kann. Als Optimierungsalgorithmen können Algorithmen zur Abschätzung von Verteilungen wie beispielsweise Bayesian Optimierung, evolutionäre Algorithmen wie genetische Algorithmen und evolutionäre Strategien mit Operatoren wie Mutation, Selektion, Rekombination, oder numerische Verfahren wie das Nelder-Meat-Verfahren, Ameisenalgorithmen (Ant Colony Optimierung), Partikelschwarmoptimierung, oder heuristische Approximationsverfahren wie simuliertes Ausglühen (Simulated Annealing) verwendet werden. Es sind somit eine Vielzahl von Optimierungsverfahren im Bereich des Maschinenlernens denkbar, die von dem Bewertungsmodul 500 zum Auffinden einer passenden Konfiguration für die Sensoreinrichtung 20 verwendet werden können.In addition, optimization algorithms can be provided with which an optimal configuration of the sensor device 20, which is suitable for a large number of scenarios, can be calculated from the test results for the different configurations of the sensor device 20. Optimization algorithms that can be used are algorithms for estimating distributions such as Bayesian optimization, evolutionary algorithms such as genetic algorithms and evolutionary strategies with operators such as mutation, selection, recombination, or numerical methods such as the Nelder-Meat method, ant algorithms (ant colony optimization), particle swarm optimization, or heuristic approximation methods such as simulated annealing can be used. A variety of optimization methods in the area of machine learning are therefore conceivable, which can be used by the evaluation module 500 to find a suitable configuration for the sensor device 20.

Ein Verfahren zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien umfasst die folgenden Verfahrensschritten:

  • In einem Schritt S10 werden reale Sensordaten 250 einer Umgebung eines sich bewegenden Objekts 10 mittels Sensoren 22 einer Sensoreinrichtung 20 des sich bewegenden Objekts 10 erfasst.
  • In einem Schritt S20 werden die realen Sensordaten 250 an ein Szenarienmodul 200 übermittelt.
  • In einem Schritt S30 wird zumindest ein Szenario aus den realen Sensordaten 250 für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts 10 mittels einer Softwareapplikation 220 des Szenarienmoduls 200 generiert.
  • In einem Schritt S40 wird das generierte Szenario an ein Simulationsmodul 300; übermittelt.
  • In einem Schritt S50 wird eine bestimmte Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung 20 durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren 22 festgelegt.
  • In einem Schritt S60 wird eine Simulationsumgebung 340 generiert, wobei die Simulationsumgebung 340 zumindest das generierte Szenario, ein virtuelles Modell des Objekts 10 und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung 20 umfasst.
  • In einem Schritt S70 werden virtuelle Sensordaten 350 für die generierte Simulationsumgebung 340 simuliert.
  • In einem Schritt S80 werden die virtuellen Sensordaten 350 an ein ADAS/ADS-Modul 30 des sich bewegenden Objekts 10 übermittelt, wobei das ADAS/ADS-Modul 30 zumindest ein ADAS/ADS-System umfasst.
  • In einem Schritt S90 wird zumindest eine Funktion des ADAS/ADS-Systems validiert, getestet oder trainiert.
A method for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a variety of scenarios includes the following procedural steps:
  • In a step S10, real sensor data 250 of an environment of a moving object 10 is recorded by means of sensors 22 of a sensor device 20 of the moving object 10.
  • In a step S20, the real sensor data 250 is transmitted to a scenario module 200.
  • In a step S30, at least one scenario is generated from the real sensor data 250 for the traffic situation in the surroundings of the moving object 10 using a software application 220 of the scenario module 200.
  • In a step S40, the generated scenario is sent to a simulation module 300; transmitted.
  • In a step S50, a specific configuration of a parameterizable virtual model of the sensor device 20 is determined by selecting parameters such as the number, the sensor types and the installation positions of the sensors 22.
  • In a step S60, a simulation environment 340 is generated, the simulation environment 340 comprising at least the generated scenario, a virtual model of the object 10 and the specified configuration of the parameterizable virtual model of the sensor device 20.
  • In a step S70, virtual sensor data 350 is simulated for the generated simulation environment 340.
  • In a step S80, the virtual sensor data 350 is transmitted to an ADAS/ADS module 30 of the moving object 10, the ADAS/ADS module 30 comprising at least one ADAS/ADS system.
  • In a step S90, at least one function of the ADAS/ADS system is validated, tested or trained.

Durch die erfindungsgemäße Generierung einer Simulationsumgebung 340, die auf einer realen Umgebung basiert, können in Echtzeit virtuelle Sensordaten 350 generiert werden. Durch die Variation der Parameter der Sensoreinrichtung 20 kann somit untersucht werden, wie sich unterschiedliche Konfigurationen der Sensoreinrichtung 20, die sich hinsichtlich der Anzahl, der Sensortypen und der Positionierung der Sensoren 22 unterscheiden und somit jeweils ein anderes Spektrum von Sensorsignalen bezogen auf eine spezifische Umgebung erzeugen, auf das Verhalten einer oder mehrerer Funktionen eines ADAS/ADS-Systems auswirken. Es kann somit auf die reale Konstruktion einer Vielzahl von Prototypen von Sensoreinrichtungen 20 mit verschiedenen Konfigurationen verzichtet werden, da das Verhalten eines ADAS/ADS-Systems für eine spezifische Konfiguration einer Sensoreinrichtung 20 mittels des erfindungsgemäßen Verfahrens getestet und validiert werden kann. Hierdurch sind erhebliche Kosten- und Zeiteinsparungen möglich.By generating a simulation environment 340 according to the invention, which is based on a real environment, virtual sensor data 350 can be generated in real time. By varying the parameters of the sensor device 20, it is possible to examine how different configurations of the sensor device 20, which differ in terms of the number, the sensor types and the positioning of the sensors 22 and thus each generate a different spectrum of sensor signals in relation to a specific environment , affect the behavior of one or more functions of an ADAS/ADS system. The actual construction of a large number of prototypes of sensor devices 20 with different configurations can therefore be dispensed with, since the behavior of an ADAS/ADS system for a specific configuration of a sensor device 20 can be tested and validated using the method according to the invention. This makes significant cost and time savings possible.

BezugszeichenReference symbols

1010
Objektobject
2020
SensoreinrichtungSensor device
2222
SensorenSensors
2424
SensorenSensors
3030
ADAS/ADS-ModulADAS/ADS module
100100
Systemsystem
200200
SzenarienmodulScenario module
220220
SoftwareapplikationSoftware application
250250
reale Sensordatenreal sensor data
300300
SimulationsmodulSimulation module
320320
SoftwareapplikationSoftware application
340340
SimulationsumgebungSimulation environment
350350
virtuelle Sensordatenvirtual sensor data
370370
DatenbankDatabase
400400
Cloud Computing-InfrastrukturCloud computing infrastructure
500500
BewertungsmodulAssessment module
550550
SoftwareapplikationSoftware application
900900
ComputerprogrammproduktComputer program product
950950
ProgrammcodeProgram code

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2021/0350046 A1 [0008]US 2021/0350046 A1 [0008]
  • DE 102020/202650 A1 [0009]DE 102020/202650 A1 [0009]
  • DE 102021/100696 A1 [0010]DE 102021/100696 A1 [0010]
  • DE 112020/000413 T5 [0011]DE 112020/000413 T5 [0011]
  • US 2020/0209858 A1 [0012]US 2020/0209858 A1 [0012]

Claims (15)

Verfahren zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien, wobei ein Szenario ein Verkehrsgeschehen in einer zeitlichen Sequenz darstellt, umfassend: - Erfassen (S10) von realen Sensordaten (250) einer Umgebung eines sich bewegenden Objekts (10) mittels Sensoren (22) einer Sensoreinrichtung (20) des sich bewegenden Objekts (10); - Übermitteln (S20) der realen Sensordaten (250) an ein Szenarienmodul (200); - Generieren (S30) zumindest eines Szenarios aus den realen Sensordaten (250) für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts (10) mittels einer Softwareapplikation (220) des Szenarienmoduls (200); - Übermitteln (S40) des generierten Szenarios an ein Simulationsmodul (300); - Festlegen (S50) einer bestimmten Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren (22); - Generieren (S60) einer Simulationsumgebung (340), wobei die Simulationsumgebung (340) zumindest das generierte Szenario, ein virtuelles Modell des Objekts (10) und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) umfasst; - Simulieren (S70) von virtuellen Sensordaten (350) für die generierte Simulationsumgebung (340); - Übermitteln (S80) der virtuellen Sensordaten (350) an ein ADAS/ADS-Modul (30) des sich bewegenden Objekts (10), wobei das ADAS/ADS-Modul (30) zumindest ein ADAS/ADS-System umfasst; - Validieren, Testen und/oder Trainieren (S90) von zumindest einer Funktion des ADAS/ADS-Systems. Method for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a variety of scenarios, wherein a scenario represents a traffic event in a temporal sequence, comprising: - Detecting (S10) real sensor data (250) of an environment of a moving object (10) using sensors (22) of a sensor device (20) of the moving object (10); - Transmit (S20) the real sensor data (250) to a scenario module (200); - Generating (S30) at least one scenario from the real sensor data (250) for the traffic events in the area around the moving object (10) using a software application (220) of the scenario module (200); - Transmitting (S40) the generated scenario to a simulation module (300); - Determining (S50) a specific configuration of a parameterizable virtual model of the sensor device (20) by selecting parameters such as the number, the sensor types and the installation positions of the sensors (22); - Generating (S60) a simulation environment (340), the simulation environment (340) comprising at least the generated scenario, a virtual model of the object (10) and the specified configuration of the parameterizable virtual model of the sensor device (20); - Simulating (S70) virtual sensor data (350) for the generated simulation environment (340); - Transmitting (S80) the virtual sensor data (350) to an ADAS/ADS module (30) of the moving object (10), the ADAS/ADS module (30) comprising at least one ADAS/ADS system; - Validating, testing and/or training (S90) of at least one function of the ADAS/ADS system. Verfahren nach Anspruch 1, wobei das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems bezogen auf die virtuellen Daten (350) durch Sensoren (24) wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren gemessen wird und die Messdaten der Sensoren (24) an ein Bewertungsmodul (500) weitergegeben werden.Procedure according to Claim 1 , wherein the behavior of the respective function of the ADAS/ADS system based on the virtual data (350) is measured by sensors (24) such as in particular acceleration sensors, speed sensors, capacitive sensors, inductive sensors, speed sensors, torque sensors, voltage sensors and the measurement data of the sensors (24) are passed on to an evaluation module (500). Verfahren nach Anspruch 2, wobei das Bewertungsmodul (500) eine Softwareapplikation (550) umfasst, die aus den Messdaten Testergebnisse ableitet und diese bewertet.Procedure according to Claim 2 , wherein the evaluation module (500) comprises a software application (550) which derives test results from the measurement data and evaluates them. Verfahren nach Anspruch 3, wobei die Softwareapplikation (550) Optimierungsalgorithmen umfasst, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung (20) eine optimale Konfiguration der Sensoreinrichtung (20) für eine hohe Anzahl an Szenarien berechnet werden kann.Procedure according to Claim 3 , wherein the software application (550) comprises optimization algorithms with which an optimal configuration of the sensor device (20) can be calculated for a large number of scenarios from the test results for the various configurations of the sensor device (20). Verfahren nach einem der Ansprüche 1 bis 4, wobei die Sensoren (22) der Sensoreinrichtung (20) ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich und/oder im IR-Bereich und/oder im UV-Bereich, und/oder GPS-Systeme umfassen.Procedure according to one of the Claims 1 until 4 , wherein the sensors (22) of the sensor device (20) include one or more radar systems with one or more radar sensors, one or more LIDAR systems for optical distance and speed measurement, one or more image-recording 2D/3D cameras in the visible range and/or in the IR range and/or in the UV range, and/or GPS systems. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Softwareapplikation (220) des Szenarienmoduls (200) Algorithmen der Künstlichen Intelligenz und des Maschinenlernens, insbesondere Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV), zur Generierung von Szenarien aus den aufgenommenen realen Sensordaten (250) umfasst.Procedure according to one of the Claims 1 until 5 , wherein the software application (220) of the scenario module (200) uses algorithms of artificial intelligence and machine learning, in particular deep learning with, for example, at least one convolutional neural network and / or at least one reinforcement learning agent , LV), for generating scenarios from the recorded real sensor data (250). Verfahren nach einem der Ansprüche 1 bis 6, wobei die Softwareapplikation (320) des Simulationsmoduls (300) Algorithmen der Künstlichen Intelligenz und des Maschinenlernens, insbesondere Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV), zur Generierung der Simulationsumgebung (340) und der virtuellen Sensordaten (350) umfasst.Procedure according to one of the Claims 1 until 6 , wherein the software application (320) of the simulation module (300) uses algorithms of artificial intelligence and machine learning, in particular deep learning with, for example, at least one convolutional neural network and / or at least one reinforcement learning agent , LV), for generating the simulation environment (340) and the virtual sensor data (350). Verfahren nach einem der Ansprüche 1 bis 7, wobei das virtuelle Modell des Objekts (10) und/oder das parametrisierbare virtuelle Modell der Sensoreinrichtung (20) als digitaler Zwilling ausgebildet ist/sind.Procedure according to one of the Claims 1 until 7 , wherein the virtual model of the object (10) and / or the parameterizable virtual model of the sensor device (20) is / are designed as a digital twin. Verfahren nach einem der Ansprüche 1 bis 8, wobei das Szenarienmodul (200) und das Simulationsmodul (300) in einer Cloud-Computing-Infrastruktur (400) integriert sind.Procedure according to one of the Claims 1 until 8th , wherein the scenario module (200) and the simulation module (300) are integrated in a cloud computing infrastructure (400). Verfahren nach einem der Ansprüche 1 bis 9, wobei für die Kommunikation der Sensoreinrichtung (20) mit dem Szenarienmodul (200) bzw. der Cloud-Computing-Infrastruktur (400) eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung vorgesehen ist für eine Datenübermittlung in Echtzeit.Procedure according to one of the Claims 1 until 9 , wherein a 5G mobile phone connection or 6G mobile phone connection is provided for the communication of the sensor device (20) with the scenario module (200) or the cloud computing infrastructure (400) for data transmission in real time. System (100) zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien, wobei ein Szenario ein Verkehrsgeschehen in einer zeitlichen Sequenz darstellt, umfassend ein sich bewegendes Objekt (10) mit einer Sensoreinrichtung (20) und einem ADAS/ADS-Modul (30), ein Szenarienmodul (200) und ein Simulationsmodul (300), wobei die Sensoreinrichtung (20) ausgebildet ist, reale Sensordate (250) einer Umgebung des sich bewegenden Objekts (10) mittels Sensoren (22) zu erfassen und die realen Sensordaten (250) an das Szenarienmodul (200); zu übermitteln; wobei der Szenarien (200) ausgebildet ist, zumindest ein Szenario aus den realen Sensordaten (250) für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts (10) mittels einer Softwareapplikation (220) zu generieren und das generierte Szenario an ein Simulationsmodul (300) zu übermitteln; wobei das Simulationsmodul (300) ausgebildet ist, eine bestimmte Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren (22) festzulegen und eine Simulationsumgebung (340) zu generieren, wobei die Simulationsumgebung (340) zumindest das generierte Szenario, ein virtuelles Modell des Objekts (10) und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) umfasst, und virtuelle Sensordaten (350) für die generierte Simulationsumgebung (340) zu simulieren und die virtuellen Sensordaten (350) an das ADAS/ADS-Modul (30) des sich bewegenden Objekts (10) zu übermitteln, wobei das ADAS/ADS-Modul (30) zumindest ein ADAS/ADS-System aufweist und ausgebildet ist, zumindest eine Funktion des ADAS/ADS-Systems zu validieren, zu testen und/oder zu trainieren.System (100) for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a variety of scenarios, a scenario being a traffic situation hen in a temporal sequence, comprising a moving object (10) with a sensor device (20) and an ADAS/ADS module (30), a scenario module (200) and a simulation module (300), wherein the sensor device (20) is designed to record real sensor data (250) of an environment of the moving object (10) using sensors (22) and to send the real sensor data (250) to the scenario module (200); to transmit; wherein the scenarios (200) are designed to generate at least one scenario from the real sensor data (250) for the traffic events in the surroundings of the moving object (10) using a software application (220) and the generated scenario is sent to a simulation module (300) to transmit; wherein the simulation module (300) is designed to determine a specific configuration of a parameterizable virtual model of the sensor device (20) by selecting parameters such as the number, the sensor types and the installation positions of the sensors (22) and to generate a simulation environment (340), whereby the simulation environment (340) comprises at least the generated scenario, a virtual model of the object (10) and the fixed configuration of the parameterizable virtual model of the sensor device (20), and to simulate virtual sensor data (350) for the generated simulation environment (340) and the to transmit virtual sensor data (350) to the ADAS/ADS module (30) of the moving object (10), the ADAS/ADS module (30) having at least one ADAS/ADS system and being designed to have at least one function to validate, test and/or train the ADAS/ADS system. System (100) nach Anspruch 11, wobei das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems bezogen auf die virtuellen Daten (350) durch Sensoren (24) wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren gemessen wird und die Messdaten der Sensoren (24) an ein Bewertungsmodul (500) weitergegeben werden.System (100) after Claim 11 , wherein the behavior of the respective function of the ADAS/ADS system based on the virtual data (350) is measured by sensors (24) such as in particular acceleration sensors, speed sensors, capacitive sensors, inductive sensors, speed sensors, torque sensors, voltage sensors and the measurement data of the sensors (24) are passed on to an evaluation module (500). System (100) nach Anspruch 11 oder 12, wobei das Bewertungsmodul (500) eine Softwareapplikation (550) umfasst, die aus den Messdaten Testergebnisse ableitet und diese bewertet, und wobei die Softwareapplikation (550) Optimierungsalgorithmen umfasst, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung (20) eine optimale Konfiguration der Sensoreinrichtung (20) für eine hohe Anzahl an Szenarien berechnet werden kann.System (100) after Claim 11 or 12 , wherein the evaluation module (500) comprises a software application (550) which derives test results from the measurement data and evaluates them, and wherein the software application (550) comprises optimization algorithms with which an optimal one is derived from the test results for the various configurations of the sensor device (20). Configuration of the sensor device (20) can be calculated for a large number of scenarios. System (100) nach einem der Ansprüche 11 bis 13, wobei die Sensoren (22) der Sensoreinrichtung (20) ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich und/oder im IR-Bereich und/oder im UV-Bereich, und/oder GPS-Systeme umfassen.System (100) according to one of the Claims 11 until 13 , wherein the sensors (22) of the sensor device (20) include one or more radar systems with one or more radar sensors, one or more LIDAR systems for optical distance and speed measurement, one or more image-recording 2D/3D cameras in the visible range and/or in the IR range and/or in the UV range, and/or GPS systems. Computerprogrammprodukt (900), umfassend einen ausführbaren Programmcode (950), der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren nach einem der Ansprüche 1 bis 10 ausführt.Computer program product (900), comprising an executable program code (950) which is configured so that, when executed, it implements the method according to one of Claims 1 until 10 executes.
DE102022118631.8A 2022-07-26 2022-07-26 Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) Pending DE102022118631A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022118631.8A DE102022118631A1 (en) 2022-07-26 2022-07-26 Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022118631.8A DE102022118631A1 (en) 2022-07-26 2022-07-26 Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS)

Publications (1)

Publication Number Publication Date
DE102022118631A1 true DE102022118631A1 (en) 2024-02-01

Family

ID=89508600

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022118631.8A Pending DE102022118631A1 (en) 2022-07-26 2022-07-26 Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS)

Country Status (1)

Country Link
DE (1) DE102022118631A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017208692A1 (en) 2017-05-23 2018-11-29 Audi Ag Method for providing training data for a functional test of a recognition device and database system
DE102018003130A1 (en) 2018-04-17 2019-10-17 Psa Automobiles Sa Testing a vehicle with simulated road users
US20200209858A1 (en) 2018-12-31 2020-07-02 Luminar Technologies, Inc. Generating environmental parameters based on sensor data using machine learning
DE102019124504A1 (en) 2019-09-12 2021-04-01 Bayerische Motoren Werke Aktiengesellschaft Method and device for simulating and evaluating a sensor system for a vehicle as well as method and device for designing a sensor system for environment detection for a vehicle
DE102021100696A1 (en) 2020-02-14 2021-08-19 GM Global Technology Operations LLC PROCEDURES, SYSTEMS AND DEVICES FOR EDGE-BASED NOTIFICATION BY CROWDSOURCED LIVE STREAMED FLEET COMMUNICATION
DE102020202650A1 (en) 2020-03-02 2021-09-02 Psa Automobiles Sa Computer-implemented method for route calculation for an autonomously driving motor vehicle, method for driving an autonomously driving motor vehicle, computer program product and motor vehicle
DE112020000413T5 (en) 2019-12-03 2021-11-04 Nvidia Corporation DETECTION OF ORIENTATION POINTS USING CURVE FITTING FOR APPLICATIONS FOR AUTONOMOUS DRIVING
US20210350046A1 (en) 2020-05-07 2021-11-11 Joby Elevate, Inc. Systems and Methods for Simulating Aircraft Systems

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017208692A1 (en) 2017-05-23 2018-11-29 Audi Ag Method for providing training data for a functional test of a recognition device and database system
DE102018003130A1 (en) 2018-04-17 2019-10-17 Psa Automobiles Sa Testing a vehicle with simulated road users
US20200209858A1 (en) 2018-12-31 2020-07-02 Luminar Technologies, Inc. Generating environmental parameters based on sensor data using machine learning
DE102019124504A1 (en) 2019-09-12 2021-04-01 Bayerische Motoren Werke Aktiengesellschaft Method and device for simulating and evaluating a sensor system for a vehicle as well as method and device for designing a sensor system for environment detection for a vehicle
DE112020000413T5 (en) 2019-12-03 2021-11-04 Nvidia Corporation DETECTION OF ORIENTATION POINTS USING CURVE FITTING FOR APPLICATIONS FOR AUTONOMOUS DRIVING
DE102021100696A1 (en) 2020-02-14 2021-08-19 GM Global Technology Operations LLC PROCEDURES, SYSTEMS AND DEVICES FOR EDGE-BASED NOTIFICATION BY CROWDSOURCED LIVE STREAMED FLEET COMMUNICATION
DE102020202650A1 (en) 2020-03-02 2021-09-02 Psa Automobiles Sa Computer-implemented method for route calculation for an autonomously driving motor vehicle, method for driving an autonomously driving motor vehicle, computer program product and motor vehicle
US20210350046A1 (en) 2020-05-07 2021-11-11 Joby Elevate, Inc. Systems and Methods for Simulating Aircraft Systems

Similar Documents

Publication Publication Date Title
DE102017126877B4 (en) motor vehicle
DE102018121595B4 (en) UNSUPERVISED TRAINING OF AGENTS FOR AUTONOMOUS DRIVING APPLICATIONS
DE102020111682A1 (en) SYSTEMS AND METHODS FOR IMPLEMENTING AN AUTONOMOUS VEHICLE REACTION TO A SENSOR FAILURE
DE102020129456A1 (en) TRAJECTORY PREDICTION FROM A PRECALCULATED OR DYNAMICALLY GENERATED BANK OF TRAJECTORIES
DE102018102027A1 (en) EFFICIENT SITUATION AWARENESS THROUGH EVENT GENERATION AND EPISODIC STORAGE FOR AUTONOMOUS DRIVE SYSTEMS
DE102016212700A1 (en) Method and system for controlling a vehicle
DE102016219455A1 (en) Motor vehicle, method and active infrastructure for checking an environment detection of a motor vehicle
DE102020119541A1 (en) DETECTING VEHICLE OPERATING CONDITIONS
WO2013029722A2 (en) Method for representing surroundings
DE102020117376A1 (en) GENERATION OF A VEHICLE IMAGE
DE102014225804A1 (en) Assistance in driving a vehicle
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
DE102022112059B3 (en) Method, system and computer program product for calibrating and validating a driver assistance system (ADAS) and/or an automated driving system (ADS)
DE102019112649A1 (en) DEVICE AND METHOD FOR IMPROVING RADAR BEAM FORMING
DE102021124913A1 (en) METRIC BACKPROPAGATION FOR EVALUATION OF SUBSYSTEMS PERFORMANCE
DE102021125166A1 (en) DETERMINATION OF CROSS WIND RISKS
DE102019114707A1 (en) System and method for detecting objects in an autonomous vehicle
DE102021131991A1 (en) VEHICLE SENSOR CLEANING AND COOLING
DE102019114792A1 (en) SYSTEM AND METHOD FOR AUTONOMOUSLY CONTROLLING A PATH OF A VEHICLE
DE102019114626B4 (en) Motor vehicle with a system for checking hardware in a motor vehicle
DE112022001861T5 (en) MOTION CONSISTENCY MEASUREMENT FOR THE OPERATION OF AN AUTONOMOUS VEHICLE
DE102021122407A1 (en) SEGMENTATION AND CLASSIFICATION OF POINT CLOUD DATA
DE102021104323A1 (en) RIGHT OF RIGHT DECISION OF A VEHICLE
DE102021205230A1 (en) HAZARD DETECTION ENSEMBLE ARCHITECTURE SYSTEM AND PROCEDURE
DE102020122086A1 (en) MEASURING CONFIDENCE IN DEEP NEURAL NETWORKS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication