DE102022118631A1 - Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) - Google Patents
Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) Download PDFInfo
- Publication number
- DE102022118631A1 DE102022118631A1 DE102022118631.8A DE102022118631A DE102022118631A1 DE 102022118631 A1 DE102022118631 A1 DE 102022118631A1 DE 102022118631 A DE102022118631 A DE 102022118631A DE 102022118631 A1 DE102022118631 A1 DE 102022118631A1
- Authority
- DE
- Germany
- Prior art keywords
- sensors
- adas
- module
- ads
- scenario
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000004088 simulation Methods 0.000 claims abstract description 55
- 238000012360 testing method Methods 0.000 claims abstract description 24
- 238000009434 installation Methods 0.000 claims abstract description 10
- 230000002123 temporal effect Effects 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 20
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000013473 artificial intelligence Methods 0.000 claims description 12
- 238000011156 evaluation Methods 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 6
- 230000002787 reinforcement Effects 0.000 claims description 6
- 230000001939 inductive effect Effects 0.000 claims description 5
- 210000002569 neuron Anatomy 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000011161 development Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000010200 validation analysis Methods 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
- G08G1/096775—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Biomedical Technology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft Verfahren zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien, wobei ein Szenario ein Verkehrsgeschehen in einer zeitlichen Sequenz darstellt, umfassend:- Erfassen von realen Sensordaten (250) einer Umgebung eines sich bewegenden Objekts (10) mittels Sensoren (22) einer Sensoreinrichtung (20) des sich bewegenden Objekts (10);- Generieren zumindest eines Szenarios aus den realen Sensordaten (250);- Festlegen einer bestimmten Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren (22);- Generieren einer Simulationsumgebung (340), wobei die Simulationsumgebung (340) zumindest das generierte Szenario, ein virtuelles Modell des Objekts (10) und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung (20) umfasst;- Simulieren von virtuellen Sensordaten (350) für die generierte Simulationsumgebung (340);- Übermitteln der virtuellen Sensordaten (350) an ein ADAS/ADS-Modul (30) des sich bewegenden Objekts (10);- Validieren, Testen und/oder Trainieren von zumindest einer Funktion des ADAS/ADS-Systems.The invention relates to methods for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a variety of scenarios, wherein a scenario represents a traffic situation in a temporal sequence, comprising: - Acquiring real sensor data (250) of an environment moving object (10) by means of sensors (22) of a sensor device (20) of the moving object (10); - generating at least one scenario from the real sensor data (250); - determining a specific configuration of a parameterizable virtual model of the sensor device (20 ) by selecting parameters such as the number, the sensor types and the installation positions of the sensors (22); - Generating a simulation environment (340), the simulation environment (340) containing at least the generated scenario, a virtual model of the object (10) and the specified Configuration of the parameterizable virtual model of the sensor device (20) includes; - simulating virtual sensor data (350) for the generated simulation environment (340); - transmitting the virtual sensor data (350) to an ADAS/ADS module (30) of the moving object (10);- Validating, testing and/or training at least one function of the ADAS/ADS system.
Description
Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS).The invention relates to a method, a system and a computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS).
Moderne Fahrzeuge sind mit einer Vielzahl von Fahrassistenzsystemen bzw. automatisierten Fahrassistenzfunktionen ausgestattet, um den Fahrer beim Fahren zu unterstützen und seine Sicherheit zu erhöhen. Fahrassistenzsysteme unterstützen beispielsweise die Geschwindigkeits- und Abstandsregelung sowie Spurhalte- und Spurwechselfunktionen. Hierbei kann eine bestimmte maximale Geschwindigkeit eingestellt werden, die nicht überschritten wird, solange die Geschwindigkeitsbegrenzungsfunktion aktiviert ist. Für die Abstandsregelung, bei der ein bestimmter Abstand insbesondere zu einem vorausfahrenden Fahrzeug eingestellt wird, werden Radar, aber auch Kamerasysteme eingesetzt. Hierdurch kann der Abstand zu vorausfahrenden Fahrzeugen, aber auch zu Fahrzeugen im Seitenbereich überwacht werden. Dies führt zu einem verbesserten Fahrkomfort und einer höheren Sicherheit insbesondere bei Fahrten auf der Autobahn und bei Überholmanövern.Modern vehicles are equipped with a variety of driving assistance systems or automated driving assistance functions to support the driver while driving and increase his safety. Driving assistance systems support, for example, speed and distance control as well as lane keeping and lane changing functions. A specific maximum speed can be set, which will not be exceeded as long as the speed limit function is activated. Radar and camera systems are used for distance control, in which a certain distance is set, especially to a vehicle in front. This allows the distance to vehicles in front, but also to vehicles in the side area, to be monitored. This leads to improved driving comfort and greater safety, especially when driving on the motorway and during overtaking maneuvers.
Dieser Trend zu Fahrerassistenzsystemen (engl. Advanced Driver Assistance System, ADAS) und automatisierten Fahrsystemen (Automated Driving Systems, ADS) bei Kraftfahrzeugen, aber auch bei Luftfahrzeugen oder Wasserfahrzeugen erfordert jedoch umfangreiche Absicherungsstrategien, da die Verantwortung über die Fahrzeugführung nicht mehr uneingeschränkt beim Fahrer liegt, sondern aktive Funktionen von Rechnereinheiten im Fahrzeug übernommen werden. Daher muss sichergestellt werden, dass autonom sich bewegende Objekte eine sehr geringere Fehlerrate beim Fahrverhalten aufweisen. Die Erkennung und Klassifizierung von Objekten und die Interpretation von Verkehrsszenarien im Umfeld eines Fahrzeugs sind wichtige Voraussetzungen für eine sichere Funktionsfähigkeit von ADAS/ADS-Systemen. Hierfür ist das gezielte Testen und Trainieren der Fahrerassistenzsysteme und automatisierten Fahrsysteme sowohl mit Extrem- und Ausnahmesituationen (engl. Corner-Cases) als auch mit alltäglichen Situationen erforderlich.However, this trend towards driver assistance systems (Advanced Driver Assistance System, ADAS) and automated driving systems (ADS) in motor vehicles, but also in aircraft or watercraft, requires extensive security strategies, since responsibility for driving the vehicle no longer lies entirely with the driver , but active functions are taken over by computer units in the vehicle. Therefore, it must be ensured that autonomously moving objects have a very low error rate in driving behavior. The detection and classification of objects and the interpretation of traffic scenarios in the area around a vehicle are important prerequisites for the safe functionality of ADAS/ADS systems. This requires targeted testing and training of driver assistance systems and automated driving systems both in extreme and exceptional situations (corner cases) as well as in everyday situations.
Mit der zunehmenden Leistungsfähigkeit von ADAS/ADS-Systemen steigt auch die Anzahl der Fahrszenarien, die von den Systemen im Straßenverkehr bewältigt werden müssen. Für die Sicherstellung eines sicheren, komfortablen und effizienten Verhaltens von ADAS/ADS-Systemen durchlaufen daher einzelne Funktionen und das Gesamtsystem während der Fahrzeugentwicklung einen Validierungsprozess.As the performance of ADAS/ADS systems increases, the number of driving scenarios that the systems have to handle in road traffic also increases. To ensure safe, comfortable and efficient behavior of ADAS/ADS systems, individual functions and the entire system go through a validation process during vehicle development.
Allerdings stellt eine solche Validierung eine große Herausforderung bei der Integration moderner ADAS/ADS-Systemen in ein Fahrzeug dar aufgrund eines funktionalen Spezifikationsdefizits von Fahrassistenzsystemen. Während in der Automobilindustrie für konventionelle Systeme ein anforderungsbasierter Testprozess etabliert ist, bei dem Testfälle anhand von Testspezifikationen implementiert werden, fehlt dies bisher für ADAS/ADA-Systeme, da im Gegensatz zu konventionellen Systemen eine wesentlich größere Anzahl von Einflussgrößen zu berücksichtigen ist, wie insbesondere die Fahrumgebung, die mittels Sensoren erfasst wird.However, such validation represents a major challenge when integrating modern ADAS/ADS systems into a vehicle due to a functional specification deficit of driving assistance systems. While a requirements-based test process has been established for conventional systems in the automotive industry, in which test cases are implemented based on test specifications, this is currently missing for ADAS/ADA systems because, in contrast to conventional systems, a significantly larger number of influencing variables have to be taken into account, such as in particular the driving environment, which is recorded using sensors.
Aufgrund der Herausforderungen bei der Validierung von ADAS/ADS-Systemen werden neben den bekannten Methoden daher neue Ansätze benötigt, um den Fahrzeugentwicklungsprozess mit vertretbarem Aufwand und Kosten durchzuführen. Es ist daher erstrebenswert, zunehmend virtuelle Verfahren zur Simulation der Validierung von ADAS/ADS-Systemen zu verwenden und diese virtuelle Simulationsverfahren in einer Weise zu gestalten, dass eine objektive Vergleichbarkeit von verschiedenen ADAS/ADS-Systemen mit sich unterscheidenden Funktionalitäten hinsichtlich der Leistungsfähigkeit und Sicherheit möglich ist. Mittels Datensimulationen kann beispielsweise ein Autobahnabschnitt in der realen Welt simuliert werden, der für das Training datengetriebener KI-Modelle eignet ist. Außerdem kann bei den durch Simulation erzeugten Daten automatisch eine Datenannotation vorgenommen werden.Due to the challenges in validating ADAS/ADS systems, new approaches are required in addition to the known methods in order to carry out the vehicle development process with reasonable effort and costs. It is therefore desirable to increasingly use virtual methods to simulate the validation of ADAS/ADS systems and to design these virtual simulation methods in a way that enables objective comparability of different ADAS/ADS systems with different functionalities in terms of performance and safety is possible. Data simulations can be used, for example, to simulate a section of highway in the real world that is suitable for training data-driven AI models. In addition, data annotation can be automatically carried out on the data generated by simulation.
Für die Entwicklung und Funktionsfähigkeit von ADAS/ADS-Systemen spielt die Sensorik des sich bewegenden Objekts bzw. des Fahrzeugs zur Wahrnehmung seiner Umgebung eine entscheidende Rolle. Allerdings sind in der frühen Entwicklungsphase eines ADAS/ADS-Systems beispielsweise für ein Fahrzeugmodell die zu verwendenden Sensortypen sowie deren Sensorpositionierung am Fahrzeug noch nicht festgelegt oder nur mit einem hohen Toleranzwert bestimmt. Bestehende Sensorsysteme für andere Fahrzeugmodelle können zwar verwendet werden, sind allerdings nur eingeschränkt für eine Validierung eines ADAS/ADS-Systems für ein neues Fahrzeugmodell nutzbar, beispielsweise aufgrund des vom Sensortyp und der Einbauposition des Sensors abhängigen Blickfeldes (engl. field of view). Zudem ist die Anbringung, die Justierung und die Verkabelung eines Sensorsystems an einem Testfahrzeug mit einem hohen Aufwand verbunden. Des Weiteren ist neben einer virtuellen Simulation von Sensorsets in Verbindung mit ADAS/ADS-Systemen eine Bewertung durch einen realen Fahrer insbesondere bezogen auf das längs- und querdynamische Fahrverhalten eines Fahrzeugs erforderlich. Da reale Fahrmanöver mit einem Fahrer zeit- und kostenintensiv sind, ist es erstrebenswert, diese Fahrmanöver mit einem Fahrzeug durchzuführen, das bereits über eine optimale Sensorik für das zu testende ADAS/ADS-System verfügt.The sensors of the moving object or vehicle to perceive its surroundings play a crucial role in the development and functionality of ADAS/ADS systems. However, in the early development phase of an ADAS/ADS system, for example for a vehicle model, the sensor types to be used and their sensor positioning on the vehicle have not yet been determined or are only determined with a high tolerance value. Existing sensor systems for other vehicle models can be used, but their use is limited for validating an ADAS/ADS system for a new vehicle model, for example due to the field of view depending on the sensor type and the installation position of the sensor. In addition, attaching, adjusting and wiring a sensor system to a test vehicle requires a lot of effort. Furthermore, in addition to a virtual simulation of sensor sets in conjunction with ADAS/ADS systems, an evaluation by a real driver is required, particularly with regard to the longitudinal and lateral dynamic driving behavior of a vehicle. Since real driving maneuvers with a driver are time-consuming and cost-intensive, it is desirable to do this driving maneuvers with a vehicle that already has optimal sensors for the ADAS/ADS system being tested.
Die
Die
Die
Die
Die
Eine Aufgabe der vorliegenden Erfindung besteht daher darin, Möglichkeiten zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) anzugeben, so dass der Validierungsprozess weniger Zeit benötigt und mit einer verbesserten Effizienz durchgeführt werden kann, um die Sicherheit von ADAS/ADS-Systemen zu erhöhen und Ressourcen sowie Kosten einsparen zu können.An object of the present invention is therefore to provide options for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) so that the validation process requires less time and can be carried out with improved efficiency in order to ensure the safety of ADAS/ ADS systems and to be able to save resources and costs.
Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 11, und hinsichtlich eines Computerprogrammprodukt durch die Merkmale des Patentanspruchs 15 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.This object is achieved according to the invention with regard to a method by the features of patent claim 1, with regard to a system by the features of patent claim 11, and with regard to a computer program product by the features of patent claim 15. The further claims relate to preferred embodiments of the invention.
Gemäß einem ersten Aspekt betrifft die Erfindung ein Verfahren zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien, wobei ein Szenario ein Verkehrsgeschehen in einer zeitlichen Sequenz darstellt, umfassend:
- - Erfassen von realen Sensordaten einer Umgebung eines sich bewegenden Objekts mittels Sensoren einer Sensoreinrichtung des sich bewegenden Objekts;
- - Übermitteln der realen Sensordaten an ein Szenarienmodul;
- - Generieren zumindest eines Szenarios aus den realen Sensordaten für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts mittels einer Softwareapplikation des Szenarienmoduls;
- - Übermitteln des generierten Szenarios an ein Simulationsmodul;
- - Festlegen einer bestimmten Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren;
- - Generieren einer Simulationsumgebung, wobei die Simulationsumgebung zumindest das generierte Szenario, ein virtuelles Modell des Objekts und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung umfasst;
- - Simulieren von virtuellen Sensordaten für die generierte Simulationsumgebung;
- - Übermitteln der virtuellen Sensordaten an ein ADAS/ADS-Modul des sich bewegenden Objekts, wobei das ADAS/ADS-Modul zumindest ein ADAS/ADS-System umfasst;
- - Validieren, Testen und/oder Trainieren von zumindest einer Funktion des ADAS/ADS-Systems.
- - Acquiring real sensor data of an environment of a moving object using sensors of a sensor device of the moving object;
- - Transmitting the real sensor data to a scenario module;
- - Generating at least one scenario from the real sensor data for traffic events in the area surrounding the moving object using a software application of the scenario module;
- - Transmitting the generated scenario to a simulation module;
- - Determining a specific configuration of a parameterizable virtual model of the sensor device by selecting parameters such as the number, the sensor types and the installation positions of the sensors;
- - Generating a simulation environment, the simulation environment comprising at least the generated scenario, a virtual model of the object and the specified configuration of the parameterizable virtual model of the sensor device;
- - Simulating virtual sensor data for the generated simulation environment;
- - transmitting the virtual sensor data to an ADAS/ADS module of the moving object, the ADAS/ADS module comprising at least one ADAS/ADS system;
- - Validate, test and/or train at least one function of the ADAS/ADS system.
In einer Weiterentwicklung ist vorgesehen, das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems bezogen auf die virtuellen Sensordaten durch Sensoren wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren zu messen und die Messdaten der Sensoren an ein Bewertungsmodul weiterzugeben.In a further development, it is planned to measure the behavior of the respective function of the ADAS/ADS system in relation to the virtual sensor data using sensors such as, in particular, acceleration sensors, speed sensors, capacitive sensors, inductive sensors, speed sensors, torque sensors, voltage sensors and to transmit the measurement data from the sensors Pass on the evaluation module.
In einer vorteilhaften Ausführungsform ist vorgesehen, dass das Bewertungsmodul eine Softwareapplikation umfasst, die aus den Messdaten Testergebnisse ableitet und diese bewertet.In an advantageous embodiment it is provided that the evaluation module includes a software application that derives test results from the measurement data and evaluates them.
In einer weiteren Ausführungsform ist vorgesehen, dass die Softwareapplikation Optimierungsalgorithmen umfasst, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung eine optimale Konfiguration der Sensoreinrichtung für eine hohe Anzahl an Szenarien berechnet werden kann.In a further embodiment, it is provided that the software application includes optimization algorithms with which an optimal configuration of the sensor device for a large number of scenarios can be calculated from the test results for the various configurations of the sensor device.
Insbesondere ist vorgesehen, dass die Sensoren der Sensoreinrichtung ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich und/oder im IR-Bereich und/oder im UV-Bereich, und/oder GPS-Systeme umfassen.In particular, it is provided that the sensors of the sensor device include one or more radar systems with one or more radar sensors, one or more LIDAR systems for optical distance and speed measurement, one or more image-recording 2D/3D cameras in the visible range and/or in the IR Range and/or in the UV range, and/or GPS systems.
Vorteilhafterweise umfasst die Softwareapplikation des Szenarienmoduls Algorithmen der Künstlichen Intelligenz und des Maschinenlernens, insbesondere Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV), zur Generierung von Szenarien aus den aufgenommenen realen Sensordaten.Advantageously, the software application of the scenario module includes algorithms of artificial intelligence and machine learning, in particular deep learning with, for example, at least one convolutional neural network and/or at least one reinforcement learning agent (LV) for generation of scenarios from the recorded real sensor data.
In einer weiteren Ausführungsform ist vorgesehen, dass die Softwareapplikation des Simulationsmoduls Algorithmen der Künstlichen Intelligenz und des Maschinenlernens, insbesondere Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV), zur Generierung der Simulationsumgebung und der virtuellen Sensordaten umfasst.In a further embodiment it is provided that the software application of the simulation module uses algorithms of artificial intelligence and machine learning, in particular deep learning with, for example, at least one convolutional neural network and/or at least one reinforcement learning agent , LV), for generating the simulation environment and the virtual sensor data.
In einer Weiterentwicklung ist vorgesehen, dass das virtuelle Modell des Objekts und/oder das parametrisierbare virtuelle Modell der Sensoreinrichtung als digitaler Zwilling ausgebildet ist/sind.In a further development it is provided that the virtual model of the object and/or the parameterizable virtual model of the sensor device is/are designed as a digital twin.
Insbesondere sind das Szenarienmodul und das Simulationsmodul in einer Cloud-Computing-Infrastruktur integriert.In particular, the scenario module and the simulation module are integrated in a cloud computing infrastructure.
Vorteilhafterweise ist für die Kommunikation der Sensoreinrichtung mit dem Szenarienmodul bzw. der Cloud-Computing-Infrastruktur eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung vorgesehen für eine Datenübermittlung in Echtzeit.Advantageously, a 5G mobile connection or 6G mobile connection is provided for the communication of the sensor device with the scenario module or the cloud computing infrastructure for data transmission in real time.
Gemäß einem zweiten Aspekt stellt die Erfindung ein System zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien bereit. Ein Szenario stellt ein Verkehrsgeschehen in einer zeitlichen Sequenz dar. Das System umfasst ein sich bewegendes Objekt mit einer Sensoreinrichtung und einem ADAS/ADS-Modul, ein Szenarienmodul und ein Simulationsmodul. Die Sensoreinrichtung ist ausgebildet, reale Sensordaten einer Umgebung des sich bewegenden Objekts mittels Sensoren zu erfassen und die realen Sensordaten an das Szenarienmodul zu übermitteln, wobei das Szenarienmodul ausgebildet ist, zumindest ein Szenario aus den realen Sensordaten für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts mittels einer Softwareapplikation zu generieren und das generierte Szenario an ein Simulationsmodul zu übermitteln. Das Simulationsmodul ist ausgebildet, eine bestimmte Konfiguration eines parametrisierbaren virtuellen Modells der Sensoreinrichtung durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren festzulegen und eine Simulationsumgebung zu generieren, wobei die Simulationsumgebung zumindest das generierte Szenario, ein virtuelles Modell des Objekts und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung umfasst. Des Weiteren ist das Simulationsmodul ausgebildet, virtuelle Sensordaten für die generierte Simulationsumgebung zu simulieren und die virtuellen Sensordaten an das ADAS/ADS-Modul des sich bewegenden Objekts zu übermitteln. Das ADAS/ADS-Modul umfasst zumindest ein ADAS/ADS-System und ist ausgebildet, zumindest eine Funktion des ADAS/ADS-Systems zu validieren, zu testen und/oder zu trainieren.According to a second aspect, the invention provides a system for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) for a variety of scenarios. A scenario represents a traffic event in a temporal sequence. The system includes a moving object with a sensor device and an ADAS/ADS module, a scenario module and a simulation module. The sensor device is designed to detect real sensor data of an environment of the moving object using sensors and to transmit the real sensor data to the scenario module, wherein the scenario module is designed to contain at least one scenario from the real sensor data for the traffic situation in the area of the moving object to be generated using a software application and to transmit the generated scenario to a simulation module. The simulation module is designed to determine a specific configuration of a parameterizable virtual model of the sensor device by selecting parameters such as the number, the sensor types and the installation positions of the sensors and to generate a simulation environment, the simulation environment containing at least the generated scenario, a virtual model of the object and includes the specified configuration of the parameterizable virtual model of the sensor device. Furthermore, the simulation module is designed to simulate virtual sensor data for the generated simulation environment and to transmit the virtual sensor data to the ADAS/ADS module of the moving object. The ADAS/ADS module includes at least one ADAS/ADS system and is designed to validate, test and/or train at least one function of the ADAS/ADS system.
In einer Weiterentwicklung ist vorgesehen, dass das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems bezogen auf die virtuellen Daten durch Sensoren wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren gemessen wird und die Messdaten der Sensoren an ein Bewertungsmodul weitergegeben werden.In a further development it is provided that the behavior of the respective function of the ADAS/ADS system is measured in relation to the virtual data by sensors such as in particular acceleration sensors, speed sensors, capacitive sensors, inductive sensors, speed sensors, torque sensors, voltage sensors and the measurement data of the sensors passed on to an evaluation module.
In einer vorteilhaften Ausführungsform ist vorgesehen, dass das Bewertungsmodul eine Softwareapplikation umfasst, die aus den Messdaten Testergebnisse ableitet und diese bewertet, wobei die Softwareapplikation Optimierungsalgorithmen umfasst, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung eine optimale Konfiguration der Sensoreinrichtung für eine hohe Anzahl an Szenarien berechnet werden kann.In an advantageous embodiment, it is provided that the evaluation module comprises a software application which derives test results from the measurement data and evaluates them, the software application comprising optimization algorithms with which an optimal configuration of the sensor device for a high number of test results for the different configurations of the sensor device of scenarios can be calculated.
In einer weiteren Ausführungsform ist vorgesehen, dass die Sensoren der Sensoreinrichtung ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich und/oder im IR-Bereich und/oder im UV-Bereich, und/oder GPS-Systeme umfassen.In a further embodiment it is provided that the sensors of the sensor device have one or more radar systems with one or more radar sensors, one or more LIDAR systems for optical distance and speed ness measurement, one or more image-recording 2D/3D cameras in the visible range and/or in the IR range and/or in the UV range, and/or GPS systems.
Gemäß einem dritten Aspekt betrifft die Erfindung ein Computerprogrammprodukt, umfassend einen ausführbaren Programmcode, der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.According to a third aspect, the invention relates to a computer program product comprising an executable program code which, when executed, carries out the method according to the first aspect.
Nachfolgend wird die Erfindung anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert.The invention is explained in more detail below using an exemplary embodiment shown in the drawing.
Dabei zeigt:
-
1 ein Blockdiagramm zur Erläuterung eines Ausführungsbeispiels eines erfindungsgemäßen Systems; -
2 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte eines erfindungsgemäßen Verfahrens; -
3 ein Computerprogrammprodukt gemäß einer Ausführungsform des dritten Aspekts der Erfindung.
-
1 a block diagram to explain an exemplary embodiment of a system according to the invention; -
2 a flowchart to explain the individual method steps of a method according to the invention; -
3 a computer program product according to an embodiment of the third aspect of the invention.
Zusätzliche Merkmale, Aspekte und Vorteile der Erfindung oder ihrer Ausführungsbeispiele werden durch die ausführliche Beschreibung in Verbindung mit den Ansprüchen ersichtlich.Additional features, aspects and advantages of the invention or its embodiments will become apparent from the detailed description taken in conjunction with the claims.
Für das Testen, Trainieren und Validieren von Fahrerassistenzsystemen (ADAS) und automatisierten Fahrsystemen (ADS) werden zunehmend simulierte Verkehrsszenarien, die durch Programmierung erstellt werden, verwendet. Als Szenario wird im Rahmen der Erfindung ein Verkehrsgeschehen in einer zeitlichen Sequenz bezeichnet. Ein Beispiel für ein Szenario ist das Befahren einer Autobahnbrücke, das Abbiegen auf einer Abbiegespur, das Durchfahren eines Tunnels, das Einbiegen in einen Kreisverkehr oder das Halten vor einem Fußgängerübergang.Simulated traffic scenarios created through programming are increasingly being used to test, train and validate driver assistance systems (ADAS) and automated driving systems (ADS). In the context of the invention, a scenario is a traffic event in a temporal sequence. An example of a scenario is driving on a highway bridge, turning in a turning lane, driving through a tunnel, turning into a roundabout or stopping in front of a pedestrian crossing.
Um Fahrerassistenzsysteme (ADAS) und automatisierte Fahrsysteme (ADS) in einem Kraftfahrzeug einsetzen zu können, müssen diese für einen verlässlichen Einsatz validiert werden. Ziel der Validierung ist es, die Zuverlässigkeit und Robustheit eines Fahrerassistenzsystems (ADAS) bzw. eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Verkehrssituationen und Verkehrsszenarien nachzuweisen und anschließend eine Freigabe zu erteilen.In order to be able to use driver assistance systems (ADAS) and automated driving systems (ADS) in a motor vehicle, they must be validated for reliable use. The aim of validation is to demonstrate the reliability and robustness of a driver assistance system (ADAS) or an automated driving system (ADS) for a variety of traffic situations and traffic scenarios and then to grant approval.
Unter einem „Modul“ kann daher im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Beispielsweise ist das Modul speziell dazu eingerichtet, die Programmbefehle derart auszuführen, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren oder zu realisieren.In connection with the invention, a “module” can therefore be understood to mean, for example, a processor and/or a memory unit for storing program instructions. For example, the module is specifically set up to execute the program commands in order to implement or realize the method according to the invention or a step of the method according to the invention.
Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung oder ein leistungsfähiger Computer verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU), einen Mikroprozessor oder einen Mikrocontroller, beispielsweise eine anwendungsspezifische integrierte Schaltung oder einen digitalen Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. Auch kann unter einem Prozessor ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, der Komponente, der Module, oder anderer Aspekte und/oder Teilaspekte der Erfindung realisiert. Außerdem können hochparallele Recheneinheiten und leistungsfähige Grafikmodule vorgesehen sein.In connection with the invention, a “processor” can be understood to mean, for example, a machine or an electronic circuit or a powerful computer. A processor can in particular be a main processor (Central Processing Unit, CPU), a microprocessor or a microcontroller, for example an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc . A processor can also be understood as a virtualized processor, a virtual machine or a soft CPU. For example, it can also be a programmable processor that is equipped with configuration steps for carrying out the said method according to the invention or is configured with configuration steps in such a way that the programmable processor has the features of the method, the component, the modules, or other aspects and/or other aspects according to the invention. or partial aspects of the invention are realized. In addition, highly parallel computing units and powerful graphics modules can be provided.
Unter einer „Speichereinheit“ oder „Speichermodul“ und dergleichen kann im Zusammenhang mit der Erfindung beispielsweise ein flüchtiger Speicher in Form von Arbeitsspeicher (engl. Random-Access Memory, RAM) oder ein dauerhafter Speicher wie eine Festplatte oder ein Datenträger oder z. B. ein wechselbares Speichermodul verstanden werden. Es kann sich bei dem Speichermodul aber auch um eine cloudbasierte Speicherlösung handeln.In connection with the invention, a “memory unit” or “memory module” and the like can, for example, be a volatile memory in the form of random access memory (RAM) or a permanent memory such as a hard drive or a data carrier or, for example. B. a replaceable memory module can be understood. The storage module can also be a cloud-based storage solution.
Das sich bewegende Objekt 10 umfasst eine Sensoreinrichtung 20 mit Sensoren 22, die reale Sensordaten 250 von der Umgebung des Objekts 10 wie Straßenmarkierungen, Fahrzeuge, Personen, Leitplanken, etc. erfassen und an ein Szenarienmodul 200 übermitteln. Neben der Sensoreinrichtung 20 weist das Objekt 10 ein ADAS/ADS-Modul 30 auf, das Softwareapplikationen und Speichereinheiten für ADAS/ADS-Systeme umfasst.The moving
Unter Sensordaten 250 sind im Zusammenhang mit der Erfindung sowohl Rohdaten als auch bereits aufbereitete Daten aus den Messergebnissen der Sensoren 22 sowie gegebenenfalls weiteren Datenquellen zu verstehen.In connection with the invention,
Die Sensoren 22 der Sensoreinrichtung 20 können insbesondere ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme (engl.: Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich, aber auch im IR- und UV-Bereich, und/oder GPS-Systeme umfassen.The
Insbesondere ist die 2D/3D-bildaufnehmende Kamera als RGB-Kamera im sichtbaren Bereich mit den Grundfarben Blau, Grün und Rot ausgebildet. Es kann aber auch noch zusätzlich eine UV-Kamera im ultravioletten Bereich und/oder eine IR-Kamera im infraroten Bereich vorgesehen sein. Die sich durch ihr Aufnahmespektrum unterscheidenden Kameras können somit unterschiedliche Lichtverhältnisse in dem Aufnahmebereich Modellen. Des Weiteren ist vorgesehen, dass eine 3D-Kamera als Stereokamera ausgebildet ist.In particular, the 2D/3D image-recording camera is designed as an RGB camera in the visible range with the primary colors blue, green and red. However, a UV camera in the ultraviolet range and/or an IR camera in the infrared range can also be provided. The cameras, which differ in their recording spectrum, can therefore model different lighting conditions in the recording area. Furthermore, it is envisaged that a 3D camera is designed as a stereo camera.
Die Aufnahmefrequenz der Sensoreinrichtung 20 ist insbesondere für schnelle Geschwindigkeiten des Objekts 10 ausgelegt und kann Sensordaten 250 mit einer hohen Bildaufnahmefrequenz aufzunehmen. Des Weiteren kann die Sensoreinrichtung 20 für die Erfassung von akustischen Signalen mit einem Mikrofon ausgestattet sein. Hierdurch können Abrollgeräusche der Reifen oder Motorgeräusche aufgenommen werden.The recording frequency of the
Zudem kann vorgesehen sein, dass die Sensoreinrichtung 20 automatisch den Bildaufnahmeprozess dann startet, wenn sich eine flächenmäßig signifikante Änderung im Aufnahmebereich der Sensoreinrichtung 20 ergibt, beispielsweise wenn eine deutliche Änderung einer Verkehrssituation erkennbar ist. Hierdurch wird ein selektiver Datenerfassungsprozess ermöglicht und nur relevante Sensordaten 250 werden von dem Szenarienmodul 200 verarbeitet. Hierdurch können Rechenkapazitäten effizienter genutzt werden.In addition, it can be provided that the
Insbesondere ist vorgesehen, als Kameratyp für eine oder mehrere Kameras eine wetterfeste Action-Kamera zu verwenden, die insbesondere im Außenbereich des Objekts 10 angeordnet sein kann. Eine Action-Kamera verfügt über weitwinkelige Fischaugen-Objektive, wodurch es möglich ist, einen sichtbaren Radius von ca. 180° zu erreichen. Hierdurch kann eine vorausliegende Fahrbahn umfassend abgebildet werden. Action-Kameras können üblicherweise Videos in Full HD (1.920 x 1.080 Pixel) aufzeichnen, jedoch können auch Action-Kameras in Ultra HD bzw. 4K (mindestens 3.840 x 2.160 Pixel) eingesetzt werden, wodurch sich eine deutliche Qualitätssteigerung in der Bildqualität ergibt. Die Bildaufnahmefrequenz beträgt üblicherweise 60 Bilder pro Sekunde in 4K und bis zu 240 pro Sekunde in Full HD. Außerdem kann noch ein integrierter Bildstabilisator vorgesehen sein. Zudem sind Action-Kameras häufig mit einem integrierten Mikrofon ausgestattet. Um Hintergrundgeräusche gezielt auszublenden, können darüber hinaus Verfahren der differentiellen Signalverarbeitung verwendet werden.In particular, it is intended to use a weatherproof action camera as the camera type for one or more cameras, which can be arranged in particular in the outside area of the
Die Anbringungsposition einer Kamera an dem Objekt 10 bestimmt, welcher Aufnahmebereich von der Kamera aufgenommen werden kann. Es kann insbesondere vorgesehen sein, dass die Aufnahmebereiche von zwei oder mehr Kameras sich überlappen, um beispielsweise im Rahmen der weiteren Bildverarbeitung eine Panoramadarstellung zu erzeugen. Hierdurch kann die räumliche Umgebung eines sich bewegenden Objekts 10 umfassend erfasst werden. Neben dem anzustrebenden Aufnahmebereich sind allerdings bei einem Objekt 10 wie einem Fahrzeug auch die technisch möglichen Anbringungspositionen bzw. Fragen bezogen auf eine sinnvolle Integration in das Design einer Karosserie zu berücksichtigen.The attachment position of a camera on the
Radarsensoren können für längere Strecken bis zu 250 Meter verwendet werden und haben den Vorteil, gegenüber Wetter- und Lichtverhältnissen unabhängig zu sein. Die Leistungsfähigkeit eines Radars hängt von vielen Faktoren ab wie den gewählten Hardwarekomponenten, der Softwareverarbeitung und dem Radarecho. So ist beispielsweise die Radargenauigkeit bei einem geringeren Signal-Rausch-Verhältnis weniger präzise als bei einem hohen Signal-Rausch-Verhältnis. Zudem ist die Einbauposition entscheidend für eine hohe Leistungsfähigkeit eines Radarsensors, da sich Effekte wie eine Mehrwegeausbreitung und eine Verzerrung durch Abdeckungen auf die Detektionsgenauigkeit auswirken. Beispielsweise erscheint bei einer Ungenauigkeit der Azimutmessung die Position eines Zielobjekts gegenüber der tatsächlichen Position versetzt. So ergibt sich durch einen Azimutmessfehler von 1° bei einem hundert Meter entfernten Zielobjekt bereits ein seitlicher Versatz von 1,75 m gegenüber der tatsächlichen Position. Hierdurch kann bei einem autonom fahrenden Fahrzeug ein Fahrmanöver ausgelöst werden, dass der realen Verkehrssituation nicht entspricht. Es ist daher von Bedeutung, dass der Winkelmessfehler eines eingesetzten Radarsensors sehr klein ist.Radar sensors can be used for longer distances of up to 250 meters and have the advantage of being independent of weather and lighting conditions. The performance of a radar depends on many factors such as the selected hardware components, software processing and the radar echo. For example, radar accuracy is less precise with a lower signal-to-noise ratio than with a high signal-to-noise ratio. In addition, the installation position is crucial for the high performance of a radar sensor, as effects such as multipath propagation and distortion caused by covers affect the detection accuracy. For example, if the azimuth measurement is inaccurate, the position of a target object appears offset from the actual position. An azimuth measurement error of 1° for a target object one hundred meters away results in a lateral offset of 1.75 m compared to the actual position. This can result in a driving maneuver in an autonomous vehicle be solved that does not correspond to the real traffic situation. It is therefore important that the angle measurement error of a radar sensor used is very small.
Typischerweise werden Radarsensoren im Stoßfänger eines Fahrzeugs eingebaut. Allerdings kann es durch die Transmissions- und Absorptionseigenschaften des verwendeten Materials zu Verzerrungen des Radarsignals kommen. Daher ist neben dem räumlichen Einbauort auch die Materialumgebung eines Radarsensors wie ein bestimmtes Kunststoff- oder Metallmaterial sowie eine bestimmte Lackierung von Bedeutung. Zudem kann die geometrische Formgebung einer Ummantelung eine Rolle spielen. Insbesondere wird als Einbauort für Fernbereichsradare häufig der Bereich von Markenemblemen gewählt. Da diese jedoch häufig aus Metall bestehen, können sie aufgrund ihrer elektromagnetischen Eigenschaften die Performance eines Radarsensors beeinflussen.Typically, radar sensors are installed in the bumper of a vehicle. However, the transmission and absorption properties of the material used can lead to distortions in the radar signal. Therefore, in addition to the spatial installation location, the material surroundings of a radar sensor, such as a specific plastic or metal material and a specific paint finish, are also important. The geometric shape of a casing can also play a role. In particular, the area of brand emblems is often chosen as the installation location for long-range radars. However, since these are often made of metal, their electromagnetic properties can influence the performance of a radar sensor.
Neben bildaufnehmenden Kameras und Radarsensoren stellen LIDAR-Sensoren einen wichtigen Sensortyp für die Wahrnehmung der Umgebung für hochautomatisiertes und autonomes Fahren dar. Wie mit Kameras und Radarsensoren kann das Umfeld aufgenommen werden und Abstände zu Objekten gemessen werden. Insbesondere 3D-LIDAR-Sensoren können detaillierte Informationen über ein Objekt aufnehmen durch eine hohe Abtastrate. Im Vergleich zu Radarsensoren zeichnen sich LIDAR-Sensoren durch eine höhere Orts- und Tiefenauflösung aus. Bei LIDAR-Sensoren wird zwischen einem mechanischem Scanning-LIDAR mit mechanisch rotierenden Bauteilen für das Scannen eines Laserstrahls und einem SSL-LIDAR (engl. Solid State Lidar) ohne bewegliche Komponenten unterschieden. Ein SLL-LIDAR-System besteht typischerweise aus einer Laserquelle bzw. einer Laserdiode, optischen Elementen wie Linsen und Diffusoren, Strahlsteuerungselementen, Photodetektoren und Signalverarbeitungseinheiten. Der Aufnahmebereich von SLL-LIDAR ist kleiner, aber die Kosten sind geringer und die Zuverlässigkeit ist höher. Ein Der Laserstrahl wird bei SLL-LIDAR mittels mikroelektromechanischer Systeme (MEMS) gesteuert. Zudem wird bei SLL-LIDAR-Systemen noch zwischen Flash-LIDAR mit einer Ausleuchtung des gesamten Aufnahmebereichs für eine Kurz- und Mittelbereichsdetektion und MEMS-basiertem Scanning-LIDAR mit Mikrospiegeln zur Strahlablenkung für die Ferndetektion bzw. Weitwinkeldetektion unterschieden. Flash-LIDAR-Systeme sind hinsichtlich ihrer Reichweite begrenzt und detektieren Objekte in unmittelbarer Nähe eines Fahrzeugs, während Scanning-LIDAR-Systeme für Abstands- und Geschwindigkeitsmessungen von weiter entfernten Objekten geeignet sind. Für die Leistungsfähigkeit eines LIDAR-Systems sind die Reichweite, die Auflösung, das Sichtfeld und die zuverlässige Detektion des reflektierten Lichts entscheidende Parameter.In addition to image-recording cameras and radar sensors, LIDAR sensors are an important type of sensor for perceiving the environment for highly automated and autonomous driving. As with cameras and radar sensors, the environment can be recorded and distances to objects can be measured. In particular, 3D LIDAR sensors can record detailed information about an object through a high sampling rate. Compared to radar sensors, LIDAR sensors are characterized by a higher spatial and depth resolution. When it comes to LIDAR sensors, a distinction is made between a mechanical scanning LIDAR with mechanically rotating components for scanning a laser beam and an SSL LIDAR (Solid State Lidar) without moving components. An SLL LIDAR system typically consists of a laser source or laser diode, optical elements such as lenses and diffusers, beam control elements, photodetectors and signal processing units. The recording range of SLL-LIDAR is smaller, but the cost is lower and the reliability is higher. On The laser beam in SLL-LIDAR is controlled using microelectromechanical systems (MEMS). In addition, SLL LIDAR systems differentiate between flash LIDAR with illumination of the entire recording area for short and medium-range detection and MEMS-based scanning LIDAR with micromirrors for beam deflection for long-range or wide-angle detection. Flash LIDAR systems are limited in range and detect objects in the immediate vicinity of a vehicle, while scanning LIDAR systems are suitable for distance and speed measurements of more distant objects. The range, resolution, field of view and reliable detection of reflected light are crucial parameters for the performance of a LIDAR system.
Des Weiteren ist vorteilhafterweise eine GPS-Verbindung vorgesehen, um den geographischen Standort des Objekts 10 zu ermitteln und diesen den aufgenommenen Sensordaten 250 zuzuordnen.Furthermore, a GPS connection is advantageously provided in order to determine the geographical location of the
Die von der Sensoreinrichtung 20 erfassten realen Sensordaten 250 der Umgebung des Objekts 10 werden an ein Szenarienmodul 200 weitergegeben, um aus den realen Sensordaten 250 ein Szenario abzuleiten. Die von den Sensoren 800 aufgenommenen Daten werden mittels Kommunikationsverbindungen an das Szenarienmodul 200 weitergeleitet. Insbesondere ist eine drahtlose Kommunikationsverbindung vorgesehen, die beispielsweise als Mobilfunkverbindung und/oder einer Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet sein kann.The
Da ein schnelles Berechnungsergebnis angestrebt wird, um Fahrassistenzsysteme und automatisierte Fahrfunktionen schnell testen und trainieren zu können, ist für die Vielzahl von Rechenoperationen in dem Szenarienmodul 200 die Rechengeschwindigkeit entscheidend. Um eine Durchführung der Rechenoperationen in Echtzeit zu ermöglichen, ist die Verwendung einer Cloud-Computing-Infrastruktur 400 vorteilhaft. Hierdurch kann eine schnelle Berechnung gewährleistet werden, da cloudbasierte Lösungen den Vorteil von hohen und damit schnellen Rechenleistungen bieten. Für die Kommunikation der Sensoreinrichtung 20 mit dem Szenarienmodul 200 bzw. der Cloud-Computing-Infrastruktur 400 wird insbesondere eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung verwendet, da auf diese Weise eine Datenübermittlung in Echtzeit erfolgen kann. Die Sensoreinrichtung 20 ist hierfür mit den entsprechenden Mobilfunkmodulen ausgestattet.Since a fast calculation result is sought in order to be able to quickly test and train driving assistance systems and automated driving functions, the calculation speed is crucial for the large number of calculation operations in the
5G ist der Mobilfunkstandard der fünften Generation und zeichnet sich im Vergleich zum 4G-Mobilfunkstandard durch höhere Datenraten bis zu 10 Gbit/sec, der Nutzung höherer Frequenzbereiche wie beispielsweise 2100, 2600 oder 3600 Megahertz, eine erhöhte Frequenzkapazität und damit einen erhöhten Datendurchsatz und eine Echtzeitdatenübertragung aus, da bis zu eine Million Geräte pro Quadratkilometer gleichzeitig ansprechbar sind. Die Latenzzeiten betragen wenige Millisekunden bis unter 1 ms, so dass Echtzeitübertragungen von Daten und von Berechnungsergebnissen möglich sind. Daher können die von der Sensoreinrichtung 20 aufgenommenen Sensordaten 250 in Echtzeit an das Szenarienmodul 200 weitergeleitet werden.5G is the fifth generation mobile communications standard and, compared to the 4G mobile communications standard, is characterized by higher data rates of up to 10 Gbit/sec, the use of higher frequency ranges such as 2100, 2600 or 3600 megahertz, increased frequency capacity and thus increased data throughput and real-time data transmission because up to a million devices per square kilometer can be addressed simultaneously. The latency times range from a few milliseconds to less than 1 ms, so that real-time transmission of data and calculation results is possible. Therefore, the
Durch die Integration des Szenarienmoduls 200 in einer Cloud-Computing-Infrastruktur 400 in Verbindung mit einer 5G-Mobilfunkverbindung kann somit eine Verarbeitung der von der Sensoreinrichtung 20 aufgenommenen Sensordaten 250 in Echtzeit sichergestellt werden. Um die Verbindung zu der Cloud-Computing-Infrastruktur 400 mittels einer Mobilfunkverbindung zu schützen, sind insbesondere kryptographische Verschlüsselungsverfahren vorgesehen.By integrating the
Das Szenarienmodul 200 weist eine Softwareapplikation 220 auf, die aus den realen Sensordaten 250 ein Szenario erstellt. Als Szenario wird im Rahmen der Erfindung ein Verkehrsgeschehen in einer zeitlichen Sequenz bezeichnet. Ein Beispiel für ein Szenario ist das Befahren einer Autobahnbrücke, das Abbiegen auf einer Abbiegespur, das Durchfahren eines Tunnels, das Einbiegen in einen Kreisverkehr oder das Halten vor einem Fußgängerübergang. Darüber hinaus können spezifische Sichtverhältnisse beispielsweise aufgrund der Dämmerung oder einer hohen Sonnenlichteinstrahlung sowie Umweltbedingungen wie das Wetter und die Jahreszeit, das Verkehrsaufkommen sowie bestimmte geographische topographische Verhältnisse ein Szenario beeinflussen. Beispielsweise kann ein Überholvorgang als ein Szenario beschrieben werden, bei dem ein erstes Fahrzeug sich zunächst hinter einem anderen Fahrzeug befindet, dann einen Spurwechsel auf die andere Fahrbahn durchführt und die Geschwindigkeit erhöht, um das andere Fahrzeug zu überholen. Zudem kann die Jahreszeit eine Rolle spielen, da ein Überholmanöver bei Starkregen und Glätte anders aussieht als bei Sonnenschein.The
Ein Szenario kann beispielsweise durch verschiedene Parameter und zugehörige Parameterwerte definiert werden. Die Parameterwerte legen den Wertebereich eines Parameters fest. Die Parameter umfassen beispielsweise ein bewegliches Objekt wie ein Kraftfahrzeug, ein unbewegliches Objekt wie ein Gebäude, eine Straßenkonfiguration wie eine Autobahn, eine Geschwindigkeit, ein Straßenschild, eine Ampel, einen Tunnel, einen Kreisverkehr, eine Abbiegespur, eine Beschleunigung, eine Richtung, einen Winkel, einen Radius, einen Ort, ein Verkehrsaufkommen, eine topographische Struktur wie eine Steigung, eine Uhrzeit, eine Temperatur, einen Niederschlagswert, eine Witterung, eine Jahreszeit.For example, a scenario can be defined by various parameters and associated parameter values. The parameter values determine the value range of a parameter. The parameters include, for example, a moving object such as a motor vehicle, an immovable object such as a building, a road configuration such as a highway, a speed, a street sign, a traffic light, a tunnel, a roundabout, a turning lane, an acceleration, a direction, an angle , a radius, a location, a traffic volume, a topographical structure such as a slope, a time, a temperature, a precipitation value, a weather condition, a season.
Die Softwareapplikation 220 umfasst insbesondere Algorithmen der künstlichen Intelligenz und der maschinellen Bildanalyse, um die realen Sensordaten 250 zu selektieren und zu klassifizieren. Vorteilhaftweise verwendet die Softwareapplikation 220 Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV) zur Erstellung von Szenarien aus den aufgenommenen Sensordaten 250.The
Ein neuronales Netzwerk besteht aus Neuronen, die in mehreren Schichten angeordnet und unterschiedlich miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außerhalb oder von einem anderen Neuron entgegenzunehmen, die Information in einer bestimmten Art zu bewerten und sie in veränderter Form am Neuronen-Ausgang an ein weiteres Neuron weiterzuleiten oder als Endergebnis auszugeben. Hidden-Neuronen sind zwischen den Input-Neuronen und Output-Neuronen angeordnet. Je nach Netzwerktyp können mehrere Schichten von Hidden-Neuronen vorhanden sein. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben dieses an die Außenwelt aus. Durch die unterschiedliche Anordnung und Verknüpfung der Neuronen entstehen verschiedene Typen von neuronalen Netzwerken wie vorwärtsgerichtete Netzwerke (engl. Feedforward Networks), rückwärtsgerichtete Netzwerke (eng. Recurrent Networks) oder gefaltete neuronale Netzwerke (engl. Convolutional Neural Networks). Die Netzwerke lassen sich durch unbeaufsichtigtes oder überwachtes Lernen trainierenA neural network consists of neurons arranged in several layers and connected to each other in different ways. A neuron is able to receive information from outside or from another neuron at its input, evaluate the information in a certain way and forward it in a modified form to another neuron at the neuron output or output it as the end result. Hidden neurons are located between the input neurons and output neurons. Depending on the network type, there may be multiple layers of hidden neurons. They ensure the forwarding and processing of the information. Output neurons ultimately deliver a result and output it to the outside world. The different arrangement and connection of the neurons creates different types of neural networks such as feedforward networks, recurrent networks or convolutional neural networks. The networks can be trained using unsupervised or supervised learning
Das Convolutional Neural Network (CNN) besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich der Bild- und Spracherkennung sehr gut geeignet. Die Funktionsweise eines Convolutional Neural Networks ist in einer gewissen Weise biologischen Vorgängen nachempfunden und der Aufbau ist vergleichbar der Sehrinde des Gehirns. Herkömmliche neuronale Netzwerke bestehen aus voll- oder teilverknüpften Neuronen in mehreren Ebenen und diese Strukturen stoßen bei der Verarbeitung von Bildern an ihre Grenzen, da eine der Pixelanzahl entsprechende Zahl an Eingängen vorhanden sein müsste. Das Convolutional Neural Network setzt sich aus verschiedenen Schichten zusammen und ist vom Grundprinzip ein zum Teil lokal verknüpftes neuronales Feedforward-Netzwerk. Die einzelnen Schichten des CNN sind die Convolutional-Schicht, die Pooling-Schicht und die vollständig verknüpfte Schicht. Die Convolutional-Schicht ist die eigentliche Faltungsebene und in der Lage, in den Eingabedaten einzelne Merkmale zu erkennen und zu extrahieren. Bei der Bildverarbeitung können dies Merkmale wie Linien, Kanten oder bestimmte Formen sein. Die Verarbeitung der Eingabedaten erfolgt in Form von Tensoren wie einer Matrix oder Vektoren. Die Pooling-Schicht, auch Subsampling-Schicht genannt, verdichtet und reduziert die Auflösung der erkannten Merkmale durch passende Filterfunktionen. Durch das reduzierte Datenaufkommen erhöht sich die Berechnungsgeschwindigkeit.The Convolutional Neural Network (CNN) has several convolution layers and is very well suited for machine learning and applications with artificial intelligence (AI) in the area of image and speech recognition. The way a convolutional neural network works is to a certain extent modeled on biological processes and the structure is comparable to the visual cortex of the brain. Conventional neural networks consist of fully or partially connected neurons in several levels and these structures reach their limits when processing images, as there would have to be a number of inputs corresponding to the number of pixels. The convolutional neural network is made up of different layers and is basically a partially locally linked feedforward neural network. The individual layers of the CNN are the convolutional layer, the pooling layer and the fully connected layer. The convolutional layer is the actual convolution layer and is able to recognize and extract individual features in the input data. In image processing, these can be features such as lines, edges or certain shapes. The input data is processed in the form of tensors such as a matrix or vectors. The pooling layer, also called the subsampling layer, compresses and reduces the resolution of the recognized features through appropriate filter functions. The reduced data volume increases the calculation speed.
Das Convolutional Neural Network (CNN) eignet sich daher für maschinelles Lernen und Anwendungen der Künstlichen Intelligenz mit großen Mengen an Eingabedaten wie in der Bilderkennung. Das Netzwerk arbeitet zuverlässig und ist gegenüber Verzerrungen oder anderen optischen Veränderungen unempfindlich. Das CNN kann unter verschiedenen Lichtverhältnissen und in unterschiedlichen Perspektiven aufgenommene Bilder verarbeiten. Es erkennt dennoch die typischen Merkmale eines Bildes. Da das CNN mehrere lokale teilverknüpfte Schichten umfasst, hat es einen wesentlich geringeren Speicherplatzbedarf als vollverknüpfte neuronale Netze, da durch die Faltungsschichten die Speicheranforderungen erheblich reduziert werden. Zudem verkürzt sich hierdurch die Trainingszeit eines CNN, insbesondere bei der Verwendung von modernen Grafikprozessoren.The Convolutional Neural Network (CNN) is therefore suitable for machine learning and artificial intelligence applications with large amounts of input data, such as in image recognition. The network works reliably and is insensitive to distortions or other optical changes. The CNN can process images captured under different lighting conditions and from different perspectives. It still recognizes the typical features of an image. Since the CNN includes several local partially connected layers, it has a significantly lower storage space requirement than fully connected neural networks, as the convolutional layers significantly reduce the storage requirements. This also shortens the training time of a CNN, especially when using modern graphics processors.
Das von der Softwareapplikation 220 erstellte Szenario wird an ein Simulationsmodul 300 weitergeleitet. Das Simulationsmodul 300 umfasst eine Softwareapplikationen 320, die für das übermittelte Szenario eine Simulationsumgebung 340 generiert. Als Simulationsumgebung 340 wird im Rahmen der Erfindung eine virtuelle Umgebung bezeichnet, die das jeweilige generierte Szenario, ein virtuelles Modell des Objekts 10 und ein parametrierbares virtuelles Modell der Sensoreinrichtung 20 umfasst. Das virtuelle Modell des Objekts 10 ist insbesondere als digitaler Zwilling (engl. Digital Twin) ausgebildet und in der Lage, die gleichen Bewegungen wie das reale Objekt 10 durchzuführen. Ein digitaler Zwilling ist eine virtuelle Darstellung eines realen physischen Produkts oder eines Prozesses und beinhaltet geometrische, kinematisch und sonstige Prozessinformationen. Zudem ist das virtuelle Modell des Objekts 10 mit dem parametrierbaren virtuellen Modell der Sensoreinrichtung 20 verknüpft. Das parametrierbare virtuelle Modell der Sensoreinrichtung 20 ist vorzugsweise ebenfalls als digitaler Zwilling ausgebildet. Die Parameter des parametrierbaren virtuellen Modells der Sensoreinrichtung 20 beziehen sich insbesondere auf die ausgewählte Anzahl, die Sensortypen und die jeweilige Positionierung der Sensoren 22 an dem Objekt 10. Durch eine Änderung von einem oder mehreren Parametern können somit unterschiedliche Konfigurationen der Sensoreinrichtung 20 erstellt werden.The scenario created by the
Die Daten bzw. Skripte für das virtuelle Modell des Objekts 10 und das parametrierbare virtuelle Modell der Sensoreinrichtung 20 können in einer Datenbank 370 gespeichert sein, aus der sie von dem Simulationsmodul 300 abgerufen werden. Insbesondere können virtuelle Modelle bzw. digitale Zwillinge für verschiedene Objekte 10, wie insbesondere für verschiedene Fahrzeugmodelle gespeichert sein. Zudem sind die Parameter für verschiedene Sensortypen der Sensoren 22 in der Datenbank 370 gespeichert. Des Weiteren können in der Datenbank 370 historische Daten in Form von Bildern, Graphiken, Zeitreihen, Kenngrößen, etc. abgelegt sein. Hierbei können Zielgrößen und Zielwerte einen Sicherheitsstandard definieren. Unter „Datenbank“ ist sowohl ein Speicheralgorithmus als auch die Hardware in Form einer Speichereinheit zu verstehen. Insbesondere kann die Datenbank 370 ebenfalls in der Cloud-Computing-Infrastruktur 400 integriert sein.The data or scripts for the virtual model of the
Nach der Generierung der Simulationsumgebung 340 werden von der Softwareapplikation 320 virtuelle Sensordaten 350 für diese Simulationsumgebung 340 extrahiert. Diese virtuellen Sensordaten 350 simulieren diejenigen realen Sensordaten, die von der Umgebung des sich bewegenden Objekts 10 aufgenommen würden, wenn diese mit Sensoren 22 entsprechend der ausgewählten Sensorkonfiguration der Sensoreinrichtung 20 erfasst worden wäre.After the
Es handelt sich somit um einen inversen Vorgang zu der Erstellung der Simulationsumgebung 340 aus den realen Sensordaten 250. Da die Simulationsumgebung 340 aus dem mittels der realen Sensordaten 250 erstellten Szenario und einem virtuellen Modell des Objekts 10 sowie einer ausgewählten Konfiguration der Sensoreinrichtung 20 generiert wurde, können die virtuellen Sensordaten 350 von den realen Sensordaten 250 abweichen.It is therefore an inverse process to the creation of the
Die Softwareapplikation 320 umfasst ebenfalls insbesondere Algorithmen der künstlichen Intelligenz und der maschinellen Bildanalyse, um die Simulationsumgebung 340 zu erstellen. Vorteilhaftweise verwendet die Softwareapplikation 320 Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit zumindest einem gefalteten neuronalen Netzwerk (engl.: convolutional neural network) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV). Insbesondere sind die neuronalen Netzwerke in einer umgekehrten Reihenfolge angeordnet, da nun aus der Simulationsumgebung 340 die virtuellen Sensordaten 350 extrahiert werden.The
Diese virtuell generierten Sensordaten 350 werden von dem Simulationsmodul 300 an das ADAS/ADS-Modul 30 weitergegeben, um die verschiedenen Funktionen eines oder mehrerer ADAS/ADS-Systeme zu testen, zu trainieren und zu validieren. Für die Kommunikation des Simulationsmoduls 300 mit dem ADAS/ADS-Modul 30 wird wiederum insbesondere eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung verwendet, da auf diese Weise eine Datenübermittlung in Echtzeit erfolgen kann. Aufgrund der Echtzeitberechnung hat sich das augenblickliche Szenario kaum geändert, so dass eine oder mehrere Funktionen des ADAS/ADS-Systems für dieses Szenario getestet bzw. validiert werden kann/können.This virtually generated
Das Verhalten der jeweiligen Funktion des ADAS/ADS-Systems kann durch Sensoren 24 wie insbesondere Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Drehzahlsensoren, Drehmomentsensoren, Spannungssensoren gemessen werden. Diese Messdaten für die jeweilige Konfiguration der Sensoreinrichtung 20 können an ein Bewertungsmodul 500 weitergegeben werden. Das Bewertungsmodul 500 umfasst eine Softwareapplikation 550, die aus den Messdaten Testergebnisse ableitet und diese bewertet.The behavior of the respective function of the ADAS/ADS system can be measured by
Zudem können Optimierungsalgorithmen vorgesehen sein, mit denen aus den Testergebnissen für die verschiedenen Konfigurationen der Sensoreinrichtung 20 eine optimale Konfiguration der Sensoreinrichtung 20, die für eine hohe Anzahl von Szenarien geeignet ist, berechnet werden kann. Als Optimierungsalgorithmen können Algorithmen zur Abschätzung von Verteilungen wie beispielsweise Bayesian Optimierung, evolutionäre Algorithmen wie genetische Algorithmen und evolutionäre Strategien mit Operatoren wie Mutation, Selektion, Rekombination, oder numerische Verfahren wie das Nelder-Meat-Verfahren, Ameisenalgorithmen (Ant Colony Optimierung), Partikelschwarmoptimierung, oder heuristische Approximationsverfahren wie simuliertes Ausglühen (Simulated Annealing) verwendet werden. Es sind somit eine Vielzahl von Optimierungsverfahren im Bereich des Maschinenlernens denkbar, die von dem Bewertungsmodul 500 zum Auffinden einer passenden Konfiguration für die Sensoreinrichtung 20 verwendet werden können.In addition, optimization algorithms can be provided with which an optimal configuration of the
Ein Verfahren zur Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) für eine Vielzahl von Szenarien umfasst die folgenden Verfahrensschritten:
- In einem Schritt S10 werden
reale Sensordaten 250 einer Umgebung eines sich bewegenden Objekts 10 mittels Sensoren 22einer Sensoreinrichtung 20 des sich bewegenden Objekts 10 erfasst. - In einem Schritt S20 werden die
realen Sensordaten 250 anein Szenarienmodul 200 übermittelt. - In einem Schritt S30 wird zumindest ein Szenario aus
den realen Sensordaten 250 für das Verkehrsgeschehen in der Umgebung des sich bewegenden Objekts 10 mittels einerSoftwareapplikation 220 desSzenarienmoduls 200 generiert. - In einem Schritt S40 wird das generierte Szenario an
ein Simulationsmodul 300; übermittelt. - In einem Schritt S50 wird eine bestimmte Konfiguration eines parametrisierbaren virtuellen
Modells der Sensoreinrichtung 20 durch Auswählen von Parametern wie der Anzahl, der Sensortypen und der Einbaupositionen der Sensoren 22 festgelegt. - In einem Schritt S60 wird eine Simulationsumgebung 340 generiert,
wobei die Simulationsumgebung 340 zumindest das generierte Szenario, ein virtuelles Modell des Objekts 10 und die festgelegte Konfiguration des parametrisierbaren virtuellen Modells der Sensoreinrichtung 20 umfasst. - In einem Schritt S70 werden virtuelle Sensordaten 350 für die generierte Simulationsumgebung 340 simuliert.
- In einem Schritt S80 werden die
virtuellen Sensordaten 350 an ein ADAS/ADS-Modul 30 des sich bewegenden Objekts 10 übermittelt, wobei das ADAS/ADS-Modul 30 zumindest ein ADAS/ADS-System umfasst. - In einem Schritt S90 wird zumindest eine Funktion des ADAS/ADS-Systems validiert, getestet oder trainiert.
- In a step S10,
real sensor data 250 of an environment of a movingobject 10 is recorded by means ofsensors 22 of asensor device 20 of the movingobject 10. - In a step S20, the
real sensor data 250 is transmitted to ascenario module 200. - In a step S30, at least one scenario is generated from the
real sensor data 250 for the traffic situation in the surroundings of the movingobject 10 using asoftware application 220 of thescenario module 200. - In a step S40, the generated scenario is sent to a
simulation module 300; transmitted. - In a step S50, a specific configuration of a parameterizable virtual model of the
sensor device 20 is determined by selecting parameters such as the number, the sensor types and the installation positions of thesensors 22. - In a step S60, a
simulation environment 340 is generated, thesimulation environment 340 comprising at least the generated scenario, a virtual model of theobject 10 and the specified configuration of the parameterizable virtual model of thesensor device 20. - In a step S70,
virtual sensor data 350 is simulated for the generatedsimulation environment 340. - In a step S80, the
virtual sensor data 350 is transmitted to an ADAS/ADS module 30 of the movingobject 10, the ADAS/ADS module 30 comprising at least one ADAS/ADS system. - In a step S90, at least one function of the ADAS/ADS system is validated, tested or trained.
Durch die erfindungsgemäße Generierung einer Simulationsumgebung 340, die auf einer realen Umgebung basiert, können in Echtzeit virtuelle Sensordaten 350 generiert werden. Durch die Variation der Parameter der Sensoreinrichtung 20 kann somit untersucht werden, wie sich unterschiedliche Konfigurationen der Sensoreinrichtung 20, die sich hinsichtlich der Anzahl, der Sensortypen und der Positionierung der Sensoren 22 unterscheiden und somit jeweils ein anderes Spektrum von Sensorsignalen bezogen auf eine spezifische Umgebung erzeugen, auf das Verhalten einer oder mehrerer Funktionen eines ADAS/ADS-Systems auswirken. Es kann somit auf die reale Konstruktion einer Vielzahl von Prototypen von Sensoreinrichtungen 20 mit verschiedenen Konfigurationen verzichtet werden, da das Verhalten eines ADAS/ADS-Systems für eine spezifische Konfiguration einer Sensoreinrichtung 20 mittels des erfindungsgemäßen Verfahrens getestet und validiert werden kann. Hierdurch sind erhebliche Kosten- und Zeiteinsparungen möglich.By generating a
BezugszeichenReference symbols
- 1010
- Objektobject
- 2020
- SensoreinrichtungSensor device
- 2222
- SensorenSensors
- 2424
- SensorenSensors
- 3030
- ADAS/ADS-ModulADAS/ADS module
- 100100
- Systemsystem
- 200200
- SzenarienmodulScenario module
- 220220
- SoftwareapplikationSoftware application
- 250250
- reale Sensordatenreal sensor data
- 300300
- SimulationsmodulSimulation module
- 320320
- SoftwareapplikationSoftware application
- 340340
- SimulationsumgebungSimulation environment
- 350350
- virtuelle Sensordatenvirtual sensor data
- 370370
- DatenbankDatabase
- 400400
- Cloud Computing-InfrastrukturCloud computing infrastructure
- 500500
- BewertungsmodulAssessment module
- 550550
- SoftwareapplikationSoftware application
- 900900
- ComputerprogrammproduktComputer program product
- 950950
- ProgrammcodeProgram code
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2021/0350046 A1 [0008]US 2021/0350046 A1 [0008]
- DE 102020/202650 A1 [0009]DE 102020/202650 A1 [0009]
- DE 102021/100696 A1 [0010]DE 102021/100696 A1 [0010]
- DE 112020/000413 T5 [0011]DE 112020/000413 T5 [0011]
- US 2020/0209858 A1 [0012]US 2020/0209858 A1 [0012]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022118631.8A DE102022118631A1 (en) | 2022-07-26 | 2022-07-26 | Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022118631.8A DE102022118631A1 (en) | 2022-07-26 | 2022-07-26 | Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022118631A1 true DE102022118631A1 (en) | 2024-02-01 |
Family
ID=89508600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022118631.8A Pending DE102022118631A1 (en) | 2022-07-26 | 2022-07-26 | Method, system and computer program product for validating a driver assistance system (ADAS) and/or an automated driving system (ADS) |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022118631A1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017208692A1 (en) | 2017-05-23 | 2018-11-29 | Audi Ag | Method for providing training data for a functional test of a recognition device and database system |
DE102018003130A1 (en) | 2018-04-17 | 2019-10-17 | Psa Automobiles Sa | Testing a vehicle with simulated road users |
US20200209858A1 (en) | 2018-12-31 | 2020-07-02 | Luminar Technologies, Inc. | Generating environmental parameters based on sensor data using machine learning |
DE102019124504A1 (en) | 2019-09-12 | 2021-04-01 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for simulating and evaluating a sensor system for a vehicle as well as method and device for designing a sensor system for environment detection for a vehicle |
DE102021100696A1 (en) | 2020-02-14 | 2021-08-19 | GM Global Technology Operations LLC | PROCEDURES, SYSTEMS AND DEVICES FOR EDGE-BASED NOTIFICATION BY CROWDSOURCED LIVE STREAMED FLEET COMMUNICATION |
DE102020202650A1 (en) | 2020-03-02 | 2021-09-02 | Psa Automobiles Sa | Computer-implemented method for route calculation for an autonomously driving motor vehicle, method for driving an autonomously driving motor vehicle, computer program product and motor vehicle |
DE112020000413T5 (en) | 2019-12-03 | 2021-11-04 | Nvidia Corporation | DETECTION OF ORIENTATION POINTS USING CURVE FITTING FOR APPLICATIONS FOR AUTONOMOUS DRIVING |
US20210350046A1 (en) | 2020-05-07 | 2021-11-11 | Joby Elevate, Inc. | Systems and Methods for Simulating Aircraft Systems |
-
2022
- 2022-07-26 DE DE102022118631.8A patent/DE102022118631A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017208692A1 (en) | 2017-05-23 | 2018-11-29 | Audi Ag | Method for providing training data for a functional test of a recognition device and database system |
DE102018003130A1 (en) | 2018-04-17 | 2019-10-17 | Psa Automobiles Sa | Testing a vehicle with simulated road users |
US20200209858A1 (en) | 2018-12-31 | 2020-07-02 | Luminar Technologies, Inc. | Generating environmental parameters based on sensor data using machine learning |
DE102019124504A1 (en) | 2019-09-12 | 2021-04-01 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for simulating and evaluating a sensor system for a vehicle as well as method and device for designing a sensor system for environment detection for a vehicle |
DE112020000413T5 (en) | 2019-12-03 | 2021-11-04 | Nvidia Corporation | DETECTION OF ORIENTATION POINTS USING CURVE FITTING FOR APPLICATIONS FOR AUTONOMOUS DRIVING |
DE102021100696A1 (en) | 2020-02-14 | 2021-08-19 | GM Global Technology Operations LLC | PROCEDURES, SYSTEMS AND DEVICES FOR EDGE-BASED NOTIFICATION BY CROWDSOURCED LIVE STREAMED FLEET COMMUNICATION |
DE102020202650A1 (en) | 2020-03-02 | 2021-09-02 | Psa Automobiles Sa | Computer-implemented method for route calculation for an autonomously driving motor vehicle, method for driving an autonomously driving motor vehicle, computer program product and motor vehicle |
US20210350046A1 (en) | 2020-05-07 | 2021-11-11 | Joby Elevate, Inc. | Systems and Methods for Simulating Aircraft Systems |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017126877B4 (en) | motor vehicle | |
DE102018121595B4 (en) | UNSUPERVISED TRAINING OF AGENTS FOR AUTONOMOUS DRIVING APPLICATIONS | |
DE102020111682A1 (en) | SYSTEMS AND METHODS FOR IMPLEMENTING AN AUTONOMOUS VEHICLE REACTION TO A SENSOR FAILURE | |
DE102018102027A1 (en) | EFFICIENT SITUATION AWARENESS THROUGH EVENT GENERATION AND EPISODIC STORAGE FOR AUTONOMOUS DRIVE SYSTEMS | |
DE102016212700A1 (en) | Method and system for controlling a vehicle | |
DE102019108644A1 (en) | METHOD AND DEVICE FOR AUTOMATIC LEARNING OF RULES FOR AUTONOMOUS DRIVING | |
DE102016219455A1 (en) | Motor vehicle, method and active infrastructure for checking an environment detection of a motor vehicle | |
DE102022112059B3 (en) | Method, system and computer program product for calibrating and validating a driver assistance system (ADAS) and/or an automated driving system (ADS) | |
DE102020119541A1 (en) | DETECTING VEHICLE OPERATING CONDITIONS | |
DE102020117376A1 (en) | GENERATION OF A VEHICLE IMAGE | |
WO2013029722A2 (en) | Method for representing surroundings | |
DE102021125166A1 (en) | DETERMINATION OF CROSS WIND RISKS | |
DE102019112649A1 (en) | DEVICE AND METHOD FOR IMPROVING RADAR BEAM FORMING | |
DE102021128041A1 (en) | IMPROVEMENT OF A VEHICLE NEURAL NETWORK | |
DE102021124913A1 (en) | METRIC BACKPROPAGATION FOR EVALUATION OF SUBSYSTEMS PERFORMANCE | |
DE102021131991A1 (en) | VEHICLE SENSOR CLEANING AND COOLING | |
DE102019114626B4 (en) | Motor vehicle with a system for checking hardware in a motor vehicle | |
DE102021104323A1 (en) | RIGHT OF RIGHT DECISION OF A VEHICLE | |
DE102019114707A1 (en) | System and method for detecting objects in an autonomous vehicle | |
DE102020122086A1 (en) | MEASURING CONFIDENCE IN DEEP NEURAL NETWORKS | |
DE112022001861T5 (en) | MOTION CONSISTENCY MEASUREMENT FOR THE OPERATION OF AN AUTONOMOUS VEHICLE | |
DE102019114792A1 (en) | SYSTEM AND METHOD FOR AUTONOMOUSLY CONTROLLING A PATH OF A VEHICLE | |
DE102021205230A1 (en) | HAZARD DETECTION ENSEMBLE ARCHITECTURE SYSTEM AND PROCEDURE | |
DE102023101951A1 (en) | VEHICLE CONTROL FOR OPTIMIZED OPERATION | |
DE102021131054A1 (en) | Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |